WO2007071677A1 - Enhanced image processing method for preventing image piracy - Google Patents

Enhanced image processing method for preventing image piracy Download PDF

Info

Publication number
WO2007071677A1
WO2007071677A1 PCT/EP2006/069919 EP2006069919W WO2007071677A1 WO 2007071677 A1 WO2007071677 A1 WO 2007071677A1 EP 2006069919 W EP2006069919 W EP 2006069919W WO 2007071677 A1 WO2007071677 A1 WO 2007071677A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
image
pixel
space
component
Prior art date
Application number
PCT/EP2006/069919
Other languages
French (fr)
Inventor
Laurent Blonde
Pascal Bourdon
Julien Thollot
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of WO2007071677A1 publication Critical patent/WO2007071677A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91357Television signal processing therefor for scrambling ; for copy protection by modifying the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91392Television signal processing therefor for scrambling ; for copy protection using means for preventing making copies of projected video images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application

Definitions

  • the invention relates to a method for processing a source image (I s ) comprising a step of decomposing this image (I s ) into a series of n "component" images (I C1 , I C2 , ..., Ick - - -. 'in) 0 M are different, said decomposition being adapted for the successive display of the images of this series to a frequency higher than the color fusion frequency for the human eye to produce a merged image ( I F ) identical to said source image. This frequency is n times greater than the display frequency of the source image.
  • Such an image processing method is described in WO05 / 027529 - THOMSON.
  • each pixel of this image is associated on the one hand with a display of the screen, on the other hand with a triplet of video data (D R , D G , D B ), and control each display of the screen which is associated with a pixel of the image using the video data triple (D R , D G , D B ) associated with this pixel.
  • each triplet of video data associated with a pixel of the image to be displayed forms, in a color space linked to the display device, the coordinates of what is called the color vector of this pixel.
  • the set of possible values of the triplets of video data or color vectors describes, in this color space associated with the device, a range or "gamut" three-dimensional color.
  • the video data is generally normalized, for example in the PAL system or in the NTSC system, both of which are so-called luminance-chrominance systems.
  • a PAL image display device therefore receives, in the form of electrical signals, triplets of video data, generally noted (Y, U, V), which correspond to the set color vectors and thus pixels of this image, in the color PAL space linked to this device.
  • an NTSC image display device therefore receives, in the form of electrical signals, the video data triplets, generally noted (Y, I, Q), which correspond to each other.
  • the essential criteria for the decomposition of a color vector from one pixel of the source image into two color vectors each associated with a pixel of a component image are that in the YUV color space related to the display device, the points C 1 , C 3 , and C 4 are aligned, belong to the color gamut of the device, and that the Euclidean distance C 1 C 3 is equal to the Euclidean distance C 1 C 4 .
  • the prior art cites the transposition of color vectors in other spaces for image processing with other purposes, such as for example US6640005 and US2003 / 184779.
  • the subject of the invention is a method for processing a source image (I 80 ) comprising a step of decomposition into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'en) in a color space which, according to the invention, is independent of any display device.
  • the invention particularly relates to a method for processing a source image (I 80 ) comprising a step of decomposing this image (I 80 ) into a series of n "component” images (I C1 , I C2 , .. ., Ick - - - '') 0 M are different, in which:
  • each "source” pixel (E SOj ) of the source image (I 80 ) which is decomposed corresponds to a "component" pixel in each of the n images
  • Components (I C1 , I C2 , ..., l C k> - -> 1 Cn) - and, each pixel of said images, source or components, being associated with a color vector in a given color space, said decomposition is performed in such a way that the associated color vector, in this space, at each source pixel ( E SOj ) which is decomposed to be equal to the resultant, divided by n, of the associated color vectors, in this same space, to the component pixels that correspond to said source pixel.
  • said color space is independent of any display device.
  • the source image comprises q pixels which are decomposed, the other pixels of this source image then not being decomposed; the pixels that are not decomposed are unchanged in each of the component images; on the contrary, each decomposed pixel corresponds to a series of n component pixels, at least two of the pixels of this series being different, so that the n "component" images (I C1 , I C2 , ..., Ick- ..., l Cn ) actually differentiate; the set of decomposed pixels
  • the subject of the invention is a method for processing a source image (I 80 ) comprising a step of decomposing this image (I 80 ) into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'En) 0 M are different,
  • each pixel of said images, source or components being associated with a color vector in a color space which comprises the absolute quantity of luminance and which is independent of any display device, the n "component" images (I C1 , I C2 , ..., Ick- - -. 'En) being differentiated by a plurality of "component” pixels whose resultant color vectors, in said space, is equal to n times the color vectors associated with the decomposed pixels (E S (n , E 802 , - -, E SOj , ..., E SOq ) of a corresponding plurality of said source image (I 80 ).
  • this decomposition is adapted so that the successive display of the images of this series of n "component" images, at a frequency which is equal to n times the display frequency of said source image and which is greater than the color fusion frequency for the human eye , produce a merged image (I F ) identical or almost identical to said source image
  • the color vector which, multiplied by n, is the resultant of the "component" color vectors has a luminance equal to the average of the luminance of these color vectors and a chrominance resulting from the chrominance composition of these color vectors.
  • This color vector corresponds to what the eye perceives when a succession of pixels corresponding to these color vectors "components" is displayed at a frequency greater than the melting frequency of the eye.
  • the invention therefore proposes to perform the decomposition of color vectors in a color space which is independent of any display device. It has been found that, according to the invention, by decomposing the color vectors of a source image in such a visual space independent of any display device, instead of proceeding in a visual space depending on the device of the device. display as the YUV space as in the prior art (see document WO05 / 027529), it is found that the successive visualization, at a frequency greater than the color melting frequency for the human eye, of the component images of this The source image produces a merged image (I F ) much closer to the source image than in the prior art, even when the differences between the component images are exacerbated to enhance the interference.
  • I F merged image
  • the color space used for the decomposition comprises the absolute quantity of luminance, which is generally expressed in cd / m 2 : the absolute space XYZ satisfies this criterion.
  • said color space is of XYZ type or linearly derived from this space.
  • the XYZ color space is an absolute visual space in the sense that the X, Y, Z coordinates are each expressed in cd / m 2 .
  • the XYZ color space is defined, in particular, as a visual space whose primary colors are adapted so that all the colors perceptible to the human eye are expressed by positive trichromatic components and for one Y of these color components to represent luminance information.
  • the luminance parameter Y of this space Ycd resumes that of the space XYZ.
  • the decomposition of the source images is then carried out in a color space denoted Ycd or linearly derived from Ycd, which does not depend on the display device used for displaying the processed image.
  • said color space is perceptually uniform.
  • the color space used can be in particular the CIE-LAB space, the CIE-LUV space, the QMH space, or the JCH space; preferably, the CIE-LAB space or a space linearly derived from this space is used.
  • the choice of such a perceptually uniform space advantageously makes it possible to further exacerbate the differences between the component images, this time as they are perceived by the human eye, which further enhances the level of interference; note that the LAB space also includes the luminance magnitude.
  • each pixel of said source image being associated with a video data triple (D R , D G , D B ) which conventionally forms the coordinates of the color vector associated with said pixel of this image in a color space associated with said device:
  • each pixel of said plurality of differentiating pixels being associated with a color source vector, determining the coordinates of said source vector in said device-independent color space by a first processing of said video data associated with said pixel, and determining the coordinates of the color component vectors whose resultant, in said device-independent color space, is equal to n times said color source vector,
  • each color component vector being associated with a pixel of a component image a video data triplet associated with this pixel is determined by a second processing, inverse of the first, of the coordinates of said color component vector associated with this pixel .
  • the invention also relates to a method for displaying a source image sequence at a source display frequency in which at least one source image (I 80 ) is processed by the method according to the invention, according to the first or the second essential variant, to be decomposed into a series of n "component" images (I C1 , I C2 ,..., Ick - -... en) 0 M are different, and in which one displays successively said component images at a component display frequency equal to n times said source display frequency, wherein said component display frequency is greater than the color fusion frequency for the human eye.
  • the invention also relates to a device for displaying an image sequence, where each pixel of an image of this sequence is associated with a video data triple (D R , D G , D B ), comprising:
  • a display screen provided with a two-dimensional matrix of polychromatic elementary displays, each display being associated with a pixel of the image to be displayed,
  • processing means capable of processing at least one image to be displayed of said sequence by the method according to the invention, to be decomposed into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'in) 0 M are different, and for associating with each pixel of a triplet its component images of video data (D R, D G, D B),
  • control means for controlling each elementary display associated with a pixel of an image to be displayed as a function of a video data triplet associated with this pixel, wherein said control means are adapted to successively display the component images of each series at a frequency higher than the color melting frequency.
  • a group of three liquid crystal or micro-mirror valves modulating in three different primary colors or a group of three light-emitting diodes emitting in three different primary colors.
  • each elementary display is formed by a valve.
  • FIG. 2 represents a step of the decomposition of a color vector of a source image into two color vectors of component images, in the same color space (Y, c, d) independent of this device, according to the same embodiment of the invention as that of Figure 1.
  • an image display device having a screen comprising a matrix of display elements and having control means for these display elements, in which, to obtain the display of a given image , each pixel of this image is associated with a video data triple (D R , D G , D B ) which, when it is addressed to the display element corresponding to this pixel, via the control means of this device generates the display of this pixel.
  • D R , D G , D B video data triple
  • Each image of the sequence is partitioned into a matrix of pixels, so that each display element corresponds to a pixel of this matrix.
  • a display device can be indifferently a digital video projector, a retro-projector, a plasma screen, an LCD screen or another image display screen that is addressable by video data.
  • a source image to be decomposed I 80 is selected, here in a series of two component images I C1 , I C2 .
  • Some pixels of the two component images I C1 , I C2 are identical to those of the source image I 80 , others differ from the source image and form a plurality of q differentiating pixels: E C11 , E C12 , ..
  • each component image I C1 , I C2 there are therefore q pixels differentiating from the source image I 80 , the other pixels being identical.
  • the number of differentiating pixels preferably represents at least 10% of the total number of pixels of an image, so that the difference between the component images can be perceptible to the eye.
  • the decomposition of the source image I 80 which will be described below aims to obtain that the fusion of the pixels E cl I and E C21 , E cl2 and E C22 , ..., E clj and E C2j , ... , E clq and E C2q , identical positions on all the component images I C1 , I C2 , generates for the human eye a pixel identical to that (E S (n , E 802 , ..., E SOj , .. ., E SOq ) of the same position on the source image I 80.
  • the source pixels (E S (n , E 802 , ..., E SOj , ..., E SOq ) are decomposed into component pixels (E C11 , E C12 ,..., E clj , ...., E clq ) for the component I C1 image, and component pixels (E C21 , E C22 , ..., E C2j , ...., E C2q ) for the component image I C2, the pixels of the source image I 80 that are to be decomposed therefore form the following plurality: E S (n , E 802 , ..., E SOj , ..., E SOq
  • E SOj a plurality
  • the quality of the image display is not deteriorated.
  • the triplet (D R S0 , D G S0 , D B S0 ) associated with the pixel E SOj represents the coordinates of a vector OP S0 , called "color vector", in an associated color space. to the display device.
  • the video data as it is to be addressed to the display device is all encoded in 10 bits; each of the video data can therefore take an integer value between 0 and 1023.
  • the three columns of Table 1 below give the coordinates of color reference vectors OO, OR, OG, OB, OC, OM, OY and OW, corresponding, in the order of the lines, to the black, then to each of the primaries of the device (respectively red, green and blue), then to each of the secondary of the device (respectively cyan, magenta, and yellow), then to the white of reference of the device.
  • the ends of these color reference vectors therefore delimit a cube in this color space, also called a three-dimensional gamut, within which, including limits, are all the color vectors that can be displayed by the display elements of the color. the screen.
  • Table 1 gives the correspondence between the coordinate values of the eight color reference vectors OO, OR, OG, OB, OC, OM, OY and OW. when expressed in the video data space or device-specific color space, when expressed in XYZ space, and when expressed in the new color space used here for decomposition.
  • the correspondence D R , D G , D B -> XYZ is established in a manner known per se, for example using known methods of colorimetric characterization of a display device, such as those described in the referenced IEC standard. 61966. To establish this correspondence, it is also possible to use the known spectral visual functions x ( ⁇ ), y ( ⁇ ), z ( ⁇ ) which are characteristic of XYZ color systems. Other known correspondence methods can also be used.
  • linear interpolation is performed from color reference vectors, on the one hand, which frame the color vector OP SOj , on the other hand for which the correspondence D R , D G , D B -> XYZ -> Ycd has been established, as previously mentioned; such a linear interpolation method is known per se and will not be described here in detail.
  • the minimum circle 5 is centered on P SOj and has a radius equal to 0.5 x L SOj ;
  • the average circle 6 is centered on P SOj and has a radius equal to 0.8 x L SOj ;
  • the radius L SOj of the limit circle is deduced from the equation representing algebraically the reduced two-dimensional gamut 3 and from the equation expressing that the point P SOj is the centroid of the limit points P 1 JL and P 2jL .
  • the factors 0.5 and 0.8 correspond to possible values of a factor of scrambling K SOj specific to the pixel E SOj ; this factor can be common to all the pixels of the source image S 0 to be broken down; conversely, this factor can be variable according to the pixels of the source image S 0 to be decomposed, preferably inversely proportional to the motion vector of this pixel, so as to advantageously reduce the interference rate in the parts of the image subject to strong movement; it can be common to all the source images to decompose, or on the contrary be variable according to the source images.
  • the ends of the color component vectors are chosen so that their centroid, in the color space according to the invention, coincides approximately with the P SO j end of the color source vector.
  • the triplets (D R , cl , D G , cl , D B, clj ), (D R , C2j , D G , C2j , D B, C2j ) are calculated which express the coordinates of the same two color vectors OP clj , OP C2j , this time in the color space linked to the device.
  • the pixels E 0 e. Eq 2 of the component images I C1 , I C2 will be displayed successively from the following triplets of video data (D R , cl , D G , cl , D B, clj ), (D R , C2j , D G , C2j , D B C2j ), which will generate, because of the merging of the colors, a pixel identical to the pixel E SOj of the source image E 80 .
  • the present invention has been described with reference to a source image decomposition into two component images; decompositions into one higher number of component images can be envisaged without departing from the invention; by generalizing, a source image can thus be decomposed into a series of n "component" images: I C1 , I C2 , ..., Ick- Cn ; alternatively, the number n, greater than or equal to 2, may vary depending on the source image to be decomposed; indeed, as the color melting frequency depends on the brightness of the images, it is possible to consider a higher number n for low melting frequencies, and vice versa.
  • Other visual color spaces independent of the display device can be envisaged without departing from the invention, in particular the linearly derived spaces of the XYZ space.
  • a perceptually uniform space is chosen, such as the CIE-LAB space (also called Lab), the CIE-LUV space (also called Luv), or the QMH space, or the JCH space;
  • QCH space Q is the brightness (brightness)
  • C is the colorfulness
  • H is the huequadrature or hueangle;
  • JCH J designates the luminance ("lightness")
  • C designates the "chroma”
  • H designates as previously the hue.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Processing of a source image I<SUB>S0</SUB> includes a step of breaking the image down into a series of n component images (I<SUB>C1</SUB>, I<SUB>C2</SUB>, ..., I<SUB>Ck</SUB>,, I<SUB>Cn</SUB>) in a colour space that includes the absolute brightness quantity and is, according to the invention, independent of any display device. When the images in the series are displayed one after the other at a frequency n times greater than the display frequency of the source image and higher than the colour fusion frequency of the human eye, the resulting fused image I<SUB>F</SUB> is identical or nearly identical to the source image. The invention enables differences between component images to be accentuated and the interference level to be raised without adversely affecting the image display.

Description

PIRATAGE D'IMAGES. PIRACY OF IMAGES.
L'invention concerne un procédé de traitement d'une image source (I s) comprenant une étape de décomposition de cette image (I s) en une série de n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes, ladite décomposition étant adaptée pour que l'affichage successif des images de cette série à une fréquence supérieure à la fréquence de fusion des couleurs pour que l'œil humain produise une image fusionnée (IF) identique à ladite image source. Cette fréquence est n fois supérieure à la fréquence d'affichage de l'image source. Un tel procédé de traitement d'image est décrit dans le document WO05/027529 - THOMSON.The invention relates to a method for processing a source image (I s ) comprising a step of decomposing this image (I s ) into a series of n "component" images (I C1 , I C2 , ..., Ick - - -. 'in) 0 M are different, said decomposition being adapted for the successive display of the images of this series to a frequency higher than the color fusion frequency for the human eye to produce a merged image ( I F ) identical to said source image. This frequency is n times greater than the display frequency of the source image. Such an image processing method is described in WO05 / 027529 - THOMSON.
L'identité ou quasi-identité entre l'image source et l'image résultante de la fusion temporelle des images composantes signifie que les différences éventuelles entre ces deux images ne sont pas perceptibles à l'œil. De manière générale, pour afficher une image à l'aide d'un dispositif d'affichage d'image comprenant un écran d'affichage doté d'une matrice bidimensionnelle d'afficheurs élémentaires polychromes, et des moyens pour commander chaque afficheur élémentaire en fonction d'un triplet de données vidéo, on associe à chaque pixel de cette image d'une part un afficheur de l'écran, d'autre part un triplet de données vidéo (DR, DG, DB), et on commande chaque afficheur de l'écran auquel est associé un pixel de l'image à l'aide du triplet de données vidéo (DR, DG, DB) associé à ce pixel. Par convention, chaque triplet de données vidéo associé à un pixel de l'image à afficher forme, dans un espace de couleur lié au dispositif d'affichage, les coordonnées de ce qu'on appelle le vecteur de couleur de ce pixel. Par définition, l'ensemble des valeurs possibles des triplets de données vidéo ou de vecteurs de couleur décrit, dans cet espace de couleur associé au dispositif, une gamme ou « gamut » tridimensionnel de couleur.The identity or quasi-identity between the source image and the resulting image of the temporal fusion of the component images means that any differences between these two images are not perceptible to the eye. In general, for displaying an image using an image display device comprising a display screen having a two-dimensional matrix of polychromatic elementary displays, and means for controlling each elementary display according to of a triplet of video data, each pixel of this image is associated on the one hand with a display of the screen, on the other hand with a triplet of video data (D R , D G , D B ), and control each display of the screen which is associated with a pixel of the image using the video data triple (D R , D G , D B ) associated with this pixel. By convention, each triplet of video data associated with a pixel of the image to be displayed forms, in a color space linked to the display device, the coordinates of what is called the color vector of this pixel. By definition, the set of possible values of the triplets of video data or color vectors describes, in this color space associated with the device, a range or "gamut" three-dimensional color.
Dans le cas de l'affichage de séquences de télévision, les données vidéo sont généralement normalisées, par exemple dans le système PAL ou dans le système NTSC, qui sont tous les deux des systèmes dits luminance- chrominance. Pour l'affichage d'une image, un dispositif PAL d'affichage d'images reçoit donc, sous forme de signaux électriques, des triplets de données vidéo, généralement notés (Y, U, V), qui correspondent à l'ensemble des vecteurs de couleur et donc des pixels de cette image, dans l'espace PAL de couleur lié à ce dispositif. De la même façon, pour l'affichage d'une image, un dispositif NTSC d'affichage d'images reçoit donc, sous forme de signaux électriques, les triplets de données vidéo, généralement notés (Y, I, Q), qui correspondent à l'ensemble des vecteurs de couleur et donc des pixels de cette image, dans l'espace NTSC de couleur lié à ce dispositif. Par extension, on parle donc des espaces YUV et YIQ, où Y désigne la luminance, et où U et V, ou I et Q désignent la chrominance.In the case of displaying television sequences, the video data is generally normalized, for example in the PAL system or in the NTSC system, both of which are so-called luminance-chrominance systems. For the display of an image, a PAL image display device therefore receives, in the form of electrical signals, triplets of video data, generally noted (Y, U, V), which correspond to the set color vectors and thus pixels of this image, in the color PAL space linked to this device. In the same way, for the display of an image, an NTSC image display device therefore receives, in the form of electrical signals, the video data triplets, generally noted (Y, I, Q), which correspond to each other. to the set of color vectors and thus pixels of this image, in the NTSC color space linked to this device. By extension, we thus speak of the spaces YUV and YIQ, where Y designates the luminance, and where U and V, where I and Q designate the chrominance.
Lorsqu'il est appliqué à l'affichage d'une séquence d'image à l'aide d'un dispositif d'affichage d'images, le procédé de traitement d'images décrit dans le document WO05/027529 précité aboutit à un procédé d'affichage d'images. Comme indiqué dans ce document, un tel procédé d'affichage permet alors :When applied to the display of an image sequence using an image display device, the image processing method described in the aforementioned WO05 / 027529 results in a method image display. As indicated in this document, such a display method then makes it possible:
- d'une part, d'afficher toute séquence d'images source traitées de manière à ce que l'observateur perçoive les images source de cette séquence comme si aucune d'elle n'était traitée ;on the one hand, to display any sequence of processed source images so that the observer perceives the source images of this sequence as if none of them were processed;
- d'autre part, de brouiller la prise de vue de l'affichage de cette séquence d'images traitées, que tenterait d'effectuer une personne mal intentionnée, notamment à l'aide d'un caméscope non synchronisé à la séquence d'images source. Dans ce document, la décomposition des images source est réalisée dans un espace de couleur noté YUV, c'est-à-dire un espace PAL de couleur ; cet espace de couleur comprend donc la luminance Y ; comme indiqué ci-dessus, cet espace de couleur dépend du dispositif d'affichage d'images utilisé pour l'affichage des images de la séquence. En reprenant les notations données dans ce document, pour décomposer un pixel de l'image source I1, auquel correspond un vecteur de couleur de coordonnées (Y1, U1, V1), dans cet espace de couleur, on décompose ce vecteur « source » en deux vecteurs « composants » respectivement de coordonnées (Y3, U3, V3) , (Y4, U4, V4), où Y1 = Y3 = Y4 ; toujours selon ce document, les valeurs de U3, V3 , U4, V4 sont déterminées de façon à ce que les extrémités C3 et C4 de ces deux vecteurs « composants » :- On the other hand, scrambling the shooting of the display of this sequence of processed images, that would try to perform a malicious person, including using a camcorder not synchronized to the sequence of source images. In this document, the decomposition of the source images is performed in a color space noted YUV, that is to say a color PAL space; this color space therefore comprises the luminance Y; as indicated above, this color space depends on the image display device used to display the images of the sequence. By repeating the notations given in this document, to decompose a pixel of the source image I 1 , to which corresponds a coordinate color vector (Y 1 , U 1 , V 1 ), in this color space, this vector is decomposed. "Source" in two "component" vectors respectively of coordinates (Y 3 , U 3 , V 3 ), (Y 4 , U 4 , V 4 ), where Y 1 = Y 3 = Y 4 ; still according to this document, the values of U 3 , V 3 , U 4 , V 4 are determined so that the ends C 3 and C 4 of these two "component" vectors:
- aient un barycentre qui corresponde à l'extrémité C1 du vecteur source de couleur, c'est-à-dire soient symétriques par rapport à cette extrémité C1 dans le même espace PAL de couleur lié au dispositif d'affichage ;have a centroid which corresponds to the end C 1 of the color source vector, that is to say are symmetrical with respect to this end C 1 in the same color PAL space linked to the display device;
- soient situées dans le gamut de couleur de ce dispositif.- be located in the color gamut of this device.
Ainsi, les critères essentiels pour la décomposition d'un vecteur de couleur d'un pixel de l'image source en deux vecteurs de couleur associés chacun à un pixel d'une image composante sont que, dans l'espace de couleur YUV lié au dispositif d'affichage, les points C1, C3, et C4 soient alignés, appartiennent au gamut de couleur du dispositif, et que la distance euclidienne C1C3 soit égale à la distance euclidienne C1C4. L'art antérieur cite la transposition de vecteurs de couleur dans d'autres espaces pour des traitements d'images ayant d'autres objectifs, comme par exemple les documents US6640005 et US2003/184779. On a constaté que la visualisation successive, à une fréquence supérieure à la fréquence de fusion des couleurs pour l'œil humain, des images composantes d'une image source, qui sont construites par la décomposition des vecteurs couleur de cette image source comme décrit ci-dessus et dans le document WO05/027529, produisait une image fusionnée (IF) qui pouvait présenter quelques défauts par rapport à l'image source. Ainsi, pour éviter les prises de vue illégales de séquences d'images, on risque malencontreusement de dégrader l'affichage de ces séquences. Lorsqu'on cherche en outre à améliorer le brouillage en exacerbant les différences entre les images composantes, on augmente encore les risques de dégradation de l'affichage. Un but de l'invention est de limiter, voire de supprimer, cet inconvénient. A cet effet, l'invention a pour objet un procédé de traitement d'une image source (I80) comprenant une étape de décomposition en une série de n images « composantes » (I C1, IC2, ..., Ick- - --. 'en) dans un espace de couleur qui, selon l'invention, est indépendant de tout dispositif d'affichage. L'invention a notamment pour objet un procédé de traitement d'une image source (I80) comprenant une étape de décomposition de cette image (I80) en une série de n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes, dans laquelle :Thus, the essential criteria for the decomposition of a color vector from one pixel of the source image into two color vectors each associated with a pixel of a component image are that in the YUV color space related to the display device, the points C 1 , C 3 , and C 4 are aligned, belong to the color gamut of the device, and that the Euclidean distance C 1 C 3 is equal to the Euclidean distance C 1 C 4 . The prior art cites the transposition of color vectors in other spaces for image processing with other purposes, such as for example US6640005 and US2003 / 184779. It has been found that the successive visualization, at a frequency greater than the color melting frequency for the human eye, of component images of a source image, which are constructed by the decomposition of the color vectors of this source image as described herein. above and in the document WO05 / 027529, produced a merged image (I F ) which could have some defects with respect to the source image. Thus, to avoid illegal shooting of image sequences, there is a risk of inadvertently degrading the display of these sequences. Moreover, when seeking to improve the interference by exacerbating the differences between the component images, the risk of degradation of the display is further increased. An object of the invention is to limit or eliminate this disadvantage. For this purpose, the subject of the invention is a method for processing a source image (I 80 ) comprising a step of decomposition into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'en) in a color space which, according to the invention, is independent of any display device. The invention particularly relates to a method for processing a source image (I 80 ) comprising a step of decomposing this image (I 80 ) into a series of n "component" images (I C1 , I C2 , .. ., Ick - - - '') 0 M are different, in which:
- à chaque pixel « source » (ESOj) de l'image source (I80) qui est décomposé correspond un pixel « composant » dans chacune des n imagesat each "source" pixel (E SOj ) of the source image (I 80 ) which is decomposed corresponds to a "component" pixel in each of the n images
« composantes » (IC1, IC2, ..., lCk> - --> 1Cn)- - et, chaque pixel desdites images, source ou composantes, étant associé à un vecteur de couleur dans un espace de couleur donné, ladite décomposition est effectuée de manière à ce que le vecteur de couleur associé, dans cet espace, à chaque pixel source (ESOj) qui est décomposé soit égal à la résultante, divisée par n, des vecteurs de couleur associés, dans ce même espace, aux pixels composants qui correspondent audit pixel source."Components" (I C1 , I C2 , ..., l C k> - -> 1 Cn) - and, each pixel of said images, source or components, being associated with a color vector in a given color space, said decomposition is performed in such a way that the associated color vector, in this space, at each source pixel ( E SOj ) which is decomposed to be equal to the resultant, divided by n, of the associated color vectors, in this same space, to the component pixels that correspond to said source pixel.
Selon l'invention, ledit espace de couleur est indépendant de tout dispositif d'affichage.According to the invention, said color space is independent of any display device.
L'image source comprend q pixels qui sont décomposés, les autres pixels de cette image source n'étant alors pas décomposés ; les pixels qui ne sont pas décomposés se retrouvent tels quels inchangés dans chacune des images composantes ; au contraire, à chaque pixel décomposé correspond une série de n pixels composants, deux au moins des pixels de cette série étant différents, de manière à ce que les n images « composantes » (I C1, IC2, ..., Ick- ..., lCn) se différencient effectivement ; l'ensemble des pixels décomposésThe source image comprises q pixels which are decomposed, the other pixels of this source image then not being decomposed; the pixels that are not decomposed are unchanged in each of the component images; on the contrary, each decomposed pixel corresponds to a series of n component pixels, at least two of the pixels of this series being different, so that the n "component" images (I C1 , I C2 , ..., Ick- ..., l Cn ) actually differentiate; the set of decomposed pixels
(ESoi, Eso2- - - E80J, ..., ESOq) de l'image source forme une pluralité de q pixels décomposés.(E S oi, Eso 2 - - - E 80 J, ..., E SOq ) of the source image forms a plurality of q decomposed pixels.
Plus précisément, l'invention a pour objet un procédé de traitement d'une image source (I80) comprenant une étape de décomposition de cette image (I80) en une série de n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes,More specifically, the subject of the invention is a method for processing a source image (I 80 ) comprising a step of decomposing this image (I 80 ) into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'En) 0 M are different,
- chaque pixel desdites images, source ou composantes, étant associé à un vecteur de couleur dans un espace de couleur qui comprend la grandeur absolue de luminance et qui est indépendant de tout dispositif d'affichage, - les n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) se différenciant par une pluralité de pixels « composants » dont la résultante des vecteurs de couleur, dans ledit espace, est égale à n fois les vecteurs de couleur associés aux pixels décomposés (ES(n, E802, - --, ESOj, ..., ESOq) d'une pluralité correspondante de ladite image source (I80). Selon l'invention, cette décomposition est adaptée pour que l'affichage successif des images de cette série de n images « composantes », à une fréquence qui est égale à n fois la fréquence d'affichage de ladite image source et qui est supérieure à la fréquence de fusion des couleurs pour l'œil humain, produise une image fusionnée (IF) identique ou quasiment identique à ladite image sourceeach pixel of said images, source or components, being associated with a color vector in a color space which comprises the absolute quantity of luminance and which is independent of any display device, the n "component" images (I C1 , I C2 , ..., Ick- - -. 'En) being differentiated by a plurality of "component" pixels whose resultant color vectors, in said space, is equal to n times the color vectors associated with the decomposed pixels (E S (n , E 802 , - -, E SOj , ..., E SOq ) of a corresponding plurality of said source image (I 80 ). According to the invention, this decomposition is adapted so that the successive display of the images of this series of n "component" images, at a frequency which is equal to n times the display frequency of said source image and which is greater than the color fusion frequency for the human eye , produce a merged image (I F ) identical or almost identical to said source image
Dans un espace de couleur de type luminance-chrominance, le vecteur de couleur qui, multiplié par n, est la résultante des vecteurs de couleur « composants », présente une luminance égale à la moyenne de la luminance de ces vecteurs de couleur et une chrominance globale résultant de la composition des chrominances de ces vecteurs de couleur. Ce vecteur de couleur correspond donc à ce que l'œil perçoit lorsqu'une succession des pixels correspondant à ces vecteurs de couleur « composants » est affichée à une fréquence supérieure à la fréquence de fusion de l'œil.In a luminance-chrominance color space, the color vector which, multiplied by n, is the resultant of the "component" color vectors, has a luminance equal to the average of the luminance of these color vectors and a chrominance resulting from the chrominance composition of these color vectors. This color vector corresponds to what the eye perceives when a succession of pixels corresponding to these color vectors "components" is displayed at a frequency greater than the melting frequency of the eye.
L'invention propose donc d'effectuer la décomposition des vecteurs de couleur dans un espace de couleur qui est indépendant de tout dispositif d'affichage. On a constaté que, en procédant, selon l'invention, à la décomposition des vecteurs de couleur d'une image source dans un tel espace visuel indépendant de tout dispositif d'affichage, au lieu de procéder dans un espace visuel dépendant du dispositif d'affichage comme l'espace YUV comme dans l'art antérieur (cf document WO05/027529), on constate que la visualisation successive, à une fréquence supérieure à la fréquence de fusion des couleurs pour l'œil humain, des images composantes de cette image source produit une image fusionnée (IF) beaucoup plus proche de l'image source que dans l'art antérieur, même lorsque les différences entre les images composantes sont exacerbées pour améliorer le brouillage. Ainsi, tout en brouillant efficacement les prises de vue illégales de séquences d'images par ce traitement d'images, on limite la dégradation de l'affichage de ces images. Selon une première variante essentielle de l'invention, l'espace de couleur utilisé pour la décomposition comprend la grandeur absolue de luminance, qui s'exprime généralement en cd/m2 : l'espace absolu XYZ répond à ce critère . De préférence, ledit espace de couleur est de type XYZ ou dérivé linéairement de cet espace. L'espace de couleur XYZ est un espace visuel absolu au sens que les coordonnées X, Y, Z s'expriment chacune en cd/m2. L'espace de couleur XYZ est défini, notamment, comme un espace visuel dont les couleurs primaires sont adaptées pour que toutes les couleurs perceptibles à l'œil humain soient exprimées par des composantes trichromatiques positives et pour que l'une Y de ces composantes chromatiques représente une information de luminance.The invention therefore proposes to perform the decomposition of color vectors in a color space which is independent of any display device. It has been found that, according to the invention, by decomposing the color vectors of a source image in such a visual space independent of any display device, instead of proceeding in a visual space depending on the device of the device. display as the YUV space as in the prior art (see document WO05 / 027529), it is found that the successive visualization, at a frequency greater than the color melting frequency for the human eye, of the component images of this The source image produces a merged image (I F ) much closer to the source image than in the prior art, even when the differences between the component images are exacerbated to enhance the interference. Thus, while effectively jamming the illegal shooting of image sequences by this image processing, it limits the degradation of the display of these images. According to a first essential variant of the invention, the color space used for the decomposition comprises the absolute quantity of luminance, which is generally expressed in cd / m 2 : the absolute space XYZ satisfies this criterion. Preferably, said color space is of XYZ type or linearly derived from this space. The XYZ color space is an absolute visual space in the sense that the X, Y, Z coordinates are each expressed in cd / m 2 . The XYZ color space is defined, in particular, as a visual space whose primary colors are adapted so that all the colors perceptible to the human eye are expressed by positive trichromatic components and for one Y of these color components to represent luminance information.
La décomposition des images source est alors réalisée dans un espace de couleur noté XYZ ou dérivé linéairement de XYZ, qui ne dépend pas du dispositif d'affichage utilisé pour l'affichage de l'image traitée. Un vecteur de couleur de coordonnées (X1, Y1, Z1), dans cet espace de couleur, est par exemple décomposé en deux vecteurs « composants » respectivement de coordonnées (X3, Y3, Z3) , (X4, Y4, Z4), où Y1 = Y3 = Y4 (on a donc Y3 + Y4 = 2 Y1). Les critères essentiels pour la décomposition de ce vecteur de couleur d'un pixel de l'image source en deux vecteurs de couleur associés chacun à un pixel d'une image composante sont alors que, dans l'espace de couleur XYZ ou dérivé linéairement de cet espace XYZ (et non pas dans l'espace YUV lié au dispositif d'affichage), les points C1, C3, et C4 correspondant aux extrémités des vecteurs de couleur soient alignés, appartiennent au gamut de couleur du dispositif d'affichage transposé dans cet espace de couleur XYZ ou dérivé, et que la distance euclidienne CiC3 soit égale à la distance euclidienne C\C4. On a donc : X3 + X4 = 2.X1 et Z3 + Z4 = 2.Z1. On remarque que toute transformation linéaire de cet espace, utilisant par exemple une matrice de passage dont tous les éléments sont constants, conserve ces deux dernières équations ; c'est pourquoi tout espace dérivant linéairement de cet espace peut être également utilisé pour la mise en œuvre de l'invention. Selon une deuxième variante préférentielle, ledit espace de couleur est de type Ycd ou dérivé linéairement de cet espace, défini comme suit par rapport à l'espace XYZ : c = X/Y et d = Z/Y. Le paramètre de luminance Y de cet espace Ycd reprend celui de l'espace XYZ. La décomposition des images source est alors réalisée dans un espace de couleur noté Ycd ou dérivé linéairement de Ycd, qui ne dépend pas du dispositif d'affichage utilisé pour l'affichage de l'image traitée. Un vecteur de couleur de coordonnées (Y1, C1, d{) dans cet espace de couleur, est par exemple décomposé en deux vecteurs « composants » respectivement de coordonnées (Y3, C3, d3), (Y4, C4, d4), où Y1 = Y3 = Y4 (on a donc Y3 + Y4 = 2 Y1). Les critères essentiels pour la décomposition de ce vecteur de couleur d'un pixel de l'image source en deux vecteurs de couleur associés chacun à un pixel d'une image composante sont alors que, dans l'espace de couleur Ycd ou dérivé linéairement de cet espace Ycd, les points C1, C3, et C4 correspondant aux extrémités des vecteurs de couleur soient alignés, appartiennent au gamut de couleur du dispositif d'affichage transposé dans cet espace de couleur Ycd ou dérivé, et que la distance euclidienne C1C3 soit égale à la distance euclidienne C\C"4. On a donc : C3 + C4 = 2 C1 et d3 + d4 = 2 d ^The decomposition of the source images is then performed in a color space denoted XYZ or linearly derived from XYZ, which does not depend on the display device used for displaying the processed image. A color coordinate vector (X 1 , Y 1 , Z 1 ), in this color space, is for example broken down into two "component" vectors respectively of coordinates (X 3 , Y 3 , Z 3 ), (X 4 , Y 4 , Z 4 ), where Y 1 = Y 3 = Y 4 (so we have Y 3 + Y 4 = 2 Y 1 ). The essential criteria for the decomposition of this color vector from one pixel of the source image into two color vectors each associated with a pixel of a component image are then that, in the XYZ color space or linearly derived from this XYZ space (and not in the YUV space linked to the display device), the points C 1 , C 3 , and C 4 corresponding to the ends of the color vectors are aligned, belong to the color gamut of the device. display transposed in this space of XYZ or derivative color, and that the Euclidean distance CiC 3 is equal to the Euclidean distance C \ C 4 . We thus have: X 3 + X 4 = 2.X 1 and Z 3 + Z 4 = 2.Z 1 . We note that any linear transformation of this space, using for example a transition matrix of which all the elements are constant, preserves these two last equations; this is why any space drifting linearly from this space can also be used for the implementation of the invention. According to a second preferred variant, said color space is of type Ycd or linearly derived from this space, defined as follows with respect to the space XYZ: c = X / Y and d = Z / Y. The luminance parameter Y of this space Ycd resumes that of the space XYZ. The decomposition of the source images is then carried out in a color space denoted Ycd or linearly derived from Ycd, which does not depend on the display device used for displaying the processed image. A color vector of coordinates (Y 1 , C 1 , d {) in this color space, for example, is decomposed into two "component" vectors respectively of coordinates (Y 3 , C 3 , d 3 ), (Y 4 , C 4 , d 4 ), where Y 1 = Y 3 = Y 4 (so we have Y 3 + Y 4 = 2 Y 1 ). The essential criteria for the decomposition of this color vector from one pixel of the source image into two color vectors each associated with a pixel of a component image are whereas, in the color space Ycd or linearly derived from this space Ycd, the points C 1 , C 3 , and C 4 corresponding to the ends of the color vectors are aligned, belong to the color gamut of the transposed display device in this color space Ycd or derivative, and that the Euclidean distance C 1 C 3 is equal to the Euclidean distance C \ C " 4. We thus have: C 3 + C 4 = 2 C 1 and d 3 + d 4 = 2 d
Selon une deuxième variante essentielle de l'invention, ledit espace de couleur est perceptuellement uniforme. Ainsi, l'espace de couleur utilisé peut être notamment l'espace CIE-LAB, l'espace CIE-LUV, l'espace QMH, ou encore l'espace JCH ; de préférence, on utilise l'espace CIE-LAB ou un espace linéairement dérivé de cet espace. Le choix d'un tel espace perceptuellement uniforme permet avantageusement d'exacerber encore plus les différences entre les images composantes, cette fois telles qu'elles sont perçues par l'œil humain, ce qui renforce encore le niveau de brouillage ; à noter que l'espace LAB comprend aussi la grandeur de luminance.According to a second essential variant of the invention, said color space is perceptually uniform. Thus, the color space used can be in particular the CIE-LAB space, the CIE-LUV space, the QMH space, or the JCH space; preferably, the CIE-LAB space or a space linearly derived from this space is used. The choice of such a perceptually uniform space advantageously makes it possible to further exacerbate the differences between the component images, this time as they are perceived by the human eye, which further enhances the level of interference; note that the LAB space also includes the luminance magnitude.
De préférence, pour mettre en œuvre l'invention selon la première ou la deuxième variante essentielle, chaque pixel de ladite image source étant associé à un triplet de données vidéo (DR, DG, DB) qui forme par convention les coordonnées du vecteur de couleur associé audit pixel de cette image dans un espace de couleur associé audit dispositif :Preferably, to implement the invention according to the first or second essential variant, each pixel of said source image being associated with a video data triple (D R , D G , D B ) which conventionally forms the coordinates of the color vector associated with said pixel of this image in a color space associated with said device:
- chaque pixel de ladite pluralité de pixels différenciants étant associé à un vecteur source de couleur, on détermine les coordonnées dudit vecteur source dans ledit espace de couleur indépendant du dispositif par un premier traitement desdites données vidéo associées à ce pixel, - et, on détermine les coordonnées des vecteurs composants de couleur dont la résultante, dans ledit espace de couleur indépendant du dispositif, est égale à n fois ledit vecteur source de couleur,each pixel of said plurality of differentiating pixels being associated with a color source vector, determining the coordinates of said source vector in said device-independent color space by a first processing of said video data associated with said pixel, and determining the coordinates of the color component vectors whose resultant, in said device-independent color space, is equal to n times said color source vector,
- et, chaque vecteur composant de couleur étant associé à un pixel d'une image composante, on détermine un triplet de données vidéo associé à ce pixel par un deuxième traitement, inverse du premier, des coordonnées dudit vecteur composant de couleur associé à ce pixel.and, each color component vector being associated with a pixel of a component image, a video data triplet associated with this pixel is determined by a second processing, inverse of the first, of the coordinates of said color component vector associated with this pixel .
Ledit premier et ledit deuxième traitement correspondent à des changements d'espace de couleur, symétriques l'un de l'autre. L'invention a également pour objet un procédé d'affichage d'une séquence d'images source à une fréquence d'affichage source dans lequel au moins une image source (I80) est traitée par le procédé selon l'invention, selon la première ou la deuxième variante essentielle, pour être décomposée en une série de n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes, et dans lequel on affiche successivement lesdites images composantes à une fréquence d'affichage composant égale à n fois ladite fréquence d'affichage source, où ladite fréquence d'affichage composant est supérieure à la fréquence de fusion des couleurs pour l'œil humain. L'invention a également pour objet un dispositif d'affichage d'une séquence d'images, où chaque pixel d'une image de cette séquence est associé un triplet de données vidéo (DR, DG, DB), comprenant :Said first and second processing correspond to color space changes, symmetrical to one another. The invention also relates to a method for displaying a source image sequence at a source display frequency in which at least one source image (I 80 ) is processed by the method according to the invention, according to the first or the second essential variant, to be decomposed into a series of n "component" images (I C1 , I C2 ,..., Ick - -... en) 0 M are different, and in which one displays successively said component images at a component display frequency equal to n times said source display frequency, wherein said component display frequency is greater than the color fusion frequency for the human eye. The invention also relates to a device for displaying an image sequence, where each pixel of an image of this sequence is associated with a video data triple (D R , D G , D B ), comprising:
- un écran d'affichage doté d'une matrice bidimensionnelle d'afficheurs élémentaires polychromes, chaque afficheur étant associé à un pixel de l'image à afficher,a display screen provided with a two-dimensional matrix of polychromatic elementary displays, each display being associated with a pixel of the image to be displayed,
- des moyens de traitement aptes à traiter au moins une image à afficher de ladite séquence par le procédé selon l'invention, pour être décomposée en une série de n images « composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes, et pour associer à chaque pixel de ses images composantes un triplet de données vidéo (DR, DG, DB),processing means capable of processing at least one image to be displayed of said sequence by the method according to the invention, to be decomposed into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'in) 0 M are different, and for associating with each pixel of a triplet its component images of video data (D R, D G, D B),
- des moyens pour commander chaque afficheur élémentaire associé à un pixel d'une image à afficher en fonction d'un triplet de données vidéo associé à ce pixel, où lesdits moyens de commande sont adaptés pour afficher successivement les images composantes de chaque série à une fréquence supérieure à la fréquence de fusion des couleurs.means for controlling each elementary display associated with a pixel of an image to be displayed as a function of a video data triplet associated with this pixel, wherein said control means are adapted to successively display the component images of each series at a frequency higher than the color melting frequency.
Comme exemple d'afficheur élémentaire d'un écran d'affichage, on peut citer un groupe de trois valves à cristaux liquides ou à micro-miroirs modulant dans trois couleurs primaires différentes, ou un groupe de trois diodes électroluminescentes émettant dans trois couleurs primaires différentes. Dans le cas d'un dispositif d'affichage par projection où la lumière d'une source est modulée par un micro-imageur de valves à cristaux liquides ou à micro-miroirs, chaque afficheur élémentaire est formé par une valve. L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée à titre d'exemple non limitatif, et en référence aux figures annexées sur lesquelles :As an example of a basic display of a display screen, there may be mentioned a group of three liquid crystal or micro-mirror valves modulating in three different primary colors, or a group of three light-emitting diodes emitting in three different primary colors. . In the case of a projection display device where the light of a source is modulated by a micro-imager of liquid crystal or micro-mirror valves, each elementary display is formed by a valve. The invention will be better understood on reading the description which follows, given by way of nonlimiting example, and with reference to the appended figures in which:
- la figure 1 représente l'intersection de différents plans Y= constante avec le gamut tridimensionnel de couleurs du dispositif d'affichage auquel s'applique l'invention, gamut qui est représenté dans un espace de couleur (Y,c,d) indépendant de ce dispositif qui est utilisé dans un mode de réalisation de l'invention ;FIG. 1 shows the intersection of different planes Y = constant with the three-dimensional gamut of colors of the display device to which the invention applies, gamut which is represented in an independent color space (Y, c, d) of this device which is used in one embodiment of the invention;
- la figure 2 représente une étape de la décomposition d'un vecteur de couleur d'une image source en deux vecteurs de couleur d'images composantes, dans le même espace de couleur (Y,c,d) indépendant de ce dispositif, selon le même mode de réalisation de l'invention que celui de la figure 1. On va maintenant décrire un mode de réalisation du procédé de traitement selon la première variante essentielle de l'invention, appliqué à l'affichage d'une séquence d'images en utilisant un dispositif d'affichage d'image doté d'un écran comprenant une matrice d'éléments d'affichage et doté de moyens de commande de ces éléments d'affichage, dans lequel, pour obtenir l'affichage d'une image donnée, on associe à chaque pixel de cette image un triplet de données vidéo (DR, DG, DB) qui, lorsqu'il est adressé à l'élément d'affichage qui correspond à ce pixel, via les moyens de commande de ce dispositif, génère l'affichage de ce pixel. Chaque image de la séquence est partitionnée en une matrice de pixels, de manière à ce que chaque élément d'affichage corresponde à un pixel de cette matrice. Un tel dispositif d'affichage peut être indifféremment un projecteur numérique vidéo, un rétro-projecteur, un écran plasma, un écran LCD ou un autre écran de visualisation d'images qui est adressable par des données vidéo. Dans la séquence d'images à afficher, on sélectionne une image source à décomposer I80, ici en une série de deux images composantes IC1, IC2. Certains pixels des deux images composantes IC1, IC2 sont identiques à ceux de l'image source I80, d'autres se différencient de l'image source et forment une pluralité de q pixels différenciants : EC11, EC12, ..., Eclj, ...., Eclq pour l'image composante IC1, et EC21, EC22, ..., EC2j, ...., EC2q pour l'image composante IC2. Dans chaque image composante IC1 , IC2 il y a donc q pixels se différenciant de l'image source I80, les autres pixels étant identiques. Le nombre q de pixels différenciants représente de préférence au moins 10% du nombre total de pixels d'une image, de manière à ce que la différence entre les images composantes puisse être perceptible à l'œil. La décomposition de l'image source I80 qui va être décrite ci-après vise à obtenir que la fusion des pixels Ecl let EC21, Ecl2et EC22, ..., Eclj et EC2j, ..., Eclqet EC2q, de positions identiques sur toutes les images composantes IC1, IC2, génère pour l'œil humain un pixel identique à celui (ES(n, E802, ..., ESOj, ..., ESOq) de même position sur l'image source I80. Par extension, on dit donc que les pixels sources (ES(n, E802, ..., ESOj, ..., ESOq) sont décomposés en pixels composants (EC11, EC12, ..., Eclj, ...., Eclq) pour l'image composante IC1, et en pixels composants (EC21, EC22, ..., EC2j, ...., EC2q) pour l'image composante IC2. Les pixels de l'image source I80 qui sont à décomposer forment donc la pluralité suivante : ES(n, E802, ..., ESOj, ..., ESOq. On va maintenant expliquer en détail comment décomposer l'un de ces pixels, ESOj, en pixels de même position Eclj et EC2j respectivement dans les images composantes IC1, IC2, la décomposition des autres pixels de cette pluralité se faisant d'une manière identique. A ce pixel ESOj de l'image source I80, est associé, comme on l'a vu précédemment, un triplet de données vidéo (DR.SOj, DG.SOj, DB.SOj) ; on recherche les triplets de données vidéo (DR.clj, DG.clj, DB.clj), (DR.C2j, DG.C2j, DB.C2j) qui sont associés respectivement aux pixels Eclj et EC2j des images composantes IC1, IC2, et qui, lorsqu'ils sont affichés par le dispositif d'affichage à une fréquence supérieure à la fréquence de fusion des couleurs de l'œil humain, génèrent un pixel identique à ESOj ; on décrit ici l'invention dans le cas où les triplets de données vidéo (DR.clj, DG.clj, DB.clj), (DR.C2j, DG.C2j, DB.C2j) donnent lieu à l'affichage de pixels EC1; et EC2; aussi différents que possible l'un de l'autre, de manière à améliorer le brouillage des images. Conformément à un but poursuivi par l'invention, on va montrer que, malgré un facteur de brouillage élevé, la qualité de l'affichage des images n'est pas détériorée. On considère maintenant que le triplet (DR.SOj, DG.SOj, DB.SOj) associé au pixel ESOj représente les coordonnées d'un vecteur OPSOj, dit « vecteur de couleur », dans un espace de couleur associé au dispositif d'affichage. On considère ici que les données vidéo telles qu'elles doivent être adressées au dispositif d'affichage sont toutes codées en 10 bits ; chacune des données vidéo peut donc prendre une valeur entière comprise entre 0 et 1023. Les trois colonnes du tableau 1 ci-après donne les coordonnées de vecteurs de référence de couleur OO, OR, OG, OB, OC, OM, OY et OW, correspondant, dans l'ordre des lignes, au noir, puis à chacun des primaires du dispositif (respectivement rouge, vert et bleu), puis à chacun des secondaires du dispositif (respectivement cyan, magenta, et jaune), puis au blanc de référence du dispositif. Les extrémités de ces vecteurs de référence de couleur délimitent donc un cube dans cet espace de couleur, encore appelé gamut tridimensionnel, à l'intérieur duquel, limites comprises, se trouvent tous les vecteurs de couleur qui sont affichables par les éléments d'affichage de l'écran.FIG. 2 represents a step of the decomposition of a color vector of a source image into two color vectors of component images, in the same color space (Y, c, d) independent of this device, according to the same embodiment of the invention as that of Figure 1. We will now describe an embodiment of the processing method according to the first essential variant of the invention, applied to the display of a sequence of images using an image display device having a screen comprising a matrix of display elements and having control means for these display elements, in which, to obtain the display of a given image , each pixel of this image is associated with a video data triple (D R , D G , D B ) which, when it is addressed to the display element corresponding to this pixel, via the control means of this device generates the display of this pixel. Each image of the sequence is partitioned into a matrix of pixels, so that each display element corresponds to a pixel of this matrix. Such a display device can be indifferently a digital video projector, a retro-projector, a plasma screen, an LCD screen or another image display screen that is addressable by video data. In the sequence of images to be displayed, a source image to be decomposed I 80 is selected, here in a series of two component images I C1 , I C2 . Some pixels of the two component images I C1 , I C2 are identical to those of the source image I 80 , others differ from the source image and form a plurality of q differentiating pixels: E C11 , E C12 , .. ., E clj , ...., E clq for the component image I C1 , and E C21 , E C22 , ..., E C2j , ...., E C2q for the component image I C2 . In each component image I C1 , I C2 there are therefore q pixels differentiating from the source image I 80 , the other pixels being identical. The number of differentiating pixels preferably represents at least 10% of the total number of pixels of an image, so that the difference between the component images can be perceptible to the eye. The decomposition of the source image I 80 which will be described below aims to obtain that the fusion of the pixels E cl I and E C21 , E cl2 and E C22 , ..., E clj and E C2j , ... , E clq and E C2q , identical positions on all the component images I C1 , I C2 , generates for the human eye a pixel identical to that (E S (n , E 802 , ..., E SOj , .. ., E SOq ) of the same position on the source image I 80. By extension, we therefore say that the source pixels (E S (n , E 802 , ..., E SOj , ..., E SOq ) are decomposed into component pixels (E C11 , E C12 ,..., E clj , ...., E clq ) for the component I C1 image, and component pixels (E C21 , E C22 , ..., E C2j , ...., E C2q ) for the component image I C2, the pixels of the source image I 80 that are to be decomposed therefore form the following plurality: E S (n , E 802 , ..., E SOj , ..., E SOq We will now explain in detail how to decompose one of these pixels, E SOj , in pixels of the same position E clj and E C2j respectively in the component images I C1 , I C2 , the decomposition of the other pixels of this plurality being done in an identical manner. At this pixel E SOJ of the source image I 80 is associated, as has been seen above, a video data triplet (D R SOJ, SOJ D G, D B SOJ...); the triplets of video data are searched (D R , cl , D G , clj , D B, clj ), (D R , C2j , D G , C2j , D B, C2j ) which are respectively associated with the pixels E clj and E C2j component images I C1 , I C2 , and which, when displayed by the display device at a frequency higher than the color melting frequency of the human eye, generate a pixel identical to E SOj ; the invention is described here in the case where the triplets of video data (D R , C 1 , D G , C 1 , D B , C 1 ), (D R , C 2 , D G , C 2 , D B , C 2 ) give rise to at the pixel display E C1 ; and E C2 ; as different as possible from each other, so as to improve the scrambling of the images. In accordance with an aim pursued by the invention, it will be shown that, despite a high scrambling factor, the quality of the image display is not deteriorated. It is now considered that the triplet (D R S0 , D G S0 , D B S0 ) associated with the pixel E SOj represents the coordinates of a vector OP S0 , called "color vector", in an associated color space. to the display device. It is considered here that the video data as it is to be addressed to the display device is all encoded in 10 bits; each of the video data can therefore take an integer value between 0 and 1023. The three columns of Table 1 below give the coordinates of color reference vectors OO, OR, OG, OB, OC, OM, OY and OW, corresponding, in the order of the lines, to the black, then to each of the primaries of the device (respectively red, green and blue), then to each of the secondary of the device (respectively cyan, magenta, and yellow), then to the white of reference of the device. The ends of these color reference vectors therefore delimit a cube in this color space, also called a three-dimensional gamut, within which, including limits, are all the color vectors that can be displayed by the display elements of the color. the screen.
Tableau 1Table 1
DR DG DB X Y Z Y C dDR D G D B XYZYC d
OO O O O 0.00 0.00 0.00 0.00 0.00 0.00OO O O O 0.00 0.00 0.00 0.00 0.00 0.00
OR 1023 O O 19.19 8.99 0.97 8.99 2.13 0.11OR 1023 O O 19.19 8.99 0.97 8.99 2.13 0.11
OG O 1023 O 10.27 28.28 2.92 28.28 0.36 0.10OG O 1023 O 10.27 28.28 2.92 28.28 0.36 0.10
OB O O 1023 10.02 3.95 50.64 3.95 2.54 12.82OB O O 1023 10.02 3.95 50.64 3.95 2.54 12.82
OC O 1023 1023 20.29 32.23 53.56 32.23 0.63 1.66OC O 1023 1023 20.29 32.23 53.56 32.23 0.63 1.66
OM 1023 O 1023 29.22 12.94 51.61 12.94 2.26 3.99OM 1023 O 1023 29.22 12.94 51.61 12.94 2.26 3.99
OY 1023 1023 O 29.46 37.27 3.89 37.27 0.79 0.10OY 1023 1023 O 29.46 37.27 3.89 37.27 0.79 0.10
OW 1023 1023 1023 39.49 41.22 54.53 41.22 0.96 1.32OW 1023 1023 1023 39.49 41.22 54.53 41.22 0.96 1.32
On va maintenant transposer ces données vidéo dans un espace de couleur connu XYZ, qui est indépendant du dispositif, puis dans un nouvel espace de couleur Ycd, également dérivé de XYZ et indépendant du dispositif. Dans ce nouvel espace de couleur avantageusement utilisé pour la mise en œuvre de l'invention, les coordonnées Y, c, d de chaque vecteur de couleur OP s'expriment comme suit : Y = Y, c = XfY, d = ZfY. Dans ce nouvel espace de couleur, l'une des composantes trichromatiques Y représente la luminance du pixel, et les deux autres composantes trichromatiques c, d sont indépendantes de la luminance et représentent la chrominance. Le tableau 1 donne la correspondance entre les valeurs des coordonnées des huit vecteurs de référence de couleur OO, OR, OG, OB, OC, OM, OY et OW, lorsqu'elles sont exprimées dans l'espace de données vidéo ou espace de couleur propre au dispositif, lorsqu'elles sont exprimées dans l'espace XYZ, et lorsqu'elles sont exprimées dans le nouvel espace de couleur utilisé ici pour la décomposition. La correspondance DR, DG, DB -> XYZ est établie d'une manière connue en elle-même, par exemple en utilisant des méthodes connues de caractérisation colorimétrique de dispositif d'affichage, telles que celles décrites dans la norme référencée IEC 61966. Pour établir cette correspondance, on peut également utiliser les fonctions visuelles spectrales x(λ), y(λ), z(λ) connues qui sont caractéristiques des systèmes de couleur XYZ. D'autres méthodes de correspondances connues peuvent également être utilisées. La correspondance XYZ -> Ycd est établie comme précédemment défini. Comme les extrémités O, R, G, B, C, M, Y et W de ces huit vecteurs de référence de couleur différents sont les sommets du gamut tridimensionnel du dispositif qui forme un cube dans l'espace de données vidéo, ce tableau donne les coordonnées des sommets de ce même gamut tridimensionnel dans le nouvel espace de couleur selon l'invention. Dans ce dernier espace, le gamut tridimensionnel forme un polyèdre dont les sommets sont formés par les extrémités des huit vecteurs de référence de couleur 00, OR, OG, OB, OC, OM, OY et OW.We will now transpose this video data in a known color space XYZ, which is independent of the device, then in a new color space Ycd, also derived from XYZ and independent of the device. In this new color space advantageously used for the implementation of the invention, the coordinates Y, C, D of each color vector OP are expressed as follows: Y = Y, c = XfY, d = ZfY. In this new color space, one of the trichromatic components Y represents the luminance of the pixel, and the other two trichromatic components c, d are independent of the luminance and represent the chrominance. Table 1 gives the correspondence between the coordinate values of the eight color reference vectors OO, OR, OG, OB, OC, OM, OY and OW. when expressed in the video data space or device-specific color space, when expressed in XYZ space, and when expressed in the new color space used here for decomposition. The correspondence D R , D G , D B -> XYZ is established in a manner known per se, for example using known methods of colorimetric characterization of a display device, such as those described in the referenced IEC standard. 61966. To establish this correspondence, it is also possible to use the known spectral visual functions x (λ), y (λ), z (λ) which are characteristic of XYZ color systems. Other known correspondence methods can also be used. The correspondence XYZ -> Ycd is established as previously defined. Since the O, R, G, B, C, M, Y, and W ends of these eight different color reference vectors are the vertices of the three-dimensional gamut of the device that forms a cube in the video data space, this table gives the coordinates of the vertices of this same three-dimensional gamut in the new color space according to the invention. In this last space, the three-dimensional gamut forms a polyhedron whose vertices are formed by the ends of the eight color reference vectors 00, OR, OG, OB, OC, OM, OY and OW.
La figure 1 représente, dans le repère bidimensionnel des composantes de chrominance c et d, différentes intersections de plans Y (luminance) = constante avec ce gamut tridimensionnel polyèdral, ces plans et ce gamut étant ainsi représentés dans le nouvel espace de couleur indépendant du dispositif précédemment défini : intersections du plan Y = O en trait mixte tireté-pointillé, du plan Y = 10 en trait pointillé, du plan Y = 15 en trait tireté, et du plan Y = 35 en trait plein. Ces intersections sont limitées par des polygones bidimensionnels. Dans ce repère bidimensionnel des composantes de chrominance c et d, on a également reporté la projection R', G', B', C, M', Y' et W sur ces plans Y = constante des points d'extrémités R, G, B, C, M, Y et W des vecteurs de référence de couleur OR, OG, OB, OC, OM, OY et OW du tableau 1. Les coordonnées de ces points R', G', B', C, M', Y' et W sont données aux colonnes c et d du tableau 1. On revient maintenant au pixel ESOj de l'image source I80 à décomposer, auquel est associé le triplet (DR.SOj, DG.SOj, DB.SOj) qui représente, dans l'espace de couleur associé au dispositif d'affichage, les coordonnées du vecteur de couleur OPSOj associé à ce pixel. On recherche donc le triplet (YSOJ. csoj- dSOj) des coordonnées de ce même vecteur source de couleur OPSOj, exprimées, cette fois, dans le nouvel espace de couleur selon l'invention. A cet effet, on procède par interpolation linéaire à partir de vecteurs de référence de couleur, d'une part qui encadrent le vecteur de couleur OPSOj, d'autre part pour lesquels la correspondance DR, DG, DB -> XYZ -> Ycd a été établie, comme précédemment cité ; une telle méthode d'interpolation linéaire est connue en elle-même et ne sera pas décrite ici en détail. On obtient alors le triplet (YSOJ. csoj- dSOj) des coordonnées du vecteur source de couleur OPSOj exprimées dans le nouvel espace de couleur indépendant du dispositif. En référence à la figure 2, on recherche l'intersection du gamut tridimensionnel de ce dispositif dans ce nouvel espace de couleur avec le plan Y = YSOj ; cette intersection forme un gamut bidimensionnel 1 de luminance Y = Ysoj> e* représente l'ensemble des couleurs accessibles au dispositif d'affichage pour cette luminance Y = YSOj. Dans ce gamut bidimensionnel, on positionne l'extrémité PSOj du vecteur de couleur OPSOj ; dans le repère bidimensionnel des composantes de chrominance c et d situées dans ce gamut bidimensionnel, les coordonnées de ce point PSOj sont donc cSOj, dSOj.FIG. 1 represents, in the two-dimensional coordinate system of the chrominance components c and d, different intersections of planes Y (luminance) = constant with this three-dimensional polyhedral gamut, these planes and this gamut thus being represented in the new independent color space of the device previously defined: intersections of the Y = O plane in phantom-dotted dashed line, Y = 10 dotted line, Y = 15 dashed line, and Y = 35 solid line. These intersections are limited by two-dimensional polygons. In this two-dimensional reference of the chrominance components c and d, the projection R ', G', B ', C, M', Y 'and W on these planes Y = constant of the end points R, G , B, C, M, Y and W of the OR, OG, OB, OC, OM, OY and OW color reference vectors of Table 1. The coordinates of these points R ', G', B ', C, M ', Y' and W are given in columns c and d of Table 1. Returning now to the pixel E SOj of the source image I 80 to be decomposed, which is associated with the triplet (D R , S0 , D G , S0 , D B, S0 ) which represents, in the color space associated with the device display, the coordinates of the color vector OP SOj associated with this pixel. Therefore sought the triplet (YSOJ c n j -. SOJ d) the coordinates of this same vector source color OP SOJ, expressed, this time, in the new color space according to the invention. For this purpose, linear interpolation is performed from color reference vectors, on the one hand, which frame the color vector OP SOj , on the other hand for which the correspondence D R , D G , D B -> XYZ -> Ycd has been established, as previously mentioned; such a linear interpolation method is known per se and will not be described here in detail. This gives the triplet (YSOJ c n j -. Of SOJ) coordinates of the color source vector OP SOJ expressed in the new space for independent color of the device. With reference to FIG. 2, we search for the intersection of the three-dimensional gamut of this device in this new color space with the plane Y = Y SOj ; this intersection forms a two-dimensional luminance gamut 1 Y = Yso j> e * represents the set of colors accessible to the display device for this luminance Y = Y SOj . In this two-dimensional gamut, the end P SO j of the color vector OP SO j is positioned ; in the two-dimensional reference of the chrominance components c and d situated in this two-dimensional gamut, the coordinates of this point P SOj are therefore c SOj , d SOj .
On va maintenant décrire une étape optionnelle du procédé qui permet d'obtenir des pixels Eclj et EC2j aussi différents que possible l'un de l'autre, de manière à améliorer le brouillage des images. On définit maintenant une zone, appelée gamut bidimensionnel symétrique 2, qui est symétrique du gamut bidimensionnel par rapport au point PSOj, toujours dans le même plan Y = YSOj ; on définit ensuite une zone, appelée gamut bidimensionnel réduit 3, qui correspond à l'intersection du gamut bidimensionnel et du gamut bidimensionnel symétrique ; on trace des cercles concentriques 4, 5, 6, centrés sur PSOj, qui sont compris dans le gamut bidimensionnel réduit ou qui présentent une ligne d'intersection avec ce gamut bidimensionnel réduit ; plus précisément, ces cercles sont définis comme suit : - le cercle limite 4 est centré sur PSOj et passe par les points limite P1JL et P2jL, symétriques de PSOj, qui sont les plus éloignés l'un de l'autre dans le gamut réduit 3 ; on appelle LSOj la distance Psoj^ijL = PsojPijL -We will now describe an optional step of the method which makes it possible to obtain pixels E clj and E C2j that are as different as possible from one another, so as to improve the scrambling of the images. We now define a zone, called symmetric two-dimensional gamut 2, which is symmetrical with the two-dimensional gamut with respect to the point P SOj , always in the same plane Y = Y SOj ; then defining an area, called a reduced two-dimensional gamut 3, which corresponds to the intersection of the two-dimensional gamut and the symmetric two-dimensional gamut; concentric circles 4, 5, 6, centered on P SOj , which are included in the reduced two-dimensional gamut or which have a line of intersection with this reduced two-dimensional gamut, are drawn; specifically, these circles are defined as follows: the limit circle 4 is centered on P SOj and passes through the limit points P 1 JL and P 2jL , symmetrical of P SOj , which are the farthest from each other in the reduced gamut 3; we call L SOj the distance Pso j ^ i j L = Pso j Pi j L -
- le cercle minimum 5 est centré sur PSOj et présente un rayon égal à 0,5 x LSOj ; - le cercle moyen 6 est centré sur PSOj et présente un rayon égal à 0,8 x LSOj ;the minimum circle 5 is centered on P SOj and has a radius equal to 0.5 x L SOj ; - The average circle 6 is centered on P SOj and has a radius equal to 0.8 x L SOj ;
Le rayon LSOj du cercle limite se déduit de l'équation représentant algébriquement le gamut bidimensionnel réduit 3 et de l'équation exprimant que le point PSOj est le barycentre des points limite P1JL et P2jL. Les facteurs 0,5 et 0,8 correspondent à des valeurs possibles d'un facteur dit de brouillage KSOj propre au pixel ESOj ; ce facteur peut être commun à tous les pixels de l'image source S0 à décomposer ; à l'inverse, ce facteur peut être variable selon les pixels de l'image source S0 à décomposer, de préférence inversement proportionnel au vecteur de mouvement de ce pixel, de façon à diminuer avantageusement le taux de brouillage dans les parties de l'image soumises à un fort mouvement ; il peut être commun à toutes les images source à décomposer, ou au contraire être variable selon les images source. De manière générale, pour décomposer le vecteur de couleur OPSOj associé au pixel ESOj en deux vecteurs de couleur OPclj, OPC2j associé aux pixels Eclj et EC2j de respectivement l'image composante IC1 et l'image composante IC2, on choisit deux points symétriques Pclj, PC2j sur un cercle centré sur PSOj, et on évalue les coordonnées (cclj, dclj), (cC2j, dC2j) respectives de ces points dans le repère bidimensionnel c,d précédemment défini. De manière générale, les extrémités des vecteurs composants de couleur sont choisis de manière à ce que leur barycentre, dans l'espace de couleur selon l'invention, coïncide approximativement avec l'extrémité PSOj du vecteur source de couleur. Pour obtenir des pixels EC1; et EC2; aussi différents que possible l'un de l'autre, on choisit par exemple le cercle 6 dont le rayon est égal à 0,8 LSOj, ce qui correspond à un niveau moyen de brouillage d'image (KSOj = 0,8). En poursuivant la décomposition du pixel ESOj de l'image source S0 en deux pixels Eclj et EC2j de respectivement l'image composante IC1 et l'image composante IC2, on définit Yclj = YC2j = YSOj , on obtient les triplets (Ycij. cclj, dcij)' (Yc2j> cC2p 0Oj) ^1 eχPriment 'es coordonnées des deux vecteurs de couleur OPclj, OPC2j dans le nouvel espace de couleur. Par une transformation inverse de l'interpolation linéaire précédemment définie, qui permetde passer de l'expression des coordonnées d'un vecteur de couleur dans l'espace de couleur lié au dispositif à l'expression des coordonnées du même vecteur dans le nouvel espace de couleur de l'invention, on calcule les triplets (DR.clj, DG.clj, DB.clj), (DR.C2j, DG.C2j, DB.C2j) qui expriment les coordonnées des mêmes deux vecteurs de couleur OPclj, OPC2j, cette fois, dans l'espace de couleur lié au dispositif.The radius L SOj of the limit circle is deduced from the equation representing algebraically the reduced two-dimensional gamut 3 and from the equation expressing that the point P SOj is the centroid of the limit points P 1 JL and P 2jL . The factors 0.5 and 0.8 correspond to possible values of a factor of scrambling K SOj specific to the pixel E SOj ; this factor can be common to all the pixels of the source image S 0 to be broken down; conversely, this factor can be variable according to the pixels of the source image S 0 to be decomposed, preferably inversely proportional to the motion vector of this pixel, so as to advantageously reduce the interference rate in the parts of the image subject to strong movement; it can be common to all the source images to decompose, or on the contrary be variable according to the source images. In general, to decompose the color vector OP SOj associated with the pixel E SOj into two color vectors OP clj , OP C2j associated with the pixels E clj and E C2j respectively of the component image I C1 and the component image I C2 we choose two symmetrical points P clj , P C2j on a circle centered on P SOj , and evaluate the respective coordinates (c clj , d clj ), (c C2j , d C2j ) of these points in the two-dimensional coordinate system c, d previously defined. In general, the ends of the color component vectors are chosen so that their centroid, in the color space according to the invention, coincides approximately with the P SO j end of the color source vector. To obtain pixels E C1 ; and E C2 ; as different as possible from one another, for example, the circle 6 whose radius is equal to 0.8 L SOj is chosen , which corresponds to a mean level of image interference (K SOj = 0.8 ). By continuing the decomposition of the pixel E SOj of the source image S 0 into two pixels E clj and E C2j respectively of the component image I C1 and the component image I C2 , we define Y clj = Y C2j = Y SOj , is obtained triples (j Yci. c clj, DCij) (Yc2j> c C2p 0 Oj) ^ 1 eχ Pri ment 'are coordinates of the two color vectors clj OP, OP C2j in the new color space. By an inverse transformation of the previously defined linear interpolation, which makes it possible to pass from the expression of the coordinates of a color vector in the color space linked to the device to the expression of the coordinates of the same vector in the new space of color of the invention, the triplets (D R , cl , D G , cl , D B, clj ), (D R , C2j , D G , C2j , D B, C2j ) are calculated which express the coordinates of the same two color vectors OP clj , OP C2j , this time in the color space linked to the device.
Ainsi, lorsque le dispositif d'affichage d'image génère la succession des images composantes IC1, IC2 à une fréquence supérieure à la fréquence de fusion des couleurs de l'œil humain, les pixels E0^e. Eq2 des images composantes IC1, IC2, seront affichés successivement à partir des triplets suivants de données vidéo (DR.clj, DG.clj, DB.clj), (DR.C2j, DG.C2j, DB.C2j), ce qui générera, du fait de la fusion des couleurs, un pixel identique au pixel ESOj de l'image source E80. A l'inverse, dans l'image obtenue à partir d'un enregistrement illégal à l'aide d'un appareil de prise de vue non synchronisé, l'observateur verra apparaître deux images IC1, IC2, qui seront d'ailleurs d'autant plus distinctes que les pixels qui les composent sont associés à des vecteurs de couleur différents. Grâce à la décomposition des vecteurs de couleur dans un espace de couleur indépendant de tout dispositif d'affichage, comme l'espace Ycd qu'on vient d'utiliser, on constate que la visualisation successive, à une fréquence supérieure à la fréquence de fusion des couleurs pour l'œil humain, des images composantes de cette image source produit une image fusionnée (IF) beaucoup plus proche de l'image source que dans l'art antérieur, même lorsque les différences entre les images composantes sont exacerbées pour améliorer le brouillage, selon la variante optionnelle précédemment décrite. Ainsi, même si l'on brouille fortement les prises de vue illégales de séquences d'images par ce traitement d'images, on obtient une bonne qualité d'affichage des images. Dans la description de la présente invention, les transformations de l'expression des coordonnées des vecteurs de couleur entre différents espaces de couleur ont été réalisés par interpolation linéaire ; d'autre types de transformations connues peuvent être utilisées sans se départir de l'invention. La présente invention a été décrite en se référant à une décomposition d'images source en deux images composantes ; des décompositions en un nombre plus élevé d'images composantes peuvent être envisagées sans se départir de l'invention ; en généralisant, une image source peut ainsi être décomposée en une série de n images « composantes » : IC1, IC2, ..., Ick- lCn ; selon une variante, le nombre n, supérieur ou égale à 2, peut varier en fonction de l'image source à décomposer ; en effet, comme la fréquence de fusion des couleurs dépend de la luminosité des images, on peut envisager un nombre n plus élevé pour des fréquences de fusion basses, et vice-versa. D'autres espaces de couleur visuels indépendants du dispositif d'affichage peuvent être envisagés sans se départir de l'invention, notamment les espace dérivés linéairement de l'espace XYZ.Thus, when the image display device generates the succession of the component images I C1 , I C2 at a frequency greater than the melting frequency of the colors of the human eye, the pixels E 0 e. Eq 2 of the component images I C1 , I C2 , will be displayed successively from the following triplets of video data (D R , cl , D G , cl , D B, clj ), (D R , C2j , D G , C2j , D B C2j ), which will generate, because of the merging of the colors, a pixel identical to the pixel E SOj of the source image E 80 . Conversely, in the image obtained from an illegal recording using a non-synchronized camera, the observer will see two images I C1 , I C2 , which will be all the more distinct as the pixels that compose them are associated with different color vectors. Thanks to the decomposition of the color vectors in a color space independent of any display device, such as the Ycd space just used, it is found that the successive visualization at a frequency greater than the melting frequency colors for the human eye, component images of this source image produce a merged image (I F ) much closer to the source image than in the prior art, even when the differences between the component images are exacerbated to improve scrambling, according to the optional variant described above. Thus, even if we strongly blur the illegal shooting of image sequences by this image processing, we obtain a good image display quality. In the description of the present invention, the transformations of the expression of the coordinates of the color vectors between different color spaces have been made by linear interpolation; other types of known transformations can be used without departing from the invention. The present invention has been described with reference to a source image decomposition into two component images; decompositions into one higher number of component images can be envisaged without departing from the invention; by generalizing, a source image can thus be decomposed into a series of n "component" images: I C1 , I C2 , ..., Ick- Cn ; alternatively, the number n, greater than or equal to 2, may vary depending on the source image to be decomposed; indeed, as the color melting frequency depends on the brightness of the images, it is possible to consider a higher number n for low melting frequencies, and vice versa. Other visual color spaces independent of the display device can be envisaged without departing from the invention, in particular the linearly derived spaces of the XYZ space.
De préférence, selon une deuxième variante essentielle de l'invention, comme espace de couleur indépendant du dispositif, on choisit un espace perceptuellement uniforme, comme l'espace CIE-LAB (encore appelé Lab), l'espace CIE-LUV (encore appelé Luv), ou l'espace QMH, ou encore l'espace JCH ; pour l'espace QCH, Q désigne la brillance (« brightness »), C le pittoresque (« colorfulness »), et H la teinte (« huequadrature » ou « hueangle ») ; pour l'espace JCH, J désigne la luminence (« lightness »), C désigne le « chroma », et H désigne comme précédemment la teinte (« hue »). Le choix d'un tel espace perceptuellement uniforme permet avantageusement d'exacerber encore plus les différences entre les images composantes, cette fois telles qu'elles sont perçues par l'œil humain, ce qui renforce encore le niveau de brouillage ; en effet, le choix d'un tel espace de couleur permet de maximiser spécifiquement les écarts de perception entre les images composantes d'une même image source. L'exemple qui vient d'être décrit peut être mis en œuvre en utilisant, cette fois, des formules de transformation d'espace adaptées à l'espace perceptuellement uniforme, formules qui sont à la portée de l'homme du métier. En variante de cet exemple, au lieu de maximiser les distances euclidiennes entre des extrémités des vecteurs de couleur de pixels des images composantes comme précédemment décrit, on maximise les différences de teinte Δh entre ces pixels. On constate qu'en effectuant la décomposition dans un espace LAB de la même façon que dans l'espace Ycd comme précédemment décrit, on obtient, pour une même image source, des images composantes sensiblement différentes. On constante que l'utilisation d'un espace perceptuellement uniforme pour la décomposition permet d'améliorer le brouillage des images. A noter que les espaces LAB et LUV comprennent la grandeur de luminance.Preferably, according to a second essential variant of the invention, as a device-independent color space, a perceptually uniform space is chosen, such as the CIE-LAB space (also called Lab), the CIE-LUV space (also called Luv), or the QMH space, or the JCH space; for the QCH space, Q is the brightness (brightness), C is the colorfulness, and H is the huequadrature or hueangle; for the space JCH, J designates the luminance ("lightness"), C designates the "chroma", and H designates as previously the hue. The choice of such a perceptually uniform space advantageously makes it possible to further exacerbate the differences between the component images, this time as they are perceived by the human eye, which further enhances the level of interference; indeed, the choice of such a color space makes it possible to specifically maximize the differences in perception between the component images of the same source image. The example that has just been described can be implemented using, this time, space transformation formulas adapted to the perceptually uniform space, formulas that are within the reach of those skilled in the art. As a variant of this example, instead of maximizing the Euclidean distances between ends of the pixel color vectors of the component images as previously described, the color differences Δh between these pixels are maximized. It is found that by performing the decomposition in a LAB space in the same way as in the Ycd space as previously described, one obtains, for the same source image, substantially different component images. It is constant that the use a perceptually uniform space for decomposition can improve the scrambling of images. Note that the LAB and LUV spaces include the luminance magnitude.
L'invention s'applique à d'autres modes de réalisation du procédé d'affichage d'une séquence d'images, sans sortir du cadre des revendications ci-après. The invention applies to other embodiments of the method of displaying a sequence of images, without departing from the scope of the claims below.

Claims

REVENDICATIONS
1. Procédé de traitement d'une image source (I80) comprenant une étape de décomposition de cette image (I80) en une série de n imagesA method for processing a source image (I 80 ) comprising a step of decomposing this image (I 80 ) into a series of n images
« composantes » (IC1, IC2, ..., Ick- - --. 'en) 0M sont différentes, dans laquelle :"Components" (I C1 , I C2 , ..., Ick- - -. 'En) 0 M are different, in which:
- à chaque pixel « source » (ESOj) de l'image source (I80) qui est décomposé correspond un pixel « composant » dans chacune des n imagesat each "source" pixel (E SOj ) of the source image (I 80 ) which is decomposed corresponds to a "component" pixel in each of the n images
« composantes » (IC1, IC2, ..., lCk> - --> 1Cn)-"Components" (I C1 , I C2 , ..., l C k> - -> 1 Cn) -
- et, chaque pixel desdites images, source ou composantes, étant associé à un vecteur de couleur dans un espace de couleur donné, ladite décomposition est effectuée de manière à ce que le vecteur de couleur associé, dans cet espace, à chaque pixel source (ESOj) qui est décomposé soit égal à la résultante, divisée par n, des vecteurs de couleur associés, dans ce même espace, aux pixels composants qui correspondent audit pixel source, caractérisé en ce que ledit espace de couleur est indépendant de tout dispositif d'affichage.and, each pixel of said images, source or components, being associated with a color vector in a given color space, said decomposition is performed in such a way that the associated color vector, in this space, at each source pixel ( E SOj ) which is decomposed to be equal to the resultant, divided by n, of the associated color vectors, in this same space, to the component pixels that correspond to said source pixel, characterized in that said color space is independent of any other device. display.
2. Procédé de traitement selon la revendication 1 , caractérisé en ce que ledit espace de couleur comprend la grandeur absolue de luminance et est de type XYZ ou dérivé linéairement de cet espace.2. Processing method according to claim 1, characterized in that said color space comprises the absolute magnitude of luminance and is of type XYZ or linearly derived from this space.
3. Procédé de traitement selon la revendication 1 , caractérisé en ce que ledit espace de couleur comprend la grandeur absolue de luminance et est de type Ycd ou dérivé linéairement de cet espace, défini comme suit par rapport à l'espace XYZ : c = X/Y et d = Z/Y. 3. Processing method according to claim 1, characterized in that said color space comprises the absolute magnitude of luminance and is of type Ycd or linearly derived from this space, defined as follows with respect to the space XYZ: c = X / Y and d = Z / Y.
4. Procédé selon la revendication 1 caractérisé en ce que ledit espace de couleur est perceptuellement uniforme.4. Method according to claim 1 characterized in that said color space is perceptually uniform.
5. Procédé selon la revendication 4 caractérisé en ce que ledit espace de couleur est l'espace CIE-LAB ou un espace linéairement dérivé de cet espace. 5. Method according to claim 4 characterized in that said color space is the CIE-LAB space or a space linearly derived from this space.
6. Procédé de traitement d'une image source (I80) selon l'une quelconque des revendications précédentes dans lequel, chaque pixel de ladite image source étant associé à un triplet de données vidéo (DR, DG, DB) qui forme par convention les coordonnées du vecteur de couleur associé audit pixel de cette image dans un espace de couleur associé audit dispositif :A method for processing a source image (I 80 ) according to any one of the preceding claims wherein, each pixel of said source image is associated with a video data triple (D R , D G , D B ) which form by convention the coordinates of the color vector associated with said pixel of this image in a color space associated with said device:
- chaque pixel de ladite pluralité de pixels différenciants étant associé à un vecteur source de couleur, on détermine les coordonnées dudit vecteur source dans ledit espace de couleur indépendant du dispositif par un premier traitement desdites données vidéo associées à ce pixel,each pixel of said plurality of differentiating pixels being associated with a color source vector, determining the coordinates of said source vector in said device-independent color space by a first processing of said video data associated with said pixel,
- et, on détermine les coordonnées des vecteurs composants de couleur dont la résultante, dans ledit espace de couleur indépendant du dispositif, est égale à n fois ledit vecteur source de couleur, - et, chaque vecteur composant de couleur étant associé à un pixel d'une image composante, on détermine un triplet de données vidéo associé à ce pixel par un deuxième traitement, inverse du premier, des coordonnées dudit vecteur composant de couleur associé à ce pixel.and determining the coordinates of the color component vectors whose resultant, in said device-independent color space, is equal to n times said color source vector, and each color component vector being associated with a color pixel. a component image, a triplet of video data associated with this pixel is determined by a second processing, inverse of the first, of the coordinates of said color component vector associated with this pixel.
7. Procédé d'affichage d'une séquence d'images source à une fréquence d'affichage source dans lequel au moins une image source (I80) est traitée par le procédé selon l'une quelconque des revendications 1 à 6 pour être décomposée en une série de n images « composantes » (IC1, IC2, ..., Ick- ..., lCn) qui sont différentes, et dans lequel on affiche successivement lesdites images composantes à une fréquence d'affichage composant égale a n fois ladite fréquence d'affichage source, caractérisé en ce que ladite fréquence d'affichage composant est supérieure à la fréquence de fusion des couleurs pour l'œil humain.A method of displaying a source image sequence at a source display frequency in which at least one source image (I 80 ) is processed by the method of any one of claims 1 to 6 to be decomposed in a series of n "component" images (I C1 , I C2 , ..., Ick- ..., l Cn ) which are different, and in which said component images are successively displayed at an equal component display frequency once said source display frequency, characterized in that said component display frequency is greater than the color fusion frequency for the human eye.
8. Dispositif d'affichage d'une séquence d'images, où chaque pixel d'une image de cette séquence est associé un triplet de données vidéo (DR, DG, DB), comprenant :Apparatus for displaying a sequence of images, wherein each pixel of an image of this sequence is associated with a video data triple (D R , D G , D B ), comprising:
- un écran d'affichage doté d'une matrice bidimensionnelle d'afficheurs élémentaires polychromes, chaque afficheur étant associé à un pixel de l'image à afficher,a display screen provided with a two-dimensional matrix of polychromatic elementary displays, each display being associated with a pixel of the image to be displayed,
- des moyens de traitement aptes à traiter au moins une image à afficher de ladite séquence par le procédé selon l'une quelconque des revendications 1 à 6, pour être décomposée en une série de n images « composantes » (I C1, IC2, ..., Ick- - --. 'en) 0M sont différentes, et pour associer à chaque pixel de ses images composantes un triplet de données vidéo (DR, DG, DB), - des moyens pour commander chaque afficheur élémentaire associé à un pixel d'une image à afficher en fonction d'un triplet de données vidéo associé à ce pixel, caractérisé en ce que lesdits moyens de commande sont adaptés pour afficher successivement les images composantes de chaque série à une fréquence supérieure à la fréquence de fusion des couleurs. processing means capable of processing at least one image to be displayed of said sequence by the method according to any one of claims 1 to 6, to be decomposed into a series of n "component" images (I C1 , I C2 , ..., Ick- - -. 'En) 0 M are different, and to associate with each pixel of its component images a triplet of video data (D R , D G , D B ), means for controlling each elementary display associated with a pixel of an image to be displayed as a function of a video data triplet associated with this pixel, characterized in that said control means are adapted to display successively the component images of each series at a frequency greater than the color melting frequency.
PCT/EP2006/069919 2005-12-20 2006-12-19 Enhanced image processing method for preventing image piracy WO2007071677A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0553963 2005-12-20
FR0553963 2005-12-20

Publications (1)

Publication Number Publication Date
WO2007071677A1 true WO2007071677A1 (en) 2007-06-28

Family

ID=36764706

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/069919 WO2007071677A1 (en) 2005-12-20 2006-12-19 Enhanced image processing method for preventing image piracy

Country Status (1)

Country Link
WO (1) WO2007071677A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030184779A1 (en) * 2002-04-02 2003-10-02 Canon Kabushiki Kaisha Color Processing method and image processing apparatus
EP1414250A2 (en) * 2002-10-23 2004-04-28 Sony Corporation Image display apparatus and image display method
US20040081318A1 (en) * 2002-10-28 2004-04-29 Sergiy Bilobrov Techniques of imperceptibly altering the spectrum of a displayed image in a manner that discourages copying
FR2859857A1 (en) * 2003-09-17 2005-03-18 Thomson Licensing Sa Source image processing method for e.g. projector, involves compensating modified colors of pixels on processed images to obtain color corresponding to color of pixel in source image, where luminance of pixels in images are equal
WO2006076174A1 (en) * 2005-01-12 2006-07-20 Eastman Kodak Company Cinema system having color and copy protection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030184779A1 (en) * 2002-04-02 2003-10-02 Canon Kabushiki Kaisha Color Processing method and image processing apparatus
EP1414250A2 (en) * 2002-10-23 2004-04-28 Sony Corporation Image display apparatus and image display method
US20040081318A1 (en) * 2002-10-28 2004-04-29 Sergiy Bilobrov Techniques of imperceptibly altering the spectrum of a displayed image in a manner that discourages copying
FR2859857A1 (en) * 2003-09-17 2005-03-18 Thomson Licensing Sa Source image processing method for e.g. projector, involves compensating modified colors of pixels on processed images to obtain color corresponding to color of pixel in source image, where luminance of pixels in images are equal
WO2006076174A1 (en) * 2005-01-12 2006-07-20 Eastman Kodak Company Cinema system having color and copy protection

Similar Documents

Publication Publication Date Title
RU2755676C2 (en) Method and apparatus for rendering colour images
US8723932B2 (en) Display of generalized anaglyphs without retinal rivalry
EP0948194A2 (en) Device-independent and medium-independent color matching between an input device and an output device
EP2850822B1 (en) Native three-color images and high dynamic range images
EP2143262B1 (en) User adjustable gamut mapping and conversion of images from a source color space to a destination color space including primary and redundant colors
US20070160285A1 (en) Method and apparatus for associating image enhancement with color
JP2004029770A (en) Method and device for increasing color gamut of display
JP2000358252A (en) Extended color correction
Bala et al. Gamut mapping to preserve spatial luminance variations
US6972869B2 (en) Mapping color to colorant amounts when colorants have similar hue
JP2000350050A (en) In-gamut image reproduction method using spatial comparison
JP2005176385A (en) Color gamut mapping system
US20070236757A1 (en) Rich color image processing method and apparatus
WO2008110443A1 (en) Method to display images with metameric jamming to prevent illegal copy
US20050226498A1 (en) Prepress workflow process employing frequency modulation (FM) screening techniques
FR2779601A1 (en) Method and device for image reproduction using a K step black point color card.
WO2007071678A1 (en) Image processing method for increasing the blurring of pirated images
WO2011109349A2 (en) Luminous printing
US20040239969A1 (en) Image processing apparatus and method
Laird et al. Development and evaluation of gamut extension algorithms
Kim et al. Wide gamut multi-primary display for HDTV
WO2007071677A1 (en) Enhanced image processing method for preventing image piracy
US20180060994A1 (en) System and Methods for Designing Unobtrusive Video Response Codes
CN115004694A (en) Projection system and method utilizing a mixed color gamut
EP1370091A1 (en) Image processing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06848737

Country of ref document: EP

Kind code of ref document: A1