WO2002027702A1 - Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles - Google Patents

Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles Download PDF

Info

Publication number
WO2002027702A1
WO2002027702A1 PCT/FR2001/002854 FR0102854W WO0227702A1 WO 2002027702 A1 WO2002027702 A1 WO 2002027702A1 FR 0102854 W FR0102854 W FR 0102854W WO 0227702 A1 WO0227702 A1 WO 0227702A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
cell
vector
vectors
gray level
Prior art date
Application number
PCT/FR2001/002854
Other languages
English (en)
Inventor
Didier Doyen
Jonathan Kervec
Bertrand Chupeau
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Priority to EP01969885.1A priority Critical patent/EP1410373B1/fr
Priority to AU2001290017A priority patent/AU2001290017A1/en
Priority to US10/381,559 priority patent/US6980215B2/en
Priority to KR10-2003-7003866A priority patent/KR20030081306A/ko
Priority to JP2002531402A priority patent/JP4675025B2/ja
Publication of WO2002027702A1 publication Critical patent/WO2002027702A1/fr

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/28Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
    • G09G3/288Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels
    • G09G3/291Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels controlling the gas discharge to control a cell condition, e.g. by means of specific pulse shapes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • G09G3/2033Display of intermediate tones by time modulation using two or more time intervals using sub-frames with splitting one or more sub-frames corresponding to the most significant bits into two or more sub-frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/28Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
    • G09G3/288Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels
    • G09G3/296Driving circuits for producing the waveforms applied to the driving electrodes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0266Reduction of sub-frame artefacts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/28Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels
    • G09G3/288Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels
    • G09G3/291Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels controlling the gas discharge to control a cell condition, e.g. by means of specific pulse shapes
    • G09G3/293Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using luminous gas-discharge panels, e.g. plasma panels using AC panels controlling the gas discharge to control a cell condition, e.g. by means of specific pulse shapes for address discharge

Definitions

  • Image processing method and device for correcting visualization faults in moving objects are described.
  • the invention relates to an image processing method and device for correcting visualization defects of moving objects. More particularly, the invention relates to corrections of defects produced by display devices using the temporal integration of image sub-scans to reproduce gray levels.
  • the display devices concerned have an array of elementary cells which are either in an on state or in an off state.
  • the display devices we are particularly interested in plasma display panels.
  • PAP Plasma display panels
  • PAPs generally include two insulating slabs (or substrate), each carrying one or more networks of electrodes and delimiting between them a space filled with gas. The slabs are assembled to each other so as to define intersections between the electrodes of said arrays. Each intersection of electrodes defines an elementary cell to which corresponds a gas space partially delimited by barriers and in which an electric discharge occurs when the cell is activated. The electric discharge causes an emission of UV rays in the elementary cell. Luminophores deposited on the cell walls transform UV rays into visible light.
  • each cell can be in the on or off state. Maintaining in one of the states is done by sending a succession of so-called maintenance pulses during the entire period during which one wishes to maintain this state.
  • the ignition, or addressing, of a cell is done by sending a larger pulse, commonly called addressing pulse.
  • the extinction, or erasure, of a cell is done by cancellation of the charges inside the cell using a damped discharge.
  • we use the phenomenon of integration of the eye by modulating the durations of the states on and off using sub-scans, or sub-frames, during the duration of display of an image.
  • a first addressing mode called addressing during display (or Addressing While Displaying)
  • a second addressing mode consists of addressing, maintaining and erasing all the cells of the panel during three distinct periods.
  • a problem of false contours consists in the appearance of a darker or lighter or even colored line when moving the transition zone between two colors.
  • the phenomenon of false contour being all the more perceptible when the transition is made between two very close colors that the eye associates with the same color.
  • a problem of sharpness of outline also appears on moving objects.
  • Figure 1 shows a time distribution for the display of two consecutive images with a moving transition.
  • the total display time of the image is 16.6 or 20 ms depending on the country.
  • eight sub-scans associated with durations of weight 1, 2, 4, 8, 16, 32, 64 and 128 are carried out in order to allow 256 gray levels per cell.
  • Each sub-scan allows an elementary cell to be illuminated or not for an illumination duration equal to the weight 1, 2, 4, 8, 16, 32, 64 or 128 multiplied by an elementary duration.
  • the lighting times are separated by erasing and addressing operations during which the cells are switched off.
  • a transition on a color between a level 128 and a level 127 is represented for an image I and an image 1 + 1 with an offset of 5 pixels.
  • the integration made by the eye amounts to integrating temporally along the oblique lines represented.
  • the result of the integration results in the appearance of a gray level equal to zero at the time of the transition between levels 128 and 127 while the human eye does not distinguish between these two levels.
  • a level 0 appears.
  • the transition occurs from level 128 to level 127, there appears a level 255.
  • a first solution consists in “breaking” the highweights to minimize the error.
  • FIG. 2 represents the same transition as FIG. 1 using seven sub-weights of weight 32 in place of the three sub-weights of weights 32, 64 and 128. The integration error of the eye is then made on a maximum value equal to a level 32.
  • Many other solutions have been developed by varying the weights of the sub-scans in order to minimize the error. However, whatever the solution chosen for the brightness distribution of the different sub-scans, there is always a display error due to the coding.
  • D1 European application No. 0 978 817
  • D1 motion vectors are calculated for all the pixels to be displayed in an image, then the sub-scans are moved along these vectors as a function of the different weights of the sub-scans.
  • the correction thus obtained is represented in FIG. 3.
  • the result of this correction gives an excellent result on the transitions which causes effects of false contours because generally the zones belonging to a transition subject to the false contour move according to the same motion vector.
  • FIG. 4 illustrates a motion vector field obtained from prior art estimators.
  • Each point of the current image (Image I) is associated with a motion vector indicating the direction of movement relative to the previous image (Image 1-1).
  • Image 1 When a moving object moves in front of a background, part of the background appears while another part of the background disappears.
  • the conflict zone 2 is characterized by the crossing of motion vector which imposes two values on a sub- given sweep for a given point.
  • the hole area is characterized by a lack of information.
  • the invention provides a method for compensating for movement of the false contour defect.
  • a motion compensation is carried out by determining, for each underscan, the state of each cell by assigning to it the state which would correspond to an intermediate image compensated for motion situated at the instant of said underscan.
  • the invention is a method of displaying a video image on a display device which comprises a plurality of cells in which the gray levels are obtained by temporal integration over a given period of a plurality of sub-scans for which each cell is either on or off. For each sub-scan, an intermediate image corresponding to the instant of said sub-scan is calculated, each intermediate image being compensated for in movement. Next, the state of each cell is determined for each sub-scan by assigning to it the value of the cell corresponding to the intermediate image associated with said sub-scan.
  • an estimation of motion is carried out between the image to be displayed and the previous image, the motion vectors obtained by the motion estimation being grouped in fields of parallel vectors.
  • the motion vector that is applied is determined, then the corresponding gray level is determined as a function of the image to be displayed and / or of the image which precedes the image. to display.
  • a cell is subjected to a single parallel vector field, then the vector which is associated with it corresponds to the vector field and the gray level corresponds to the gray level of the image to be displayed on which the vector points. If a cell is subjected to at least two fields of parallel vectors, then the vectors parallel to all the fields passing through the cell are determined and the vector is associated with the cell for which the gray levels of the image to be displayed and of the previous image are the closest, the gray level associated with the cell corresponds to the gray level of the image to be displayed on which the associated vector points. If a cell is not subject to any vector field, then we calculate a resulting vector corresponding to a mean of the neighboring vectors and the gray level of the previous image corresponding to the resulting vector is associated with the cell.
  • the motion vectors of the previous image are extended, and a vector parallel is assigned to the extended vector field of the previous image which surrounds the cell, the gray level associated with the cell corresponding to the gray level of the previous image through which the vector assigned to the cell passes.
  • the invention also relates to a display device which implements the method defined above. More particularly, the device comprises a plasma panel.
  • FIGS. 1 to 3 represent the temporal integration of gray levels made by the human eye on display devices operating in all or nothing mode
  • FIG. 4 represents an example of vector fields provided by a motion estimator
  • FIGS. 5 and 6 show extrapolations of motion vectors according to the invention
  • FIG. 7 represents the succession of tasks carried out to transform a video image into a command for a display device operating all or nothing, according to the invention
  • FIG. 8 represents a block diagram of an embodiment of the invention .
  • Figure 4 shows motion vectors as provided by a motion estimator.
  • the motion estimator used by the invention is of the same type as those used to perform image display frequency conversion with motion compensation.
  • the motion estimators currently used give results close to those which a so-called perfect estimator should give.
  • the motion vectors have a component along a horizontal axis and a component along a vertical axis of the image which corresponds to the displacement of the point between two images (or two frames depending on whether one works in interlaced or progressive mode). For representation reasons, the image is only represented on one dimension by a linear series of points along the horizontal axis, the vertical axis representing time.
  • the motion estimator associates at each point a motion vector which points to the previous image according to known techniques. For the points corresponding to a background which appears, the estimators are capable of determining reliably the associated vectors, as a function of the neighboring vectors and of the textures of group of points of the current image (image I) and of the previous image ( picture 1-1). The results obtained reveal zones of conflict 1 which correspond to crossings of motion vectors and zones of hole 2 where no vector passes.
  • an intermediate compensated image in motion is associated with each subscan to determine the on or off values of the cells for said underscan.
  • Figure 5 illustrates a first way to calculate cell values.
  • the result of the motion estimation is a set of vectors V1 to V20 which all point to a single pixel of the image I.
  • Each pixel of the image I has an associated motion vector which starts from the image 1-1.
  • the motion vectors are grouped into vector fields CV1 to CV3.
  • the vector fields CV1 to CV3 correspond to continuous pixel zones of the image I associated with the same motion vector by including the projection of this pixel zone on the image 1-1 along the axis of the motion vector associated.
  • the grouping is done by comparison between the vectors associated with neighboring pixels, if two vectors are parallel then the two pixels belong to the same field. According to a variant, it is possible to admit that two vectors are parallel with a small margin of error, for example +/- 0.1 pixels of offset on the abscissa and / or on the ordinate.
  • the calculation of an intermediate image associated with a sub-scanning is done at the instant corresponding to the end of said sub-scanning.
  • For each pixel of the intermediate image we look at which vector field CV1 to CV3 applies.
  • CV1 to CV3 applies.
  • the projection may not correspond to a pixel of the image I, in this case, for example, the value of the nearest pixel is taken or a weighted average is carried out on the nearest pixel values.
  • the pixel P3 If we are in a conflict zone such as for example the pixel P3, then we determine which vector field applies. For this, one carries out, according to the direction of each of the vector fields CV2 and CV3 in which the pixel P3 is placed, a projection of the pixel P3 on the one hand on the image I and on the other hand on the image 1 -1. Then, the difference is made between the pixel values (or the pixels resulting from a possible average) of the images I and 1-1 according to each of the directions. Next, the absolute values of the two differences are compared in order to determine in which direction the pixels of the images I and 1-1 are closest. Pixel P3 is then assigned to field CV2 corresponding to the direction for which the pixels of images I and 1-1 are the closest. Finally, the pixel P3 is then associated with the value corresponding to its projection on the image I in the direction of the field CV2 with which it is associated.
  • a vector Vm is determined as a function of the vector fields CV1 and CV2 surrounding the hole area.
  • the vector Vm is calculated by taking an average of the vectors associated with the vector fields CV1 and CV2 surrounding the area, the average being weighted by the distance on the intermediate image which separates the pixel P3 from each vector field CV1 and CV2.
  • a projection of the pixel P3 is then carried out on the image 1-1 along the direction of the vector Vm to determine the value to be associated with the pixel P3.
  • FIG. 6 represents a variant for determining the pixel values in the hole areas.
  • the vector fields corresponding to the extensions of the vector fields of image 1-1 are determined.
  • the pixels P1 to P3 being all in areas where at least one vector field CV2 and / or CV3 is present, the value of these pixels is determined for example as above.
  • the pixel P3 being in a zone of holes, the vector field CV is taken into account which corresponds to the extension of a vector field calculated using images 1-1 and I-2.
  • Pixel P3 is projected onto image 1-1 along the direction of the vector field CV.
  • the value associated with pixel P3 is equal to the value of the pixel of image 1-1 according to the projection (or equal to the weighted average of the closest pixels).
  • FIG. 7 On reception of a new image, one performs a first step E1 of motion estimation between the new image I and the previous image 1-1. This estimation of movement taking place according to one of the multiple known techniques.
  • a second step E2 is carried out of extrapolation of motion vectors.
  • a motion vector calculated from the motion vectors obtained during the first step E1 is associated with each pixel and for each subscanning.
  • the motion vectors obtained for a first step E1 carried out on the previous image 1-1 are reused, as explained above.
  • a third step E3 of gray level calculation is carried out.
  • This third step E3 consists in determining the gray level which applies for each pixel of each subscan as a function of the associated calculated vector and of the current image I or of the previous image 1-1, as explained previously.
  • the overlapping of the second and third steps E2 and E3 can be done as soon as a motion vector has been calculated for a pixel of a sub-scan.
  • the calculation of the intermediate images is limited to the information necessary for determining the state of the cells for said sub-scanning. For each subscanning, the motion vector that is applicable is determined for each cell, but the corresponding gray level is only calculated if the motion vector does not point to a single pixel.
  • the gray levels will be encoded during a step E4.
  • the on or off state of a PAP cell for a given underscan is determined as a function of the pixel corresponding to the cell for the given underscan.
  • the gray levels associated with the pixels contained in the vector field CV2 are all at level 127 and that the gray levels associated with the pixels contained in the field CV3 are all at level 64.
  • the level of cell C12 is encoded at level 127 and the level of cell C18 is encoded at level 64.
  • Cells C13 to C17 are at intermediate levels. For the sub-scan of weight 1, cells C13 to C17 belong to the field CV2.
  • cells C13 to C16 belong to the field CV2 while cell C17 belongs to the field CV3.
  • cells C13 to C15 belong to the CV2 field and cells C16 and C17 belong to the CV3 field.
  • cells C13 and C14 belong to the field CV2 and cells C15 to C17 belong to the field CV3.
  • cell C13 belongs to field CV2 and cells C14 to C17 belong to field CV3.
  • cells C13 to C17 belong to the field CV3.
  • the values encoded on cells C13 to C17 are therefore respectively equal to 127, 127, 95, 95 and 65.
  • the creation of the ignition table is then done according to a known technique from the encoded levels.
  • An image memory 800 receives a stream of images for storage. The size of the memory 800 makes it possible to memorize at least three images, the image 1 + 1 being memorized during the processing of the image I which uses the image 1-1.
  • a calculation circuit 801 for example a signal processor, performs the encoding according to the method described above and supplies the ignition signals to the column control circuit of a plasma screen 803.
  • a synchronization circuit 804 synchronizes the column control circuits 802 and lines 805.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Power Engineering (AREA)
  • Plasma & Fusion (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

L'invention réalise une compensation en mouvement du défaut de faux contour. La compensation en mouvement se fait, pour chaque sous-balayage, en attribuant à chaque cellule l'état qui correspondrait à une image intermédiaire compensée en mouvement situé à l'instant dudit sous-balayage. Le procédé de l'invention associe à chaque cellule Ci un vecteur de mouvement Vm unique afin de constituer une image intermédiaire pour chaque sous-balayage.

Description

Procédé et dispositif de traitement d'image pour corriger des défauts de visualisation d'objets mobiles.
L'invention concerne un procédé et un dispositif de traitement d'image pour corriger des défauts de visualisation d'objets mobiles. Plus particulièrement, l'invention se rapporte aux corrections de défauts produits par les dispositifs de visualisation ayant recours à l'intégration temporelle de sous-balayes d'image pour reproduire des niveaux de gris.
Les dispositifs de visualisation concernés disposent d'une matrice de cellules élémentaires qui sont soit dans un état allumé, soit dans un état éteint. Parmi les dispositifs de visualisation, on s'intéresse plus particulièrement aux panneaux d'affichage au plasma.
Les panneaux d'affichage au plasma, appelés par la suite PAP, sont des écrans de visualisation de type plat. Il existe deux grandes familles de PAP, à savoir les PAP dont le fonctionnement est du type continu et ceux dont le fonctionnement est du type alternatif. Les PAP comprennent généralement deux dalles isolantes (ou substrat), portant chacune un ou plusieurs réseaux d'électrodes et délimitant entre elles un espace rempli de gaz. Les dalles sont assemblées l'une à l'autre de manière à définir des intersections entre les électrodes desdits réseaux. Chaque intersection d'électrodes définit une cellule élémentaire à laquelle correspond un espace gazeux partiellement délimité par des barrières et dans lequel se produit une décharge électrique lorsque la cellule est activée. La décharge électrique provoque une émission de rayons UV dans la cellule élémentaire. Des luminophores déposés sur les parois de la cellule transforment les rayons UV en lumière visible.
Pour les PAP de type alternatif, il existe deux types d'architecture de cellule, l'une est dite matricielle, l'autre est dite coplanaire. Bien que ces structures soient différentes, le fonctionnement d'une cellule élémentaire est sensiblement le même. Chaque cellule peut se retrouver dans état allumé ou éteint. Le maintien dans l'un des états se fait par l'envoi d'une succession d'impulsions dites d'entretien durant toute la durée pendant laquelle on désire maintenir cet état. L'allumage, ou adressage, d'une cellule se fait par l'envoi d'une impulsion plus importante, communément appelée impulsion d'adressage. L'extinction, ou effacement, d'une cellule se fait par annulation des charges à l'intérieur de la cellule à l'aide d'une décharge amortie. Pour obtenir différents niveaux de gris, on fait appel au phénomène d'intégration de l'œil en modulant les durées des états allumés et éteints à l'aide de sous- balayages, ou sous-trames, pendant la durée d'affichage d'une image.
Pour pouvoir effectuer la modulation temporelle d'allumage de chaque cellule élémentaire, il est principalement utilisé deux techniques dites «modes d'adressage». Un premier mode d'adressage, dit d'adressage pendant l'affichage (ou Addressing While Displaying), consiste à adresser chaque ligne de cellules pendant le maintien des autres lignes de cellules, l'adressage se faisant ligne par ligne de manière décalée. Un deuxième mode d'adressage, dit adressage à affichage séparé (Addressing and Display Séparation), consiste à effectuer l'adressage, le maintien et l'effacement de toutes les cellules du panneau durant trois périodes distinctes. Pour plus de précisions sur ces deux modes d'adressage, l'homme du métier peut par exemple se reporter aux brevets américains n°5,420,602 et 5,446,344. Quel que soit le mode d'adressage utilisé, il existe de nombreux problèmes liés à l'intégration temporelle des cellules fonctionnant en mode tout ou rien. Un problème de faux contours consiste en l'apparition d'un trait plus sombre ou plus clair voire coloré lors de déplacement de zone de transition entre deux couleurs. Le phénomène de faux contour étant d'autant plus perceptible lorsque la transition se fait entre deux couleurs très proche que l'œil associe à une même couleur. Un problème de netteté de contour apparaît également sur les objets en mouvement.
La figure 1 représente une répartition temporelle pour l'affichage de deux images consécutives avec une transition qui se déplace. Le temps d'affichage total de l'image est de 16,6 ou 20 ms suivant les pays. Durant le temps d'affichage, huit sous-balayages associés à des durées de poids 1 , 2, 4, 8, 16, 32, 64 et 128 sont réalisés afin de permettre 256 niveaux de gris par cellule. Chaque sous-balayage permet d'éclairer ou non une cellule élémentaire pendant une durée d'éclairement égal au poids 1 , 2, 4, 8, 16, 32, 64 ou 128 multiplié par une durée élémentaire. Les durées d'éclairement sont séparées par des opérations d'effacement et d'adressage pendant lesquelles les cellules sont éteintes.
Une transition sur une couleur entre un niveau 128 et un niveau 127 est représentée pour une image I et une image 1+1 avec un décalage de 5 pixels. L'intégration faite par l'œil revient à intégrer temporellement selon les droites obliques représentées. Le résultat de l'intégration se traduit par l'apparition d'un niveau de gris égal à zéro au moment de la transition entre les niveaux 128 et 127 alors que l'œil humain ne fait pas de distinction entre ces deux niveaux. Lorsque la transition se produit du niveau 127 vers le niveau 128, il y a apparition d'un niveau 0. Inversement, lorsque la transition se produit du niveau 128 vers le niveau 127, il y a apparition d'un niveau 255. Lorsque les trois couleurs primaires (rouge vert et bleu) sont combinées entre elles, ce changement de niveau peut se colorer et devenir encore plus visible.
Une première solution consiste à « casser » les poids forts pour minimiser l'erreur. La figure 2 représente la même transition que la figure 1 en utilisant sept sous-balayage de poids 32 à la place des trois sous- balayage de poids 32, 64 et 128. L'erreur d'intégration de l'œil se fait alors sur une valeur maximale égale à un niveau 32. De nombreuses autres solutions ont été élaborées en jouant sur les poids des sous-balayages afin de minimiser l'erreur. Toutefois, quelle que soit la solution retenue pour la répartition de luminosité des différents sous-balayages, il subsiste toujours une erreur de visualisation due au codage.
Dans la demande européenne n°0 978 817 (ci-après D1) il est proposé de corriger l'image en fonction des mouvements constatés. Dans D1 , on calcule des vecteurs de mouvement pour tous les pixels à afficher d'une image puis, on déplace les sous-balayages le long de ces vecteurs en fonction des différents poids des sous-balayages. La correction ainsi obtenue est représentée sur la figure 3. Le résultat de cette correction donne un excellent résultat sur les transitions qui provoque des effets de faux contours car généralement les zones appartenant à une transition sujette au faux contour se déplacent selon un même vecteur mouvement.
Cependant la correction décrite dans D1 présente quelques défauts lors de la mise en pratique sur des séquences où les objets se croisent. La figure 4 illustre un champ de vecteur de mouvement obtenu à partir d'estimateurs de l'état de la technique. A chaque point de l'image courante (Image I) est associé un vecteur mouvement indiquant la direction du mouvement par rapport à l'image précédente (Image 1-1). Lorsqu'un objet mobile se déplace devant un fond, une partie du fond apparaît tandis qu'une autre partie du fond disparaît. Si l'on essaie de déplacer les sous-balayages de l'image courante le long des vecteurs de mouvement, il apparaît une zone de conflit 1 et une zone de trou 2. La zone de conflit 2 se caractérise par le croisement de vecteur mouvement qui impose deux valeurs à un sous- balayage donné pour un point donné. La zone de trou se caractérise par une absence d'information.
L'invention propose une méthode pour réaliser une compensation en mouvement du défaut de faux contour. Selon l'invention, on réalise une compensation en mouvement en déterminant, pour chaque sous-balayage, l'état de chaque cellule en lui attribuant l'état qui correspondrait à une image intermédiaire compensée en mouvement située à l'instant dudit sous- balayage. L'invention est un procédé d'affichage d'image vidéo sur un dispositif de visualisation qui comporte une pluralité de cellules dans lequel les niveaux de gris sont obtenus par intégration temporelle sur une période donnée d'une pluralité de sous-balayages pour lesquels chaque cellule est soit allumée soit éteinte. Pour chaque sous-balayage, on calcule une image intermédiaire correspondant à l'instant dudit sous-balayage, chaque image intermédiaire étant compensée en mouvement. Ensuite, on détermine l'état de chaque cellule pour chaque sous-balayage en y affectant la valeur de la cellule correspondant à l'image intermédiaire associée audit sous-balayage.
Préférentiellement, on réalise une estimation de mouvement entre l'image à afficher et l'image précédente, les vecteurs mouvements obtenus par l'estimation de mouvement étant regroupés en champs de vecteurs parallèles. Pour chaque sous-balayage et pour chaque cellule, on détermine le vecteur de mouvement qui s'applique, puis on détermine le niveau de gris qui correspond en fonction de l'image à afficher et/ou de l'image qui précède l'image à afficher.
Trois cas de figure sont envisageable en fonction des différentes zone de l'image pour un sous balayage donné. Si une cellule est soumise à un unique champ de vecteurs parallèles, alors le vecteur qui lui est associé correspond au champ de vecteurs et le niveau de gris correspond au niveau de gris de l'image à afficher sur lequel pointe le vecteur. Si une cellule est soumise à au moins deux champs de vecteurs parallèles, alors on détermine les vecteurs parallèles à tous les champs passant par la cellule et on associe à la cellule le vecteur pour lequel les niveaux de gris de l'image à afficher et de l'image précédente sont les plus proches, le niveau de gris associé à la cellule correspond au niveau de gris de l'image à afficher sur lequel le vecteur associé pointe. Si une cellule n'est soumise à aucun champ de vecteurs, alors on calcule un vecteur résultant correspondant à une moyenne des vecteurs voisins et on associe à la cellule le niveau de gris de l'image précédente correspondant au vecteur résultant.
En variante, si une cellule n'est soumise à aucun champ de vecteurs, alors on prolonge les vecteurs de mouvement de l'image précédente, et on affecte un vecteur parallèle au champ de vecteurs prolongés de l'image précédente qui entoure la cellule, le niveau de gris associé à la cellule correspondant au niveau de gris de l'image précédente par lequel passe le vecteur affecté à la cellule.
L'invention concerne également un dispositif de visualisation qui met en oeuvre le procédé défini précédemment. Plus particulièrement, le dispositif comporte une dalle plasma.
L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : les figures 1 à 3 représentent l'intégration temporelle de niveaux de gris faite par l'œil humain sur des dispositifs de visualisation fonctionnant en tout ou rien, la figure 4 représente un exemple de champs de vecteurs fournis par un estimateur de mouvement, les figures 5 et 6 montrent des extrapolations de vecteurs de mouvement selon l'invention, la figure 7 représente la succession de tâches réalisées pour transformer une image vidéo en commande pour un dispositif de visualisation fonctionnant en tout ou rien, selon l'invention, et la figure 8 représente un schéma bloc d'un mode de réalisation de l'invention.
Les figures 1 à 3 ayant été décrites précédemment, celle-ci ne seront pas décrites plus en détail.
La figure 4 représente des vecteurs de mouvement tels que fournis par un estimateur de mouvement. L'estimateur de mouvement utilisé par l'invention est du même type que ceux utilisés pour réaliser de la conversion de fréquence de visualisation d'image avec compensation de mouvement. Les estimateurs de mouvement utilisés actuellement donnent des résultats proches de ceux que devrait donner un estimateur dit parfait. Les vecteurs de mouvement comportent une composante selon un axe horizontale et une composante selon un axe vertical de l'image qui correspond au déplacement du point entre deux images (ou deux trames suivant que l'on travaille en mode entrelacé ou progressif). Pour des raisons de représentation, l'image n'est représentée que sur une dimension par une suite linéaire de point selon l'axe horizontal, l'axe vertical représentant le temps.
Pour une image I donné, l'estimateur de mouvement associe à chaque point un vecteur de mouvement qui pointe sur l'image précédente selon des techniques connues. Pour les points correspondant à un fond apparaissant, les estimateurs sont capables de déterminer de manière fiable les vecteurs associés, en fonction des vecteurs voisins et des textures de groupe de points de l'image courante (image I) et de l'image précédente (image 1-1). Les résultats obtenus font apparaître des zones de conflit 1 qui correspondent à des croisements de vecteurs de mouvement et des zones de trou 2 où aucun vecteur ne passe.
Selon l'invention, on associe à chaque sous-balayage une image intermédiaire compensée en mouvement pour déterminer les valeurs allumées ou éteintes des cellules pour ledit sous-balayage. La figure 5 illustre une première façon de calculer les valeurs des cellules.
Tout d'abord, on effectue une estimation de mouvement entre l'image I et l'image 1-1. Le résultat de l'estimation de mouvement est un ensemble de vecteurs V1 à V20 qui pointent tous sur un unique pixel de l'image I. Chaque pixel de l'image I dispose d'un vecteur de mouvement associé qui part de l'image 1-1. Dans notre exemple de réalisation, les vecteurs de mouvement sont regroupés en champs de vecteurs CV1 à CV3. Les champs de vecteurs CV1 à CV3 correspondent à des zones de pixels continues de l'image I associée à un même vecteur de mouvement en incluant la projection de cette zone de pixel sur l'image 1-1 selon l'axe du vecteur de mouvement associé. Le regroupement se fait par comparaison entre les vecteurs associés à des pixels voisins, si deux vecteurs sont parallèles alors les deux pixels appartiennent au même champ. Selon une variante, il est possible d'admettre que deux vecteurs sont parallèles avec une faible marge d'erreur, par exemple +/- 0,1 pixels de décalage en abscisse et/ou en ordonnée.
Le calcul d'une image intermédiaire associée à un sous-balayage se fait à l'instant correspondant à la fin dudit sous-balayage. Pour chaque pixel de l'image intermédiaire, on regarde quel champ de vecteur CV1 à CV3 s'applique. Lorsqu'un seul champ de vecteur est applicable, par exemple pour les pixels P1 et P2, on regarde à quel pixel celui-ci correspond sur l'image I par une projection selon la direction du champ de vecteur CV2 ou CV3 respectivement. Bien évidemment, la projection peut ne pas correspondre à un pixel de l'image I, dans ce cas, on prend par exemple la valeur du pixel le plus proche ou on effectue une moyenne pondérée sur les valeurs de pixels les plus proches.
Si on se trouve dans une zone de conflit comme par exemple le pixel P3, alors on détermine quel champ de vecteur s'applique. Pour cela, on effectue, selon la direction de chacun des champs de vecteurs CV2 et CV3 dans lesquels est placé le pixel P3, une projection du pixel P3 d'une part sur l'image I et d'autre part sur l'image 1-1. Puis, on effectue la différence entre les valeurs des pixels (ou les pixels résultant d'une éventuelle moyenne) des images I et 1-1 selon chacune des directions. On compare, ensuite, les valeurs absolues des deux différences afin de déterminer selon quelle direction les pixels des images I et 1-1 sont les plus proches. On affecte alors au pixel P3 le champ CV2 correspondant à la direction pour laquelle les pixels des images I et 1-1 sont les plus proches. Finalement, on associe alors au pixel P3 la valeur correspondant à sa projection sur l'image I selon la direction du champ CV2 auquel il est associé.
Si, par contre, on se trouve dans une zone de trou comme par exemple le pixel P4, alors on détermine un vecteur Vm en fonction des champs de vecteur CV1 et CV2 entourant la zone de trou. Le vecteur Vm est calculé en réalisant une moyenne des vecteurs associés aux champs de vecteurs CV1 et CV2 entourant la zone, la moyenne étant pondérée par la distance sur l'image intermédiaire qui sépare le pixel P3 de chaque champ de vecteur CV1 et CV2. On effectue ensuite une projection du pixel P3 sur l'image 1-1 selon la direction du vecteur Vm pour déterminer la valeur à associer au pixel P3.
Pour associer une image intermédiaire à un sous-balayage, on considère, dans l'exemple décrit précédemment, l'instant de fin d'un sous- balayage comme étant l'instant où doit se placer l'image, l'image I correspondant à l'instant de fin du dernier sous-balayage. En variante, l'homme du métier peut également associer les instants de début de sous- balayage aux images. Une autre variante consiste également à associer l'image I avec le premier sous-balayage de l'image, dans ce cas il faudra calculer les vecteurs de mouvement avec l'image 1+1 et retarder la visualisation d'une image.
La figure 6 représente une variante pour déterminer les valeurs de pixels dans les zones de trou. Pour cette méthode, on détermine les champs de vecteurs correspondant aux prolongations des champs de vecteur de l'image 1-1. Les pixels P1 à P3 se trouvant tous dans des zones où au moins un champs de vecteur CV2 et/ou CV3 est présent, on détermine la valeur de ces pixels par exemple comme précédemment. Par contre, le pixel P3 se trouvant dans une zone de trous, on prend en compte le champ de vecteur CV qui correspond à la prolongation d'un champ de vecteur calculé à l'aide des images 1-1 et I-2. On projette le pixel P3 sur l'image 1-1 selon la direction du champ de vecteur CV. La valeur associée au pixel P3 est égale à la valeur du pixel de l'image 1-1 selon la projection (ou égal à la moyenne pondérée des pixels les plus proches). Pour résumer le procédé mis en oeuvre quelle que soit la méthode utilisée pour déterminer les vecteurs ou direction de vecteur à appliquer aux différents pixels des différentes images intermédiaires, on se réfère à la figure 7. A la réception d'une nouvelle image, on effectue une première étape E1 d'estimation de mouvement entre la nouvelle image I et l'image précédente 1-1. Cette estimation de mouvement se déroulant selon l'une des multiples techniques connues.
A l'issue de la première étape E1 , on effectue une deuxième étape E2 d'extrapolation de vecteurs de mouvement. Durant cette deuxième étape E2, on associe à chaque pixel et pour chaque sous-balayage un vecteur de mouvement calculé à partir des vecteurs de mouvement obtenu pendant la première étape E1. Eventuellement, on réutilise les vecteurs de mouvement obtenu pour une première étape E1 réalisée sur l'image précédente 1-1 , comme expliqué précédemment.
A l'issu de la deuxième étape E2 ou en partie simultanément avec ladite étape E2, on effectue une troisième étape E3 de calcul de niveau de gris. Cette troisième étape E3 consiste à déterminer le niveau de gris qui s'applique pour chaque pixel de chaque sous-balayage en fonction du vecteur calculé associé et de l'image courante I ou de l'image précédente 1-1 , comme expliqué précédemment. Le chevauchement des deuxième et troisième étapes E2 et E3 peut se faire dès qu'un vecteur de mouvement a été calculé pour un pixel d'un sous-balayage. Afin de réduire au minimum les ressources nécessaires à l'invention, le calcul des images intermédiaire se limite aux informations nécessaires à la détermination de l'état des cellules pour ledit sous- balayage. Pour chaque sous-balayage, on détermine pour chaque cellule le vecteur de mouvement qui s'applique, mais on ne calcule le niveau de gris correspondant que si le vecteur de mouvement ne pointe pas sur un unique pixel.
Enfin on procédera à l'encodage des niveaux de gris au cours d'une étape E4. Selon l'invention, on détermine l'état allumé ou éteint d'une cellule du PAP pour un sous-balayage donné en fonction du pixel correspondant à la cellule pour le sous-balayage donné. A titre d'exemple d'encodage, on considère sur la figure 5 que les niveaux de gris associés aux pixels contenu dans le champ de vecteur CV2 sont tous au niveau 127 et que les niveaux de gris associés aux pixels contenu dans le champ CV3 sont tous au niveau 64. Le niveau de la cellule C12 est encodé au niveau 127 et le niveau de la cellule C18 est encodé au niveau 64. Les cellules C13 à C17 sont à des niveaux intermédiaires. Pour le sous-balayage de poids 1 , les cellules C13 à C17 appartiennent au champ CV2. Pour les sous- balayages de poids 2, 4, 8 et 16, les cellules C13 à C16 appartiennent au champ CV2 alors que la cellule C17 appartient au champ CV3. Pour le premier sous-balayage de poids 32, les cellules C13 à C15 appartiennent au champ CV2 et les cellules C16 et C17 appartiennent au champ CV3. Pour les deuxième et troisième sous-balayages de poids 32, les cellules C13 et C14 appartiennent au champ CV2 et les cellules C15 à C17 appartiennent au champ CV3. Pour les quatrième et cinquième sous-balayages de poids 32, la cellule C13 appartient au champ CV2 et les cellules C14 à C17 appartiennent au champ CV3. Pour les sixième et septième sous-balayages de poids 32, les cellules C13 à C17 appartiennent au champ CV3. Les valeurs encodées sur les cellules C13 à C17 sont donc respectivement égales à 127, 127, 95, 95 et 65. La création de la table d'allumage se fait ensuite selon une technique connue à partir des niveaux encodés.
De très nombreuses structures de mise en oeuvre sont possibles. Un exemple de réalisation est représenté sur la figure 8. Une mémoire d'image 800 reçoit un flux d'images pour mémorisation. La taille de la mémoire 800 permet de mémoriser au moins trois images, l'image 1+1 étant mémoriser pendant le traitement de l'image I qui utilise l'image 1-1. Un circuit de calcul 801 , par exemple un processeur de signal, réalise l'encodage selon le procédé décrit précédemment et fournit les signaux d'allumage au circuit de pilotage de colonnes d'une dalle plasma 803. Un circuit de synchronisation 804 effectue la synchronisation des circuits de pilotage de colonnes 802 et de lignes 805.
Comme peut le comprendre l'homme du métier, de très nombreuses variantes sur le circuit de mise en oeuvre sont possibles.

Claims

REVENDICATIONS
1. Procédé d'affichage d'image vidéo sur un dispositif de visualisation qui comporte une pluralité de cellules dans lequel les niveaux de gris sont obtenus par intégration temporelle sur une période donnée d'une pluralité de sous-balayages pour lesquels chaque cellule est soit allumée soit éteinte, caractérisé en ce que :
- pour chaque sous-balayage, on calcule une image intermédiaire correspondant à l'instant dudit sous-balayage, chaque image intermédiaire étant compensée en mouvement,
- on détermine l'état de chaque cellule pour chaque sous- balayage en y affectant la valeur de la cellule correspondant à l'image intermédiaire associée audit sous-balayage.
2. Procédé selon la revendication 1 , caractérisé en ce que, on réalise une estimation de mouvement entre l'image à afficher et l'image précédente, les vecteurs mouvements obtenus par l'estimation de mouvement étant regroupés en champs de vecteurs parallèles, et en ce que, pour chaque sous-balayage et pour chaque cellule, on détermine le vecteur de mouvement qui s'applique, puis on détermine le niveau de gris qui correspond en fonction de l'image à afficher et/ou de l'image qui précède l'image à afficher.
3. Procédé selon la revendication 2, caractérisé en ce que, pour un sous-balayage donné, si une cellule est soumise à un unique champ de vecteurs parallèles, alors le vecteur qui lui est associé correspond au champ de vecteurs et le niveau de gris correspond au niveau de gris de l'image à afficher sur lequel pointe le vecteur.
4. Procédé selon la revendication 2, caractérisé en ce que, pour un sous-balayage donné, si une cellule est soumise à au moins deux champs de vecteurs parallèles, alors on détermine les vecteurs parallèles à tous les champs passant par la cellule et on associe à la cellule le vecteur pour lequel les niveaux de gris de l'image à afficher et de l'image précédente sont les plus proches, le niveau de gris associé à la cellule correspond au niveau de gris de l'image à afficher sur lequel le vecteur associé pointe.
5. Procédé selon la revendication 2, caractérisé en ce que, pour un sous-balayage donné, si une cellule n'est soumise à aucun champ de vecteurs, alors on calcule un vecteur résultant correspondant à une moyenne des vecteurs voisins et on associe à la cellule le niveau de gris de l'image précédente correspondant au vecteur résultant.
6. Procédé selon la revendication 2, caractérisé en ce que, pour un sous-balayage donné, si une cellule n'est soumise à aucun champ de vecteurs, alors on prolonge les vecteurs de mouvement de l'image précédente, et on affecte un vecteur parallèle au champ de vecteurs prolongés de l'image précédente qui entoure la cellule, le niveau de gris associé à la cellule correspondant au niveau de gris de l'image précédente par lequel passe le vecteur affecté à la cellule.
7. Dispositif de visualisation caractérisé en ce qu'il met en oeuvre le procédé de l'une des revendications 1 à 6.
8. Dispositif selon la revendication 7, caractérisé en ce qu'il comporte une dalle plasma.
PCT/FR2001/002854 2000-09-27 2001-09-14 Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles WO2002027702A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP01969885.1A EP1410373B1 (fr) 2000-09-27 2001-09-14 Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles
AU2001290017A AU2001290017A1 (en) 2000-09-27 2001-09-14 Method and device for processing images to correct defects of mobile object display
US10/381,559 US6980215B2 (en) 2000-09-27 2001-09-14 Method and device for processing images to correct defects of mobile object display
KR10-2003-7003866A KR20030081306A (ko) 2000-09-27 2001-09-14 이동 객체의 디스플레이에서 결함을 정정하기 위해이미지를 처리하기 위한 방법 및 디바이스
JP2002531402A JP4675025B2 (ja) 2000-09-27 2001-09-14 移動物体表示の欠陥を補正する画像処理方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR00/12332 2000-09-27
FR0012332A FR2814627B1 (fr) 2000-09-27 2000-09-27 Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles

Publications (1)

Publication Number Publication Date
WO2002027702A1 true WO2002027702A1 (fr) 2002-04-04

Family

ID=8854761

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2001/002854 WO2002027702A1 (fr) 2000-09-27 2001-09-14 Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles

Country Status (8)

Country Link
US (1) US6980215B2 (fr)
EP (1) EP1410373B1 (fr)
JP (1) JP4675025B2 (fr)
KR (1) KR20030081306A (fr)
CN (1) CN1248182C (fr)
AU (1) AU2001290017A1 (fr)
FR (1) FR2814627B1 (fr)
WO (1) WO2002027702A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1406236A3 (fr) * 2002-10-02 2006-06-07 Lg Electronics Inc. Procédé et dispositif de commande d'un panneau d'affichage à plasma
JP4363314B2 (ja) * 2004-11-19 2009-11-11 セイコーエプソン株式会社 画像データ処理装置及び画像データ処理方法
US8566751B2 (en) 2005-01-24 2013-10-22 International Business Machines Corporation GUI pointer automatic position vectoring

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0822536A2 (fr) 1996-07-29 1998-02-04 Fujitsu Limited Procédé et dispositif pour l'affichage d'image en demi-teinte

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3712802B2 (ja) * 1996-10-29 2005-11-02 富士通株式会社 中間調表示方法および表示装置
US6496194B1 (en) * 1998-07-30 2002-12-17 Fujitsu Limited Halftone display method and display apparatus for reducing halftone disturbances occurring in moving image portions
JP5077860B2 (ja) * 2001-05-31 2012-11-21 株式会社日立プラズマパテントライセンシング Pdpの駆動方法および表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0822536A2 (fr) 1996-07-29 1998-02-04 Fujitsu Limited Procédé et dispositif pour l'affichage d'image en demi-teinte

Also Published As

Publication number Publication date
CN1466744A (zh) 2004-01-07
EP1410373B1 (fr) 2013-12-25
FR2814627A1 (fr) 2002-03-29
JP2004530917A (ja) 2004-10-07
CN1248182C (zh) 2006-03-29
FR2814627B1 (fr) 2003-01-17
EP1410373A1 (fr) 2004-04-21
AU2001290017A1 (en) 2002-04-08
US6980215B2 (en) 2005-12-27
KR20030081306A (ko) 2003-10-17
JP4675025B2 (ja) 2011-04-20
US20040095365A1 (en) 2004-05-20

Similar Documents

Publication Publication Date Title
US7787001B2 (en) Image processing apparatus, image display apparatus, image processing method, and computer product
FR2822284A1 (fr) Procede d'affichage d'images video sur panneau d'affichage a plasma et panneaux d'affichage a plasma correspondant
FR2740598A1 (fr) Dispositif d'affichage et procede d'excitation de celui-ci
FR2880460A1 (fr) Procede et dispositif d'affichage pour reduire les effets de flou
FR2772502A1 (fr) Procede de compensation des differences de remanence des luminophores dans un ecran de visualisation d'images
US8508672B2 (en) System and method for improving video image sharpness
FR2829275A1 (fr) Procede d'affichage d'images video sur un dispositif d'affichage et panneau d'affichage a plasma correspondant
FR2742910A1 (fr) Procede et dispositif d'adressage d'un ecran matriciel
EP1958182B1 (fr) Systeme video comprenant un afficheur matriciel a cristaux liquides a procede d'adressage ameliore
EP1249133B1 (fr) Procede et dispositif de restitution d'un signal lumineux
EP1410373B1 (fr) Procede et dispositif de traitement d'image pour corriger des defauts de visualisation d'objets mobiles
EP2097893B1 (fr) Procede d'adressage d'un afficheur a cristaux liquides en mode sequentiel couleur
EP1958183B1 (fr) Afficheur matriciel séquentiel couleur à cristaux liquides
FR2776414A1 (fr) Procede et dispositif pour adressage de panneaux a plasma
FR2837052A1 (fr) Procede d'affichage d'une image video sur un dispositif d'affichage numerique
US6580470B1 (en) Display apparatus for displaying an image representative of an interlaced video signal
EP1131810A1 (fr) Procede d'adressage pour ecran a plasma base sur un adressage separe des lignes paires et impaires
EP1342226B1 (fr) Dispositif de visualisation a luminophores
FR2802010A1 (fr) Procede d'adressage de panneau d'affichage au plasma
EP0793212B1 (fr) Procédé de commande d'un écran de visualisation d'image affichant des demi-teintes, et dispositif de visualisation mettant en oeuvre le procédé
WO2003027995A2 (fr) Procede d'affichage d'images video sur un dispositif d'affichage pour corriger le papillotement large zone
EP1224656A1 (fr) Procede de codage de la video pour un panneau d'affichage au plasma
FR2820236A1 (fr) Procede d'affichage d'images video sur panneau d'affichage a plasma et panneau d'affichage a plasma correspondant
FR2717648A1 (fr) Procédé et dispostif d'estimation de mouvement entre images de télévision d'une séquence d'images.
EP1164783A1 (fr) Correction de convergence d'un écran ou projecteur à tube cathodique

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PH PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001969885

Country of ref document: EP

Ref document number: 1020037003866

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 01816160X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2002531402

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 10381559

Country of ref document: US

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 1020037003866

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001969885

Country of ref document: EP