FR2947081A1 - Procede de traitement d'image. - Google Patents
Procede de traitement d'image. Download PDFInfo
- Publication number
- FR2947081A1 FR2947081A1 FR0954109A FR0954109A FR2947081A1 FR 2947081 A1 FR2947081 A1 FR 2947081A1 FR 0954109 A FR0954109 A FR 0954109A FR 0954109 A FR0954109 A FR 0954109A FR 2947081 A1 FR2947081 A1 FR 2947081A1
- Authority
- FR
- France
- Prior art keywords
- image
- pattern
- video
- pixels
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 238000005265 energy consumption Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 102100022778 POC1 centriolar protein homolog A Human genes 0.000 description 1
- 101710125073 POC1 centriolar protein homolog A Proteins 0.000 description 1
- 102100022769 POC1 centriolar protein homolog B Human genes 0.000 description 1
- 101710125069 POC1 centriolar protein homolog B Proteins 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- YOBAEOGBNPPUQV-UHFFFAOYSA-N iron;trihydrate Chemical compound O.O.O.[Fe].[Fe] YOBAEOGBNPPUQV-UHFFFAOYSA-N 0.000 description 1
- 210000004180 plasmocyte Anatomy 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/34—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
- G09G3/36—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
- G09G3/3611—Control of matrices with row and column drivers
-
- G06T5/94—
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/10—Special adaptations of display systems for operation with variable images
- G09G2320/103—Detection of image changes, e.g. determination of an index representative of the image change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
Abstract
L'invention concerne un procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage. Afin de réduire la consommation d'énergie du dispositif d'affichage, le procédé comprend une étape d'application d'un motif vidéo (11) à chaque image (10) de la séquence, le motif (11) étant généré de manière à conserver une intensité lumineuse maximale dans au moins une zone de l'image sur laquelle le motif est appliqué et à atténuer l'intensité lumineuse dans le reste de l'image, la au moins une zone comprenant au moins un pixel.
Description
PROCEDE DE TRAITEMENT D'IMAGE
1. Domaine de l'invention.
L'invention se rapporte au domaine du traitement d'images ou de vidéo pour affichage sur tout type de dispositifs d'affichage dont la source de lumière peut être modulée pixel par pixel (par exemple PDP (de l'anglais Plasma Display Panel ou en français Panneau d'affichage à plasma ) ou par région (par exemple écran LCD (de l'anglais Liquid Crystal Display ou en français Dispositif d'affichage à cristaux liquides ) à rétro-éclairage à LED (de l'anglais Light-Emitting Diode ou en français Diode électroluminescente ) ou dispositifs à rétroprojection).
2. Etat de l'art.
Selon l'état de la technique, de tels écrans plasma ou LCD sont connus pour être de gros consommateurs d'énergie, les écrans plasma étant réputés plus consommateurs d'énergie que les écrans LCD. A titre d'exemple, la puissance nominale d'un écran plasma dont la dimension de la diagonale est de 42 pouces est de l'ordre de 200 à 250 Watts alors que la puissance nominale d'un écran LCD à rétro-éclairage de puissance constante de même dimension est légèrement inférieure, par exemple de l'ordre de 150 Watts. Cependant, du fait des principes de fonctionnement qui sont différents pour un écran plasma et un écran LCD, la consommation d'énergie de chacun des écrans plasma n'est pas toujours plus importante que celle des écrans LCD. En effet, les écrans plasma ne nécessitent l'allumage que d'une seule cellule plasma pour illuminer un pixel. Dans la mesure où l'obscurité est obtenue en arrêtant l'arrivée de l'influx électrique dans les pixels du plasma, la reproduction de scènes sombres sur un écran plasma ne nécessite qu'une quantité relativement faible de courant électrique. En comparaison, les écrans LCD fonctionnent à énergie constante, que la scène à reproduire sur l'écran soit claire ou sombre, en raison du rétro-éclairage que ces écrans utilisent en permanence à pleine puissance, l'occultation de la lumière émise par rétro-éclairage étant assurée par les cristaux liquides de l'écran LCD pour les zones sombres de la scène à reproduire. Des études ont ainsi montré que la consommation électrique annuelle pour un écran plasma dont la dimension de la diagonale est de 37 pouces est de l'ordre de 220 à 290 kWh par an et que la consommation électrique annuelle pour un écran LCD de même diagonale est de l'ordre de 190 à 250 kWh par an. Par ailleurs, des recommandations de la commission européenne concernant le plafonnement de la consommation électrique des écrans plats (qu'ils soient de types plasma, LCD ou à rétroprojection) entreront en vigueur courant 2010. Pour satisfaire ces recommandations, la consommation électrique des écrans de l'état de l'art doit être réduite.
3. Résumé de l'invention.
L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur. Plus particulièrement, l'invention a notamment pour objectif de réduire la consommation électrique d'un dispositif d'affichage. L'invention concerne un procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage. Le procédé comprend une étape d'application d'un motif vidéo à chaque image de ladite séquence, le motif étant généré de manière à conserver une intensité lumineuse maximale dans au moins une zone de l'image sur laquelle le motif est appliqué et à atténuer l'intensité lumineuse dans le reste de l'image, la au moins une zone comprenant au moins un pixel. Selon une caractéristique particulière, l'atténuation de l'intensité lumineuse des pixels du reste de l'image est directement proportionnelle à l'éloignement des pixels par rapport à la au moins une zone de l'image. Avantageusement, le motif vidéo est de même dimension que ladite image. Selon une autre caractéristique, le procédé comprend les étapes de : - décomposition du motif en une pluralité de blocs, chacun des blocs étant associé à une pluralité de pixels de l'image vidéo ; - assignation d'un premier coefficient de pondération à chacun des blocs. De manière avantageuse, le procédé comprend une étape d'interpolation, pour chaque pixel associé à un bloc du motif, du premier coefficient de pondération en un deuxième coefficient de pondération assigné à un pixel associé au bloc, pour chacun des blocs du motif. Selon une caractéristique spécifique, le procédé comprend les étapes de : - analyse du contenu vidéo de l'image vidéo ; - détermination d'au moins une zone d'intérêt de l'image en fonction du résultat de l'analyse, la au moins une zone de l'image dans laquelle l'intensité lumineuse maximale est conservée étant la au moins une zone d'intérêt déterminée. Avantageusement, le motif appliqué à chaque image est le même pour toutes les images de la séquence. Selon une caractéristique particulière, le motif appliqué à chaque image varie temporellement.
4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : la figure 1 illustre l'application d'un motif vidéo à une image source dans une unité de traitement des figures 2, 3 et 5, selon un exemple de mise en oeuvre de l'invention ; les figures 2 et 3 illustrent schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon deux modes de réalisation particuliers de l'invention ; la figure 4 illustre une association de coefficients de pondération aux pixels de l'image traitée dans l'unité de traitement de la figure 3, selon un exemple de mise en oeuvre de l'invention ; la figure 5 illustre schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon un mode de réalisation particulier de l'invention ; la figure 6 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement des figures 2, 3 ou 5, selon un mode de réalisation particulier de l'invention ; et la figure 7 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement de la figure 5, selon un mode de réalisation particulier de l'invention.
35 5. Description détaillée de modes de réalisation de l'invention. 25 30 La figure 1 illustre le traitement d'une image vidéo 10 source à laquelle est appliqué un motif vidéo 11. Le résultat de l'application du motif 11 à l'image 10 est représenté par l'image vidéo 12 résultante. Le motif 11 possède les mêmes dimensions que l'image source à laquelle il est appliqué.
De manière avantageuse, le motif 11 est une matrice de dimension M*N (M lignes par N colonnes) avec un nombre d'éléments égal au nombre de pixels des images 10 et 12. A chaque élément de la matrice M*N représentative du motif 11 est ainsi associé un pixel de l'image source 10. Le motif 11 est déterminé de manière à ce que le niveau vidéo prenne une valeur maximale Max au centre du motif, par exemple égal à 255, et prenne une valeur minimale Min dans les coins du motif, c'est-à-dire dans les zones du motif les plus éloignées du centre du motif. La valeur minimale correspond à un pourcentage de la valeur maximale Max et est par exemple égale à 60, 70, 80 ou 90 % de la valeur maximale Max. En d'autres mots, l'élément placé au centre de la matrice représentative du motif 11 a comme valeur la valeur maximale Max de niveau vidéo, par exemple 255, et les éléments placés aux quatre coins de la matrice ont comme valeur la valeur minimale Min de niveau vidéo. Le niveau vidéo associé à chacun des éléments de la matrice représentative du motif 11 est par exemple obtenu par une fonction de type gaussienne ou double linéaire représentée par le multiplicateur 13. Selon une variante, les éléments de la matrice M*N représentative du motif 11 prennent comme valeur des coefficients de pondération. L'élément placé au centre de la matrice prend avantageusement comme valeur un coefficient de pondération maximal égal à 1 et les éléments les plus distants de l'élément du centre, c'est-à-dire les éléments positionnés dans les coins de la matrice, prennent comme valeur un même coefficient de pondération minimal correspondant à x % du coefficient de pondération maximale, X ayant par exemple pour valeur 60, 70, 80 ou 90 %. De manière avantageuse, le centre du motif ayant pour valeur la valeur maximale de niveau vidéo ou le coefficient de pondération maximale correspond à un élément de la matrice M*N, à savoir l'élément placé à l'intersection de la ligne du milieu et de la colonne du milieu. Selon une variante, le centre du motif correspond à un ensemble d'éléments de la matrice, par exemple un cercle centré sur l'élément du centre de la matrice ayant pour rayon R éléments (R étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un carré centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments (L étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un rectangle centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments et de largeur I éléments, ou tout autre forme géométrique centré sur l'élément central de la matrice.
La figure 2 illustre schématiquement un premier exemple de réalisation matérielle d'une unité de traitement 2 d'un dispositif d'affichage. L'unité de traitement 2 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 2 comprend les éléments suivants : - un processeur 21 ; - une mémoire 23 ; - une unité de synchronisation 22 ; - un multiplieur 25 ; - une unité de normalisation 24 ; - des bus de données 200, 201, 202, 203.
Le processeur 21 contient une fonction permettant de générer le motif en fonction de critères entrés via par exemple une interface une interface MMI (ou interface homme/machine de l'anglais Man Machine Interface ) non représentée. Les critères correspondent par exemple à la zone du motif pour laquelle le niveau vidéo est maximal, à la valeur maximale voulue, à la valeur minimale correspondant à un pourcentage X de la valeur maximale. Le processeur 21 génère un motif représenté par une matrice comprenant autant d'éléments que de pixels contenus dans l'image à traiter. Si l'image à traiter 26 est une image comprenant M lignes et N colonnes, la matrice représentant le motif comprendra également M lignes et N colonnes d'éléments. La matrice générée est transmise à la mémoire (par exemple une mémoire de type RAM (de l'anglais Random Access Memory ou en français mémoire vive ) ou de type flash) 23 via un bus 200 reliant le processeur 21 à la mémoire 23. Le contenu de la mémoire 23 est appliqué au signal d'entrée RGB 26 représentatif d'une séquence vidéo comprenant plusieurs images par l'intermédiaire d'un multiplicateur 25. La mémoire 23 et le multiplicateur 25 sont reliés entre eux via un bus de données 16 bits. Le signal d'entrée 26 est transmis au multiplicateur 25 via un bus de données de par exemple 32 bits (le nombre de bits à transmettre en parallèle étant de 30 bits effectifs, chaque composante RGB (de l'anglais Red, Green, Blue ou en français Rouge, vert bleu ) étant codée sur 10 bits). Le bus 201 est dimensionné à 16 bits puisque un seul élément codé sur 10 bits de la matrice contenue dans la mémoire 23 est à appliquer aux trois composantes RGB définissant chaque pixel de l'image d'entrée 26. Le bus 201 devant donc être capable de transmettre 10 bits en parallèle, un bus 16 bits est disposé entre la mémoire 23 et le multiplicateur 25. L'application d'un élément de la matrice contenue dans la mémoire 23 au pixel associé de l'image, les coordonnées de l'élément dans la matrice étant identiques aux coordonnées du pixel associés dans l'image d'entrée 26, est synchronisée par une unité de synchronisation 22 recevant en entrée des signaux de synchronisation verticale (Vsync), de synchronisation horizontale (Hsync) et un signal (RGB_en) correspondant aux pixels actifs de l'image source 26.
Une unité de normalisation 24 est placée en sortie du multiplicateur 25 pour ramener sur 30 bits le signal issue de la multiplication du signal d'entrée RGB 26 codé sur 30 bits et du signal représentatif des éléments du motif codé sur 10 bits, le signal en sortie de l'unité de normalisation 24 étant le signal de sortie RGB_traité 27 représentatif des images vidéo à afficher sur le dispositif d'affichage : la dynamique du signal de sortie RGB_traité 27 doit être identique à la dynamique du signal d'entrée RGB 26. L'image de sortie 27 correspond à l'image d'entrée 26 à laquelle a été appliqué un motif 11. Dans le cas où le motif présente un niveau vidéo maximal en son centre et un niveau vidéo minimal dans les zones les plus éloignées du centre du motif, l'image de sortie 27 aura une intensité lumineuse identique à celle de l'image d'entrée au centre de l'image et une intensité lumineuse réduite dans les zones de l'image distantes du centre de l'image. La diminution de l'intensité lumineuse des pixels de l'image décroit de manière progressive du centre de l'image vers la périphérie de l'image selon la fonction utilisée (par exemple fonction de type gaussienne ou fonction de type interpolation bilinéaire) pour générer le motif 11 dans le processeur 21. L'énergie nécessaire pour afficher l'image de sortie est donc inférieure à l'énergie qui serait nécessaire pour afficher l'image d'entrée non traitée par l'unité de traitement 2.
Selon une variante, la mémoire 23 est disposée à l'extérieur de l'unité de traitement 2. En effet, la mémoire 23 contient autant d'éléments codés sur 10 bits qu'il y a de pixels dans l'image d'entrée 26. Pour une image de résolution 1920x1080 (contenant donc 2073600 pixels), la mémoire doit avoir une capacité de stockage d'environ 2,6 Mo. Une mémoire RAM ou flash avec une telle capacité de stockage n'est généralement pas intégrée dans une unité de traitement 2 de type FGPA ou ASIC.
La figure 3 illustre schématiquement un deuxième exemple de réalisation matérielle d'une unité de traitement 3 d'un dispositif d'affichage. L'unité de traitement 3 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 3 comprend les éléments suivants : un processeur 31 ; - une mémoire 33 ; - une unité de synchronisation 32 ; - un multiplieur 35 ; - une unité de normalisation 34 ; - une unité d'interpolation 38 ; et - des bus de données 300, 301, 302, 303. Le processeur 31, la mémoire 33, l'unité de synchronisation 32, le multiplieur 35, l'unité de normalisation 34 et les bus de données 300 à 303 assure les mêmes fonctions que respectivement le processeur 21, la 25 mémoire 23, l'unité de synchronisation 22, le multiplieur 25, l'unité de normalisation 24 et les bus de données 200 à 203 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le détail ici. Le processeur 31 contient une fonction permettant de générer un motif en fonction de critères entrés via par exemple une interface MMI. La fonction assure ici la 30 génération de coefficients de pondérations qui seront appliqués à l'image d'entrée pour conserver l'intensité lumineuse à son niveau d'entrée dans une ou plusieurs zones de l'image et pour diminuer l'intensité lumineuse de l'image d'entrée dans le reste de l'image. Contrairement à la fonction décrite en regard de la figure 2, la fonction décrite ici génère des coefficients de 35 pondération qui seront chacun associés à plusieurs pixels de l'image d'entrée, c'est-à-dire à des blocs de pixels contenant chacun par exemple 50, 100, 500 ou 1000 pixels. Le nombre de coefficients générés par le 20 processeur 31 et stockés dans la mémoire 33 est ainsi beaucoup moins important que le nombre d'éléments (niveau vidéo ou coefficient de pondération) générés par la fonction contenue dans le processeur 21. Un tel exemple de mise en oeuvre offre l'avantage de réduire les besoins en mémoire. La mémoire 33 est ainsi de manière avantageuse de taille réduite et intégrée à l'unité de traitement 33. Avant d'être appliqués aux pixels de l'image d'entrée 36 par l'intermédiaire du multiplieur 35, les coefficients de pondérations stockés dans la mémoire 33 sont envoyés dans une unité d'interpolation 38 disposée entre la mémoire 33 et le multiplieur 35. La fonction assurée par l'unité d'interpolation 38 est d'interpoler la valeur d'un coefficient de pondération associé à un bloc de pixels de l'image d'entrée en autant de valeurs de coefficients de pondération qu'il y a de pixels dans le bloc associé. On a en sortie de l'unité d'interpolation 38 un coefficient de pondération associé à un pixel de l'image. Ce processus est détaillé en figure 4. La figure 4 illustre un processus d'interpolation d'un coefficient de pondération associé à un bloc de pixels d'une image d'entrée en plusieurs coefficients de pondération chacun associé à un pixel du bloc de pixels, selon un exemple de mise en oeuvre de l'invention. Le motif 4 généré par le processeur 31 est décomposé en une pluralité de blocs 41, 42, 43, 44, ..., 4n et un coefficient de pondération Cl, C2, C3, C4, ..., Cn est respectivement associé à chacun des blocs 41 à 4n du motif 4. Chaque bloc 41 à 4n du motif 4 est également respectivement associé à un bloc de pixels 401, 402, 403, 404, ..., 40n de l'image d'entrée. Avant d'être appliqué au premier bloc de pixels de l'image d'entrée, le premier coefficient Cl associé à ce bloc est transmis à l'unité d'interpolation 38 qui interpole la valeur du premier coefficient de pondération Cl en autant de valeurs de coefficient de pondération Cl', C2', C3', C4', ..., Cn' qu'il y a de pixels dans le premier bloc de pixels de l'image d'entrée, selon toutes méthodes connues de l'homme du métier, par exemple par interpolation bilinéaire. Chaque coefficient de pondération interpolé Cl' à Cn' est associé à un pixel Pix1 4001, Pix2 4002, Pix3 4003, pix4 4004, ..., Pixn 400n. Le processus décrit en regard du premier bloc 41 associé à un bloc de pixels 401 est réitéré pour chacun des blocs 41 à 4n du motif 4. Chaque coefficient interpolé Cl' à Cn' de chacun des blocs est ensuite appliqué au pixel de l'image d'entrée qui lui est associé par l'intermédiaire du multiplieur 35 pour pondérer l'intensité lumineuse de l'image d'entrée 26 et générer une image de sortie 27 dont l'intensité lumineuse est identique à celle de l'image d'entrée 26 dans la ou les zones ou le coefficient de pondération est égal à 1 et dont l'intensité lumineuse est inférieur à celle de l'image d'entrée 26 dans les zones de l'images où le coefficient de pondération appliqué est inférieur à 1. La diminution de l'intensité lumineuse dans une partie de l'image de sortie permet de diminuer la consommation de courant nécessaire au rendu de l'image vidéo traitée. Le même processus est réitéré pour chaque image d'une séquence vidéo à afficher sur le dispositif d'affichage.
La figure 5 illustre schématiquement un troisième exemple de réalisation matérielle d'une unité de traitement 5 d'un dispositif d'affichage. L'unité de traitement 5 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 5 comprend les éléments suivants : un processeur 51 ; - une mémoire 53 ; - une unité de synchronisation 52 ; - un multiplieur 55 ; - une unité de normalisation 54 ; - une unité d'interpolation 58 ; - un analyseur d'image 59 ; et - des bus de données 500, 501, 502, 503. Le processeur 51, la mémoire 53, l'unité de synchronisation 52, le multiplieur 55, l'unité de normalisation 54 et les bus de données 500 à 503 assure les mêmes fonctions que respectivement le processeur 21, la 30 mémoire 23, l'unité de synchronisation 22, le multiplieur 25, l'unité de normalisation 24 et les bus de données 200 à 203 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le détail ici. L'unité d'interpolation 58 assure les mêmes fonctions que l'unité d'interpolation 38 décrite en regard des figures 3 et 4 et ne sera pas décrite à nouveau dans le 35 détail ici. De manière avantageuse, le motif appliqué aux images d'entrées 26, 36 dans les exemples de réalisation des figures 2 et 3 est identique pour toutes les images d'une séquence vidéo et est prédéfini en fonction de 25 critères choisis par un utilisateur par exemple. La (ou les) zone(s) de l'image pour laquelle (respectivement lesquelles) l'intensité lumineuse sera conservée à son niveau maximale est (respectivement sont) choisie(s) en fonction de critères définis et ne dépend(ent) pas du contenu de l'image.
L'association d'un motif aux images d'une séquence vidéo est statique. Dans le mode de réalisation de la figure 5, le contenu de l'image d'entrée est analysé pour déterminer quel est (ou quels sont) le (ou les) centre(s) d'intérêt de l'image. De manière avantageuse, l'analyse du contenu de l'image d'entrée 56 est basée sur la détection de mouvement, le ou les centres d'intérêt étant celui ou ceux pour lesquels les mouvements sont les plus importants. Selon une variante, les centres d'intérêt sont ceux pour lesquels la quantité de mouvement est supérieure à une valeur seuil (par exemple un déplacement de 15 pixels par image pour une vidéo en haute définition). Selon une autre variante, l'analyse de l'image est basée sur la détection des différences de couleur ou sur la détection des zones de haute fréquence. Selon une autre variante, l'analyse de l'image est basée sur la détection des zones de saillance de l'image, selon toute méthode connue de l'homme du métier. Le brevet européen EP1695288 déposé au nom de Thomson Licensing SA et publié le 30 juin 2005 décrit un procédé de détection des zones de saillance dans une image. La demande de brevet européen EP1836682 déposée au nom de Thomson Licensing SA et publiée le 13 juillet 2006 décrit un procédé de détection des zones de saillance dans une séquence vidéo. Les coefficients de pondération de valeur maximale, par exemple égal à 1, sont appliqué aux pixels appartenant aux zones correspondant au centre d'intérêt et les coefficients de pondération atténuant l'intensité lumineuse de l'image d'entrée, c'est-à-dire les coefficients inférieurs à 1, sont appliqués aux autres pixels de l'image en fonction du motif généré par le processeur 51 et des coefficients associés à la matrice représentative de ce motif. Selon ce mode de réalisation, un nouveau motif est généré pour chaque image de la séquence vidéo d'entrée en fonction du contenu de chaque image. L'association d'un motif à une image est dynamique. Selon une variante, un même motif est appliqué à plusieurs images consécutives d'une séquence vidéo, par exemple lorsque la différence de la quantité de mouvement entre des images consécutives temporellement est nulle ou proche de zéro. De manière avantageuse, la saillance de chaque pixel des images de la séquence vidéo est déterminée selon toute méthode connue de l'homme du métier et les coefficients de pondération calculés par la fonction stockée dans le processeur sont associés aux pixels de l'image en fonction de la saillance de chacun des pixels. L'atténuation de l'intensité lumineuse des pixels de l'image de sortie traitée par le motif vidéo est avantageusement proportionnelle à la saillance des pixels de l'image vidéo d'entrée.
La figure 6 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 2, 3 ou 5, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention.
Au cours d'une étape d'initialisation 60, les différents paramètres de l'unité de traitement sont mis à jour. Ensuite, au cours d'une étape 61, un motif vidéo est généré. Le motif vidéo est généré de manière à conserver une intensité lumineuse de valeur maximale dans une ou plusieurs zones de l'image sur laquelle aura été appliqué le motif vidéo et de manière à atténuer l'intensité lumineuse dans le reste de l'image. La zone pour laquelle l'intensité lumineuse conserve une valeur maximale correspond de manière avantageuse au centre de l'image, c'est-à-dire par exemple au pixel placé au centre de l'image ou également aux pixels répartis autour du pixel central de l'image.
La zone ainsi définie correspond par exemple à un pixel, à un cercle ayant pour rayon plusieurs pixels et centré sur le pixel du centre de l'image, à un carré ou à un rectangle de pixels centré sur le pixel du centre de l'image ou à toute forme géométrique centré sur le pixel du centre de l'image. Selon une variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de deux, par exemple chacune disposé sur un côté latéral de l'image, au milieu de l'image. Selon une autre variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de trois, avec par exemple une zone localisée au centre de l'image, les deux autres étant localisées sur les côtés latéraux de l'image au milieu de l'image. De manière avantageuse, le motif vidéo est représenté par une matrice à deux dimensions M*N comprenant M x N éléments. Selon une variante, le nombre d'éléments de la matrice représentative du motif vidéo comprend autant d'éléments qu'il y a de pixels dans les images à traités (par exemple 2073600 éléments pour une image de résolution haute définition 1920*1080). Le motif vidéo est alors de même dimension que les images à traiter. Selon une autre variante particulièrement avantageuse, le motif vidéo est de dimension (ou taille) inférieure à celle des images à traiter, c'est-à-dire qu'il comprend un nombre d'éléments inférieur au nombre de pixels contenus dans les images à traiter. La fonction utilisée pour générer le motif vidéo et les éléments qui 5 le composent est avantageusement de type gaussienne, avec par exemple pour formule : (x-x0)2+ y-y0)2 20 20 où K est un coefficient déterminé, par exemple 255 correspondant au niveau vidéo maximal, x et y correspondent respectivement à l'abscisse et 10 à l'ordonné d'un élément du motif vidéo, xo et yo correspondent respectivement aux coordonnées du centre de la zone dans laquelle l'intensité lumineuse est conservée à sa valeur maximale, 6X et a, correspondent respectivement à la variance en x et à la variance en y de la gaussienne. 15 Selon une variante, la fonction utilisée pour générer le motif vidéo est de type double linéaire. L'atténuation de l'intensité lumineuse appliquée aux pixels de l'image à traiter est d'autant plus importante que le pixel est éloigné du ou des pixels de la zone pour laquelle l'intensité lumineuse est maximale et est proportionnelle à l'éloignement de la zone d'intensité lumineuse maximale. 20 Puis, au cours d'une étape 62, le motif vidéo est appliqué à chaque image de la séquence vidéo, image par image. Le motif est appliqué à une image source en entrée de l'unité de traitement et l'image résultante présente une intensité lumineuse égale à celle de l'image source dans la ou les zones pour lesquelles le motif présente un niveau vidéo maximal et 25 présente une intensité lumineuse réduite dans le reste de l'image, la réduction de l'intensité lumineuse par rapport à l'image source étant lié aux valeurs des éléments compris dans le motif vidéo et appliqués aux pixels de l'image source.
30 La figure 7 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 5, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 70, les différents paramètres de l'unité de traitement sont mis à jour. 35 Ensuite, au cours d'une étape 71, un motif vidéo est généré, la génération du motif débutant par une décomposition du motif en blocs f (x, y) = K.exp( ) élémentaires, chaque bloc étant assigné à un groupe de pixels (par exemple, 50, 100, 500 ou 1000 pixels) de l'image à traiter. Une fonction de type gaussienne ou double linéaire telle que décrite en regard de la figure 6 génère alors des coefficients de pondération.
Puis, au cours d'une étape 72, le contenu de l'image est analysé. L'analyse est avantageusement basée sur la détection des mouvements. Selon une variante, l'analyse est basée sur la détection de zones de saillance, par exemple par la reconnaissance de visages ou de personnages. Au cours d'une étape 73, une ou plusieurs zones d'intérêt sont déterminées à partir du résultat de l'analyse du contenu de l'image. Si l'analyse est basée sur la détection de mouvement, les zones d'intérêt correspondent avantageusement aux zones pour lesquelles la quantité de mouvement détectée entre deux images successives est la plus importante. Selon une variante, les zones d'intérêt sont celles pour lesquelles la quantité de mouvement dépasse une valeur seuil. Si l'analyse est basée sur la détection de zones de saillance dans l'image à traiter, les zones d'intérêt correspondent aux zones de saillance détectées. Au cours d'une étape 74, les coefficients de pondérations générées par la fonction lors de l'étape 71, dits premiers coefficients de pondération, sont assignés aux blocs du motif en fonction des zones d'intérêt déterminées, c'est-à-dire que les premiers coefficients de pondération de valeur maximale sont assignés aux blocs correspondant à la position des zones d'intérêt. Ainsi, les zones d'intérêt correspondent aux zones de l'image à traiter pour laquelle l'intensité lumineuse restera maximale après traitement de l'image par le motif. Puis, au cours d'une étape 75, chaque premier coefficient de pondération est interpolé en une pluralité de deuxièmes coefficients de pondération, chaque deuxième coefficient de pondération étant alors assigné à un pixel de l'image appartenant au bloc de pixels de l'image associé au bloc du motif. Enfin, au cours d'une étape 76, le motif vidéo est appliqué à une image d'une séquence vidéo en entrée de l'unité de traitement, c'est-à-dire chaque deuxième coefficient de pondération interpolé est appliqué au pixel correspondant d'une image d'entrée ou image source. L'image résultante présente une intensité lumineuse égale à celle de l'image source dans la ou les zones d'intérêt pour lesquelles le motif présente un niveau vidéo maximal et présente une intensité lumineuse réduite dans le reste de l'image, la réduction de l'intensité lumineuse par rapport à l'image source étant fonction des coefficients de pondération interpolés et appliqués aux pixels de l'image source. Selon une variante, l'analyse de l'image et la détermination des zones d'intérêt précède l'étape de génération du motif. La fonction générant alors le motif, connaissant la ou les zones d'intérêt de l'image, génère les coefficients de pondération et les assigne directement aux blocs du motif correspondant aux zones d'intérêt et aux autres zones de l'image. Les étapes d'interpolation et d'application du motif vidéo suivent alors l'étape de génération du motif. Selon une autre variante, la fonction générant le motif génère une valeur de niveau vidéo pour chaque élément du motif (représenté par exemple par une matrice comprenant autant d'éléments qu'il y a de pixels dans l'image à traiter) à la place de coefficients de pondération associés à des blocs de l'image. Selon cette variante, le motif n'est pas décomposé en blocs élémentaires et il n'y a pas d'étape d'interpolation, l'application des éléments du motif à l'image d'entrée se faisant directement et de manière synchronisée à l'arrivée des données des pixels de l'image correspondant. De manière avantageuse, un nouveau motif est généré pour chaque image en fonction de l'analyse du contenu de l'image et de la détermination des zones d'intérêt.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment.
En particulier, l'invention n'est pas limitée à un procédé de traitement d'images mais s'étend à l'unité de traitement mettant en oeuvre un tel procédé et au dispositif d'affichage comprenant une unité de traitement mettant en oeuvre le procédé de traitement d'images. Selon un mode de réalisation avantageux, la mémoire, le multiplieur, l'unité d'interpolation et l'unité de normalisation sont par exemple remplacés par une table de correspondance LUT (de l'anglais Look-Up Table ) stockée dans une mémoire. La table de correspondance est adressée avec la position du pixel de l'image à traiter et avec les données RGB du pixel et fournit directement en sortie une valeur RGB du pixel, associée à la position du pixel et à sa valeur RGB d'entrée, à afficher dans l'image de sortie. Un tel mode de réalisation permet de simplifier la mise en oeuvre matérielle de l'unité de traitement et d'accélérer le traitement de l'image. Selon une variante et notamment dans le cas d'un panneau d'affichage plasma, à chaque cellule rouge, verte et bleu d'un pixel est associé un élément correcteur (coefficient de pondération ou niveau vidéo) d'un motif à appliquer à l'image. Ainsi, l'intensité lumineuse de chaque cellule de chaque pixel d'un panneau est pondérée par le motif, la réponse de chaque couleur (rouge, verte et bleu) à une diminution de l'intensité lumineuse étant différente. Ce mode de réalisation présente l'avantage d'affiner le rendu des couleurs tout en diminuant la consommation de courant. Selon une autre variante, les coefficients de pondération appliqués aux pixels des zones d'intérêt de l'image vidéo ont une valeur supérieure à 1 ce qui permet d'augmenter l'intensité lumineuse de l'image de sortie traitée au niveau de la ou des zones d'intérêt déterminées de l'image pour faire ressortir la ou les zones d'intérêt de l'image vidéo.
Claims (8)
- REVENDICATIONS1. Procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage, caractérisé en ce qu'il comprend une étape (62, 76) d'application d'un motif vidéo (11) à chaque image (10) de ladite séquence, ledit motif étant généré (61, 71) de manière à conserver une intensité lumineuse maximale dans au moins une zone de ladite image sur laquelle ledit motif est appliqué et à atténuer l'intensité lumineuse dans le reste de ladite image, ladite au moins une zone comprenant au moins un pixel.
- 2. Procédé selon la revendication 1, caractérisé en ce que l'atténuation de l'intensité lumineuse des pixels du reste de l'image est directement proportionnelle à l'éloignement desdits pixels par rapport à ladite au moins une zone de l'image.
- 3. Procédé selon l'une des revendications 1 à 2, caractérisé en ce que ledit motif vidéo est de même dimension que ladite image.
- 4. Procédé selon l'une des revendications 1 à 2, caractérisé en ce qu'il comprend les étapes de : - décomposition (71) dudit motif en une pluralité de blocs (41 à 4n), chacun desdits blocs étant associé à une pluralité de pixels (4001 à 400n) de ladite image vidéo ; - assignation (74) d'un premier coefficient de pondération à chacun desdits blocs.
- 5. Procédé selon la revendication 4, caractérisé en ce qu'il comprend une étape d'interpolation (75), pour chaque pixel associé à un bloc du motif, du premier coefficient de pondération en un deuxième coefficient de pondération assigné à un pixel associé audit bloc, pour chacun desdits blocs dudit motif.
- 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend les étapes de : - analyse (72) du contenu vidéo de ladite image vidéo ; 5 10détermination (73) d'au moins une zone d'intérêt de ladite image en fonction du résultat de l'analyse, ladite au moins une zone de l'image dans laquelle l'intensité lumineuse maximale est conservée étant ladite au moins une zone d'intérêt déterminée.
- 7. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ledit motif appliqué à chaque image est le même pour toutes les images de ladite séquence.
- 8. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que ledit motif appliqué à chaque image varie temporellement. 15
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0954109A FR2947081A1 (fr) | 2009-06-18 | 2009-06-18 | Procede de traitement d'image. |
PCT/EP2010/057967 WO2010145968A1 (fr) | 2009-06-18 | 2010-06-08 | Procédé de traitement d'images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0954109A FR2947081A1 (fr) | 2009-06-18 | 2009-06-18 | Procede de traitement d'image. |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2947081A1 true FR2947081A1 (fr) | 2010-12-24 |
Family
ID=41479053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0954109A Withdrawn FR2947081A1 (fr) | 2009-06-18 | 2009-06-18 | Procede de traitement d'image. |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2947081A1 (fr) |
WO (1) | WO2010145968A1 (fr) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1237138A1 (fr) * | 1999-09-17 | 2002-09-04 | Matsushita Electric Industrial Co., Ltd. | Dispositif afficheur d'images |
US20050253825A1 (en) * | 2004-05-11 | 2005-11-17 | Hitachi, Ltd. | Video display apparatus |
-
2009
- 2009-06-18 FR FR0954109A patent/FR2947081A1/fr not_active Withdrawn
-
2010
- 2010-06-08 WO PCT/EP2010/057967 patent/WO2010145968A1/fr active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1237138A1 (fr) * | 1999-09-17 | 2002-09-04 | Matsushita Electric Industrial Co., Ltd. | Dispositif afficheur d'images |
US20050253825A1 (en) * | 2004-05-11 | 2005-11-17 | Hitachi, Ltd. | Video display apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2010145968A1 (fr) | 2010-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11961431B2 (en) | Display processing circuitry | |
US8212741B2 (en) | Dual display device | |
RU2433477C1 (ru) | Расширение динамического диапазона изображений | |
WO2017152398A1 (fr) | Procédé et dispositif pour traiter une image de plage dynamique élevée | |
US9286658B2 (en) | Image enhancement | |
EP1523730A1 (fr) | Procede et systeme pour calculer une image transformee a partir d'une image numerique | |
DK2539880T3 (en) | Methods and systems to reduce energy consumption in double modulation displays | |
JP2013502602A (ja) | 表示パネルによる表示のための画像データ処理のための装置、表示装置、プログラムおよび方法 | |
US20200134793A1 (en) | Video image processing method and apparatus thereof, display device, computer readable storage medium and computer program product | |
Eilertsen | The high dynamic range imaging pipeline | |
CH690404A5 (fr) | Récepteur de communication de données d'image | |
EP3391331A1 (fr) | Procede de traitement d'une image numerique, dispositif, equipement terminal et programme d'ordinateur associes | |
FR2947081A1 (fr) | Procede de traitement d'image. | |
EP3821611A2 (fr) | Procede de visualisation d'elements graphiques issus d'un flux video composite encode | |
FR2966632A1 (fr) | Dispositif d'affichage matriciel de deux images fusionnees | |
FR3045903A1 (fr) | Procede de traitement d'une image numerique, dispositif, equipement terminal et programme d'ordinateur associes | |
FR2880718A1 (fr) | Procede et dispositif de reduction des artefacts d'une image numerique | |
FR2824660A1 (fr) | Systeme et procede d'affichage d'image | |
EP1542450B1 (fr) | Procédé et dispositif d'établissement de trames par diffusion d'erreurs de vecteurs issus de tables | |
US11625817B2 (en) | Pyramid-based tone mapping | |
US20220292344A1 (en) | Processing data in pixel-to-pixel neural networks | |
US20210304374A1 (en) | Tone mapping method | |
Feng et al. | P‐5.1: A Smart Timing Controller Adaptive to Any Panel with Any Interface | |
CN117793510A (zh) | 摄像机补光灯控制方法、装置、计算机设备以及存储介质 | |
WO2007083019A2 (fr) | Procede de traitement d'une image numerique, en particulier le traitement des zones de contour, et dispositif correspondant |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20110228 |