FR2947081A1 - Procede de traitement d'image. - Google Patents

Procede de traitement d'image. Download PDF

Info

Publication number
FR2947081A1
FR2947081A1 FR0954109A FR0954109A FR2947081A1 FR 2947081 A1 FR2947081 A1 FR 2947081A1 FR 0954109 A FR0954109 A FR 0954109A FR 0954109 A FR0954109 A FR 0954109A FR 2947081 A1 FR2947081 A1 FR 2947081A1
Authority
FR
France
Prior art keywords
image
pattern
video
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0954109A
Other languages
English (en)
Inventor
Hassane Guermoud
Jonathan Kervec
Emmanuel Jolly
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0954109A priority Critical patent/FR2947081A1/fr
Priority to PCT/EP2010/057967 priority patent/WO2010145968A1/fr
Publication of FR2947081A1 publication Critical patent/FR2947081A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • G06T5/94
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels

Abstract

L'invention concerne un procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage. Afin de réduire la consommation d'énergie du dispositif d'affichage, le procédé comprend une étape d'application d'un motif vidéo (11) à chaque image (10) de la séquence, le motif (11) étant généré de manière à conserver une intensité lumineuse maximale dans au moins une zone de l'image sur laquelle le motif est appliqué et à atténuer l'intensité lumineuse dans le reste de l'image, la au moins une zone comprenant au moins un pixel.

Description

PROCEDE DE TRAITEMENT D'IMAGE
1. Domaine de l'invention.
L'invention se rapporte au domaine du traitement d'images ou de vidéo pour affichage sur tout type de dispositifs d'affichage dont la source de lumière peut être modulée pixel par pixel (par exemple PDP (de l'anglais Plasma Display Panel ou en français Panneau d'affichage à plasma ) ou par région (par exemple écran LCD (de l'anglais Liquid Crystal Display ou en français Dispositif d'affichage à cristaux liquides ) à rétro-éclairage à LED (de l'anglais Light-Emitting Diode ou en français Diode électroluminescente ) ou dispositifs à rétroprojection).
2. Etat de l'art.
Selon l'état de la technique, de tels écrans plasma ou LCD sont connus pour être de gros consommateurs d'énergie, les écrans plasma étant réputés plus consommateurs d'énergie que les écrans LCD. A titre d'exemple, la puissance nominale d'un écran plasma dont la dimension de la diagonale est de 42 pouces est de l'ordre de 200 à 250 Watts alors que la puissance nominale d'un écran LCD à rétro-éclairage de puissance constante de même dimension est légèrement inférieure, par exemple de l'ordre de 150 Watts. Cependant, du fait des principes de fonctionnement qui sont différents pour un écran plasma et un écran LCD, la consommation d'énergie de chacun des écrans plasma n'est pas toujours plus importante que celle des écrans LCD. En effet, les écrans plasma ne nécessitent l'allumage que d'une seule cellule plasma pour illuminer un pixel. Dans la mesure où l'obscurité est obtenue en arrêtant l'arrivée de l'influx électrique dans les pixels du plasma, la reproduction de scènes sombres sur un écran plasma ne nécessite qu'une quantité relativement faible de courant électrique. En comparaison, les écrans LCD fonctionnent à énergie constante, que la scène à reproduire sur l'écran soit claire ou sombre, en raison du rétro-éclairage que ces écrans utilisent en permanence à pleine puissance, l'occultation de la lumière émise par rétro-éclairage étant assurée par les cristaux liquides de l'écran LCD pour les zones sombres de la scène à reproduire. Des études ont ainsi montré que la consommation électrique annuelle pour un écran plasma dont la dimension de la diagonale est de 37 pouces est de l'ordre de 220 à 290 kWh par an et que la consommation électrique annuelle pour un écran LCD de même diagonale est de l'ordre de 190 à 250 kWh par an. Par ailleurs, des recommandations de la commission européenne concernant le plafonnement de la consommation électrique des écrans plats (qu'ils soient de types plasma, LCD ou à rétroprojection) entreront en vigueur courant 2010. Pour satisfaire ces recommandations, la consommation électrique des écrans de l'état de l'art doit être réduite.
3. Résumé de l'invention.
L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur. Plus particulièrement, l'invention a notamment pour objectif de réduire la consommation électrique d'un dispositif d'affichage. L'invention concerne un procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage. Le procédé comprend une étape d'application d'un motif vidéo à chaque image de ladite séquence, le motif étant généré de manière à conserver une intensité lumineuse maximale dans au moins une zone de l'image sur laquelle le motif est appliqué et à atténuer l'intensité lumineuse dans le reste de l'image, la au moins une zone comprenant au moins un pixel. Selon une caractéristique particulière, l'atténuation de l'intensité lumineuse des pixels du reste de l'image est directement proportionnelle à l'éloignement des pixels par rapport à la au moins une zone de l'image. Avantageusement, le motif vidéo est de même dimension que ladite image. Selon une autre caractéristique, le procédé comprend les étapes de : - décomposition du motif en une pluralité de blocs, chacun des blocs étant associé à une pluralité de pixels de l'image vidéo ; - assignation d'un premier coefficient de pondération à chacun des blocs. De manière avantageuse, le procédé comprend une étape d'interpolation, pour chaque pixel associé à un bloc du motif, du premier coefficient de pondération en un deuxième coefficient de pondération assigné à un pixel associé au bloc, pour chacun des blocs du motif. Selon une caractéristique spécifique, le procédé comprend les étapes de : - analyse du contenu vidéo de l'image vidéo ; - détermination d'au moins une zone d'intérêt de l'image en fonction du résultat de l'analyse, la au moins une zone de l'image dans laquelle l'intensité lumineuse maximale est conservée étant la au moins une zone d'intérêt déterminée. Avantageusement, le motif appliqué à chaque image est le même pour toutes les images de la séquence. Selon une caractéristique particulière, le motif appliqué à chaque image varie temporellement.
4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : la figure 1 illustre l'application d'un motif vidéo à une image source dans une unité de traitement des figures 2, 3 et 5, selon un exemple de mise en oeuvre de l'invention ; les figures 2 et 3 illustrent schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon deux modes de réalisation particuliers de l'invention ; la figure 4 illustre une association de coefficients de pondération aux pixels de l'image traitée dans l'unité de traitement de la figure 3, selon un exemple de mise en oeuvre de l'invention ; la figure 5 illustre schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon un mode de réalisation particulier de l'invention ; la figure 6 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement des figures 2, 3 ou 5, selon un mode de réalisation particulier de l'invention ; et la figure 7 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement de la figure 5, selon un mode de réalisation particulier de l'invention.
35 5. Description détaillée de modes de réalisation de l'invention. 25 30 La figure 1 illustre le traitement d'une image vidéo 10 source à laquelle est appliqué un motif vidéo 11. Le résultat de l'application du motif 11 à l'image 10 est représenté par l'image vidéo 12 résultante. Le motif 11 possède les mêmes dimensions que l'image source à laquelle il est appliqué.
De manière avantageuse, le motif 11 est une matrice de dimension M*N (M lignes par N colonnes) avec un nombre d'éléments égal au nombre de pixels des images 10 et 12. A chaque élément de la matrice M*N représentative du motif 11 est ainsi associé un pixel de l'image source 10. Le motif 11 est déterminé de manière à ce que le niveau vidéo prenne une valeur maximale Max au centre du motif, par exemple égal à 255, et prenne une valeur minimale Min dans les coins du motif, c'est-à-dire dans les zones du motif les plus éloignées du centre du motif. La valeur minimale correspond à un pourcentage de la valeur maximale Max et est par exemple égale à 60, 70, 80 ou 90 % de la valeur maximale Max. En d'autres mots, l'élément placé au centre de la matrice représentative du motif 11 a comme valeur la valeur maximale Max de niveau vidéo, par exemple 255, et les éléments placés aux quatre coins de la matrice ont comme valeur la valeur minimale Min de niveau vidéo. Le niveau vidéo associé à chacun des éléments de la matrice représentative du motif 11 est par exemple obtenu par une fonction de type gaussienne ou double linéaire représentée par le multiplicateur 13. Selon une variante, les éléments de la matrice M*N représentative du motif 11 prennent comme valeur des coefficients de pondération. L'élément placé au centre de la matrice prend avantageusement comme valeur un coefficient de pondération maximal égal à 1 et les éléments les plus distants de l'élément du centre, c'est-à-dire les éléments positionnés dans les coins de la matrice, prennent comme valeur un même coefficient de pondération minimal correspondant à x % du coefficient de pondération maximale, X ayant par exemple pour valeur 60, 70, 80 ou 90 %. De manière avantageuse, le centre du motif ayant pour valeur la valeur maximale de niveau vidéo ou le coefficient de pondération maximale correspond à un élément de la matrice M*N, à savoir l'élément placé à l'intersection de la ligne du milieu et de la colonne du milieu. Selon une variante, le centre du motif correspond à un ensemble d'éléments de la matrice, par exemple un cercle centré sur l'élément du centre de la matrice ayant pour rayon R éléments (R étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un carré centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments (L étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un rectangle centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments et de largeur I éléments, ou tout autre forme géométrique centré sur l'élément central de la matrice.
La figure 2 illustre schématiquement un premier exemple de réalisation matérielle d'une unité de traitement 2 d'un dispositif d'affichage. L'unité de traitement 2 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 2 comprend les éléments suivants : - un processeur 21 ; - une mémoire 23 ; - une unité de synchronisation 22 ; - un multiplieur 25 ; - une unité de normalisation 24 ; - des bus de données 200, 201, 202, 203.
Le processeur 21 contient une fonction permettant de générer le motif en fonction de critères entrés via par exemple une interface une interface MMI (ou interface homme/machine de l'anglais Man Machine Interface ) non représentée. Les critères correspondent par exemple à la zone du motif pour laquelle le niveau vidéo est maximal, à la valeur maximale voulue, à la valeur minimale correspondant à un pourcentage X de la valeur maximale. Le processeur 21 génère un motif représenté par une matrice comprenant autant d'éléments que de pixels contenus dans l'image à traiter. Si l'image à traiter 26 est une image comprenant M lignes et N colonnes, la matrice représentant le motif comprendra également M lignes et N colonnes d'éléments. La matrice générée est transmise à la mémoire (par exemple une mémoire de type RAM (de l'anglais Random Access Memory ou en français mémoire vive ) ou de type flash) 23 via un bus 200 reliant le processeur 21 à la mémoire 23. Le contenu de la mémoire 23 est appliqué au signal d'entrée RGB 26 représentatif d'une séquence vidéo comprenant plusieurs images par l'intermédiaire d'un multiplicateur 25. La mémoire 23 et le multiplicateur 25 sont reliés entre eux via un bus de données 16 bits. Le signal d'entrée 26 est transmis au multiplicateur 25 via un bus de données de par exemple 32 bits (le nombre de bits à transmettre en parallèle étant de 30 bits effectifs, chaque composante RGB (de l'anglais Red, Green, Blue ou en français Rouge, vert bleu ) étant codée sur 10 bits). Le bus 201 est dimensionné à 16 bits puisque un seul élément codé sur 10 bits de la matrice contenue dans la mémoire 23 est à appliquer aux trois composantes RGB définissant chaque pixel de l'image d'entrée 26. Le bus 201 devant donc être capable de transmettre 10 bits en parallèle, un bus 16 bits est disposé entre la mémoire 23 et le multiplicateur 25. L'application d'un élément de la matrice contenue dans la mémoire 23 au pixel associé de l'image, les coordonnées de l'élément dans la matrice étant identiques aux coordonnées du pixel associés dans l'image d'entrée 26, est synchronisée par une unité de synchronisation 22 recevant en entrée des signaux de synchronisation verticale (Vsync), de synchronisation horizontale (Hsync) et un signal (RGB_en) correspondant aux pixels actifs de l'image source 26.
Une unité de normalisation 24 est placée en sortie du multiplicateur 25 pour ramener sur 30 bits le signal issue de la multiplication du signal d'entrée RGB 26 codé sur 30 bits et du signal représentatif des éléments du motif codé sur 10 bits, le signal en sortie de l'unité de normalisation 24 étant le signal de sortie RGB_traité 27 représentatif des images vidéo à afficher sur le dispositif d'affichage : la dynamique du signal de sortie RGB_traité 27 doit être identique à la dynamique du signal d'entrée RGB 26. L'image de sortie 27 correspond à l'image d'entrée 26 à laquelle a été appliqué un motif 11. Dans le cas où le motif présente un niveau vidéo maximal en son centre et un niveau vidéo minimal dans les zones les plus éloignées du centre du motif, l'image de sortie 27 aura une intensité lumineuse identique à celle de l'image d'entrée au centre de l'image et une intensité lumineuse réduite dans les zones de l'image distantes du centre de l'image. La diminution de l'intensité lumineuse des pixels de l'image décroit de manière progressive du centre de l'image vers la périphérie de l'image selon la fonction utilisée (par exemple fonction de type gaussienne ou fonction de type interpolation bilinéaire) pour générer le motif 11 dans le processeur 21. L'énergie nécessaire pour afficher l'image de sortie est donc inférieure à l'énergie qui serait nécessaire pour afficher l'image d'entrée non traitée par l'unité de traitement 2.
Selon une variante, la mémoire 23 est disposée à l'extérieur de l'unité de traitement 2. En effet, la mémoire 23 contient autant d'éléments codés sur 10 bits qu'il y a de pixels dans l'image d'entrée 26. Pour une image de résolution 1920x1080 (contenant donc 2073600 pixels), la mémoire doit avoir une capacité de stockage d'environ 2,6 Mo. Une mémoire RAM ou flash avec une telle capacité de stockage n'est généralement pas intégrée dans une unité de traitement 2 de type FGPA ou ASIC.
La figure 3 illustre schématiquement un deuxième exemple de réalisation matérielle d'une unité de traitement 3 d'un dispositif d'affichage. L'unité de traitement 3 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 3 comprend les éléments suivants : un processeur 31 ; - une mémoire 33 ; - une unité de synchronisation 32 ; - un multiplieur 35 ; - une unité de normalisation 34 ; - une unité d'interpolation 38 ; et - des bus de données 300, 301, 302, 303. Le processeur 31, la mémoire 33, l'unité de synchronisation 32, le multiplieur 35, l'unité de normalisation 34 et les bus de données 300 à 303 assure les mêmes fonctions que respectivement le processeur 21, la 25 mémoire 23, l'unité de synchronisation 22, le multiplieur 25, l'unité de normalisation 24 et les bus de données 200 à 203 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le détail ici. Le processeur 31 contient une fonction permettant de générer un motif en fonction de critères entrés via par exemple une interface MMI. La fonction assure ici la 30 génération de coefficients de pondérations qui seront appliqués à l'image d'entrée pour conserver l'intensité lumineuse à son niveau d'entrée dans une ou plusieurs zones de l'image et pour diminuer l'intensité lumineuse de l'image d'entrée dans le reste de l'image. Contrairement à la fonction décrite en regard de la figure 2, la fonction décrite ici génère des coefficients de 35 pondération qui seront chacun associés à plusieurs pixels de l'image d'entrée, c'est-à-dire à des blocs de pixels contenant chacun par exemple 50, 100, 500 ou 1000 pixels. Le nombre de coefficients générés par le 20 processeur 31 et stockés dans la mémoire 33 est ainsi beaucoup moins important que le nombre d'éléments (niveau vidéo ou coefficient de pondération) générés par la fonction contenue dans le processeur 21. Un tel exemple de mise en oeuvre offre l'avantage de réduire les besoins en mémoire. La mémoire 33 est ainsi de manière avantageuse de taille réduite et intégrée à l'unité de traitement 33. Avant d'être appliqués aux pixels de l'image d'entrée 36 par l'intermédiaire du multiplieur 35, les coefficients de pondérations stockés dans la mémoire 33 sont envoyés dans une unité d'interpolation 38 disposée entre la mémoire 33 et le multiplieur 35. La fonction assurée par l'unité d'interpolation 38 est d'interpoler la valeur d'un coefficient de pondération associé à un bloc de pixels de l'image d'entrée en autant de valeurs de coefficients de pondération qu'il y a de pixels dans le bloc associé. On a en sortie de l'unité d'interpolation 38 un coefficient de pondération associé à un pixel de l'image. Ce processus est détaillé en figure 4. La figure 4 illustre un processus d'interpolation d'un coefficient de pondération associé à un bloc de pixels d'une image d'entrée en plusieurs coefficients de pondération chacun associé à un pixel du bloc de pixels, selon un exemple de mise en oeuvre de l'invention. Le motif 4 généré par le processeur 31 est décomposé en une pluralité de blocs 41, 42, 43, 44, ..., 4n et un coefficient de pondération Cl, C2, C3, C4, ..., Cn est respectivement associé à chacun des blocs 41 à 4n du motif 4. Chaque bloc 41 à 4n du motif 4 est également respectivement associé à un bloc de pixels 401, 402, 403, 404, ..., 40n de l'image d'entrée. Avant d'être appliqué au premier bloc de pixels de l'image d'entrée, le premier coefficient Cl associé à ce bloc est transmis à l'unité d'interpolation 38 qui interpole la valeur du premier coefficient de pondération Cl en autant de valeurs de coefficient de pondération Cl', C2', C3', C4', ..., Cn' qu'il y a de pixels dans le premier bloc de pixels de l'image d'entrée, selon toutes méthodes connues de l'homme du métier, par exemple par interpolation bilinéaire. Chaque coefficient de pondération interpolé Cl' à Cn' est associé à un pixel Pix1 4001, Pix2 4002, Pix3 4003, pix4 4004, ..., Pixn 400n. Le processus décrit en regard du premier bloc 41 associé à un bloc de pixels 401 est réitéré pour chacun des blocs 41 à 4n du motif 4. Chaque coefficient interpolé Cl' à Cn' de chacun des blocs est ensuite appliqué au pixel de l'image d'entrée qui lui est associé par l'intermédiaire du multiplieur 35 pour pondérer l'intensité lumineuse de l'image d'entrée 26 et générer une image de sortie 27 dont l'intensité lumineuse est identique à celle de l'image d'entrée 26 dans la ou les zones ou le coefficient de pondération est égal à 1 et dont l'intensité lumineuse est inférieur à celle de l'image d'entrée 26 dans les zones de l'images où le coefficient de pondération appliqué est inférieur à 1. La diminution de l'intensité lumineuse dans une partie de l'image de sortie permet de diminuer la consommation de courant nécessaire au rendu de l'image vidéo traitée. Le même processus est réitéré pour chaque image d'une séquence vidéo à afficher sur le dispositif d'affichage.
La figure 5 illustre schématiquement un troisième exemple de réalisation matérielle d'une unité de traitement 5 d'un dispositif d'affichage. L'unité de traitement 5 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais Field-Programmable Gate Array ou en français Réseau de portes programmables ) par exemple, ASIC (de l'anglais Application-Specific Integrated Circuit ou en français Circuit intégré à application spécifique ) ou d'un DSP (de l'anglais Digital Signal Processor ou en français Processeur de signal numérique ). L'unité de traitement 5 comprend les éléments suivants : un processeur 51 ; - une mémoire 53 ; - une unité de synchronisation 52 ; - un multiplieur 55 ; - une unité de normalisation 54 ; - une unité d'interpolation 58 ; - un analyseur d'image 59 ; et - des bus de données 500, 501, 502, 503. Le processeur 51, la mémoire 53, l'unité de synchronisation 52, le multiplieur 55, l'unité de normalisation 54 et les bus de données 500 à 503 assure les mêmes fonctions que respectivement le processeur 21, la 30 mémoire 23, l'unité de synchronisation 22, le multiplieur 25, l'unité de normalisation 24 et les bus de données 200 à 203 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le détail ici. L'unité d'interpolation 58 assure les mêmes fonctions que l'unité d'interpolation 38 décrite en regard des figures 3 et 4 et ne sera pas décrite à nouveau dans le 35 détail ici. De manière avantageuse, le motif appliqué aux images d'entrées 26, 36 dans les exemples de réalisation des figures 2 et 3 est identique pour toutes les images d'une séquence vidéo et est prédéfini en fonction de 25 critères choisis par un utilisateur par exemple. La (ou les) zone(s) de l'image pour laquelle (respectivement lesquelles) l'intensité lumineuse sera conservée à son niveau maximale est (respectivement sont) choisie(s) en fonction de critères définis et ne dépend(ent) pas du contenu de l'image.
L'association d'un motif aux images d'une séquence vidéo est statique. Dans le mode de réalisation de la figure 5, le contenu de l'image d'entrée est analysé pour déterminer quel est (ou quels sont) le (ou les) centre(s) d'intérêt de l'image. De manière avantageuse, l'analyse du contenu de l'image d'entrée 56 est basée sur la détection de mouvement, le ou les centres d'intérêt étant celui ou ceux pour lesquels les mouvements sont les plus importants. Selon une variante, les centres d'intérêt sont ceux pour lesquels la quantité de mouvement est supérieure à une valeur seuil (par exemple un déplacement de 15 pixels par image pour une vidéo en haute définition). Selon une autre variante, l'analyse de l'image est basée sur la détection des différences de couleur ou sur la détection des zones de haute fréquence. Selon une autre variante, l'analyse de l'image est basée sur la détection des zones de saillance de l'image, selon toute méthode connue de l'homme du métier. Le brevet européen EP1695288 déposé au nom de Thomson Licensing SA et publié le 30 juin 2005 décrit un procédé de détection des zones de saillance dans une image. La demande de brevet européen EP1836682 déposée au nom de Thomson Licensing SA et publiée le 13 juillet 2006 décrit un procédé de détection des zones de saillance dans une séquence vidéo. Les coefficients de pondération de valeur maximale, par exemple égal à 1, sont appliqué aux pixels appartenant aux zones correspondant au centre d'intérêt et les coefficients de pondération atténuant l'intensité lumineuse de l'image d'entrée, c'est-à-dire les coefficients inférieurs à 1, sont appliqués aux autres pixels de l'image en fonction du motif généré par le processeur 51 et des coefficients associés à la matrice représentative de ce motif. Selon ce mode de réalisation, un nouveau motif est généré pour chaque image de la séquence vidéo d'entrée en fonction du contenu de chaque image. L'association d'un motif à une image est dynamique. Selon une variante, un même motif est appliqué à plusieurs images consécutives d'une séquence vidéo, par exemple lorsque la différence de la quantité de mouvement entre des images consécutives temporellement est nulle ou proche de zéro. De manière avantageuse, la saillance de chaque pixel des images de la séquence vidéo est déterminée selon toute méthode connue de l'homme du métier et les coefficients de pondération calculés par la fonction stockée dans le processeur sont associés aux pixels de l'image en fonction de la saillance de chacun des pixels. L'atténuation de l'intensité lumineuse des pixels de l'image de sortie traitée par le motif vidéo est avantageusement proportionnelle à la saillance des pixels de l'image vidéo d'entrée.
La figure 6 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 2, 3 ou 5, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention.
Au cours d'une étape d'initialisation 60, les différents paramètres de l'unité de traitement sont mis à jour. Ensuite, au cours d'une étape 61, un motif vidéo est généré. Le motif vidéo est généré de manière à conserver une intensité lumineuse de valeur maximale dans une ou plusieurs zones de l'image sur laquelle aura été appliqué le motif vidéo et de manière à atténuer l'intensité lumineuse dans le reste de l'image. La zone pour laquelle l'intensité lumineuse conserve une valeur maximale correspond de manière avantageuse au centre de l'image, c'est-à-dire par exemple au pixel placé au centre de l'image ou également aux pixels répartis autour du pixel central de l'image.
La zone ainsi définie correspond par exemple à un pixel, à un cercle ayant pour rayon plusieurs pixels et centré sur le pixel du centre de l'image, à un carré ou à un rectangle de pixels centré sur le pixel du centre de l'image ou à toute forme géométrique centré sur le pixel du centre de l'image. Selon une variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de deux, par exemple chacune disposé sur un côté latéral de l'image, au milieu de l'image. Selon une autre variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de trois, avec par exemple une zone localisée au centre de l'image, les deux autres étant localisées sur les côtés latéraux de l'image au milieu de l'image. De manière avantageuse, le motif vidéo est représenté par une matrice à deux dimensions M*N comprenant M x N éléments. Selon une variante, le nombre d'éléments de la matrice représentative du motif vidéo comprend autant d'éléments qu'il y a de pixels dans les images à traités (par exemple 2073600 éléments pour une image de résolution haute définition 1920*1080). Le motif vidéo est alors de même dimension que les images à traiter. Selon une autre variante particulièrement avantageuse, le motif vidéo est de dimension (ou taille) inférieure à celle des images à traiter, c'est-à-dire qu'il comprend un nombre d'éléments inférieur au nombre de pixels contenus dans les images à traiter. La fonction utilisée pour générer le motif vidéo et les éléments qui 5 le composent est avantageusement de type gaussienne, avec par exemple pour formule : (x-x0)2+ y-y0)2 20 20 où K est un coefficient déterminé, par exemple 255 correspondant au niveau vidéo maximal, x et y correspondent respectivement à l'abscisse et 10 à l'ordonné d'un élément du motif vidéo, xo et yo correspondent respectivement aux coordonnées du centre de la zone dans laquelle l'intensité lumineuse est conservée à sa valeur maximale, 6X et a, correspondent respectivement à la variance en x et à la variance en y de la gaussienne. 15 Selon une variante, la fonction utilisée pour générer le motif vidéo est de type double linéaire. L'atténuation de l'intensité lumineuse appliquée aux pixels de l'image à traiter est d'autant plus importante que le pixel est éloigné du ou des pixels de la zone pour laquelle l'intensité lumineuse est maximale et est proportionnelle à l'éloignement de la zone d'intensité lumineuse maximale. 20 Puis, au cours d'une étape 62, le motif vidéo est appliqué à chaque image de la séquence vidéo, image par image. Le motif est appliqué à une image source en entrée de l'unité de traitement et l'image résultante présente une intensité lumineuse égale à celle de l'image source dans la ou les zones pour lesquelles le motif présente un niveau vidéo maximal et 25 présente une intensité lumineuse réduite dans le reste de l'image, la réduction de l'intensité lumineuse par rapport à l'image source étant lié aux valeurs des éléments compris dans le motif vidéo et appliqués aux pixels de l'image source.
30 La figure 7 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 5, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 70, les différents paramètres de l'unité de traitement sont mis à jour. 35 Ensuite, au cours d'une étape 71, un motif vidéo est généré, la génération du motif débutant par une décomposition du motif en blocs f (x, y) = K.exp( ) élémentaires, chaque bloc étant assigné à un groupe de pixels (par exemple, 50, 100, 500 ou 1000 pixels) de l'image à traiter. Une fonction de type gaussienne ou double linéaire telle que décrite en regard de la figure 6 génère alors des coefficients de pondération.
Puis, au cours d'une étape 72, le contenu de l'image est analysé. L'analyse est avantageusement basée sur la détection des mouvements. Selon une variante, l'analyse est basée sur la détection de zones de saillance, par exemple par la reconnaissance de visages ou de personnages. Au cours d'une étape 73, une ou plusieurs zones d'intérêt sont déterminées à partir du résultat de l'analyse du contenu de l'image. Si l'analyse est basée sur la détection de mouvement, les zones d'intérêt correspondent avantageusement aux zones pour lesquelles la quantité de mouvement détectée entre deux images successives est la plus importante. Selon une variante, les zones d'intérêt sont celles pour lesquelles la quantité de mouvement dépasse une valeur seuil. Si l'analyse est basée sur la détection de zones de saillance dans l'image à traiter, les zones d'intérêt correspondent aux zones de saillance détectées. Au cours d'une étape 74, les coefficients de pondérations générées par la fonction lors de l'étape 71, dits premiers coefficients de pondération, sont assignés aux blocs du motif en fonction des zones d'intérêt déterminées, c'est-à-dire que les premiers coefficients de pondération de valeur maximale sont assignés aux blocs correspondant à la position des zones d'intérêt. Ainsi, les zones d'intérêt correspondent aux zones de l'image à traiter pour laquelle l'intensité lumineuse restera maximale après traitement de l'image par le motif. Puis, au cours d'une étape 75, chaque premier coefficient de pondération est interpolé en une pluralité de deuxièmes coefficients de pondération, chaque deuxième coefficient de pondération étant alors assigné à un pixel de l'image appartenant au bloc de pixels de l'image associé au bloc du motif. Enfin, au cours d'une étape 76, le motif vidéo est appliqué à une image d'une séquence vidéo en entrée de l'unité de traitement, c'est-à-dire chaque deuxième coefficient de pondération interpolé est appliqué au pixel correspondant d'une image d'entrée ou image source. L'image résultante présente une intensité lumineuse égale à celle de l'image source dans la ou les zones d'intérêt pour lesquelles le motif présente un niveau vidéo maximal et présente une intensité lumineuse réduite dans le reste de l'image, la réduction de l'intensité lumineuse par rapport à l'image source étant fonction des coefficients de pondération interpolés et appliqués aux pixels de l'image source. Selon une variante, l'analyse de l'image et la détermination des zones d'intérêt précède l'étape de génération du motif. La fonction générant alors le motif, connaissant la ou les zones d'intérêt de l'image, génère les coefficients de pondération et les assigne directement aux blocs du motif correspondant aux zones d'intérêt et aux autres zones de l'image. Les étapes d'interpolation et d'application du motif vidéo suivent alors l'étape de génération du motif. Selon une autre variante, la fonction générant le motif génère une valeur de niveau vidéo pour chaque élément du motif (représenté par exemple par une matrice comprenant autant d'éléments qu'il y a de pixels dans l'image à traiter) à la place de coefficients de pondération associés à des blocs de l'image. Selon cette variante, le motif n'est pas décomposé en blocs élémentaires et il n'y a pas d'étape d'interpolation, l'application des éléments du motif à l'image d'entrée se faisant directement et de manière synchronisée à l'arrivée des données des pixels de l'image correspondant. De manière avantageuse, un nouveau motif est généré pour chaque image en fonction de l'analyse du contenu de l'image et de la détermination des zones d'intérêt.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment.
En particulier, l'invention n'est pas limitée à un procédé de traitement d'images mais s'étend à l'unité de traitement mettant en oeuvre un tel procédé et au dispositif d'affichage comprenant une unité de traitement mettant en oeuvre le procédé de traitement d'images. Selon un mode de réalisation avantageux, la mémoire, le multiplieur, l'unité d'interpolation et l'unité de normalisation sont par exemple remplacés par une table de correspondance LUT (de l'anglais Look-Up Table ) stockée dans une mémoire. La table de correspondance est adressée avec la position du pixel de l'image à traiter et avec les données RGB du pixel et fournit directement en sortie une valeur RGB du pixel, associée à la position du pixel et à sa valeur RGB d'entrée, à afficher dans l'image de sortie. Un tel mode de réalisation permet de simplifier la mise en oeuvre matérielle de l'unité de traitement et d'accélérer le traitement de l'image. Selon une variante et notamment dans le cas d'un panneau d'affichage plasma, à chaque cellule rouge, verte et bleu d'un pixel est associé un élément correcteur (coefficient de pondération ou niveau vidéo) d'un motif à appliquer à l'image. Ainsi, l'intensité lumineuse de chaque cellule de chaque pixel d'un panneau est pondérée par le motif, la réponse de chaque couleur (rouge, verte et bleu) à une diminution de l'intensité lumineuse étant différente. Ce mode de réalisation présente l'avantage d'affiner le rendu des couleurs tout en diminuant la consommation de courant. Selon une autre variante, les coefficients de pondération appliqués aux pixels des zones d'intérêt de l'image vidéo ont une valeur supérieure à 1 ce qui permet d'augmenter l'intensité lumineuse de l'image de sortie traitée au niveau de la ou des zones d'intérêt déterminées de l'image pour faire ressortir la ou les zones d'intérêt de l'image vidéo.

Claims (8)

  1. REVENDICATIONS1. Procédé de traitement d'une séquence d'images vidéo pour un dispositif d'affichage, caractérisé en ce qu'il comprend une étape (62, 76) d'application d'un motif vidéo (11) à chaque image (10) de ladite séquence, ledit motif étant généré (61, 71) de manière à conserver une intensité lumineuse maximale dans au moins une zone de ladite image sur laquelle ledit motif est appliqué et à atténuer l'intensité lumineuse dans le reste de ladite image, ladite au moins une zone comprenant au moins un pixel.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que l'atténuation de l'intensité lumineuse des pixels du reste de l'image est directement proportionnelle à l'éloignement desdits pixels par rapport à ladite au moins une zone de l'image.
  3. 3. Procédé selon l'une des revendications 1 à 2, caractérisé en ce que ledit motif vidéo est de même dimension que ladite image.
  4. 4. Procédé selon l'une des revendications 1 à 2, caractérisé en ce qu'il comprend les étapes de : - décomposition (71) dudit motif en une pluralité de blocs (41 à 4n), chacun desdits blocs étant associé à une pluralité de pixels (4001 à 400n) de ladite image vidéo ; - assignation (74) d'un premier coefficient de pondération à chacun desdits blocs.
  5. 5. Procédé selon la revendication 4, caractérisé en ce qu'il comprend une étape d'interpolation (75), pour chaque pixel associé à un bloc du motif, du premier coefficient de pondération en un deuxième coefficient de pondération assigné à un pixel associé audit bloc, pour chacun desdits blocs dudit motif.
  6. 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend les étapes de : - analyse (72) du contenu vidéo de ladite image vidéo ; 5 10détermination (73) d'au moins une zone d'intérêt de ladite image en fonction du résultat de l'analyse, ladite au moins une zone de l'image dans laquelle l'intensité lumineuse maximale est conservée étant ladite au moins une zone d'intérêt déterminée.
  7. 7. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ledit motif appliqué à chaque image est le même pour toutes les images de ladite séquence.
  8. 8. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que ledit motif appliqué à chaque image varie temporellement. 15
FR0954109A 2009-06-18 2009-06-18 Procede de traitement d'image. Withdrawn FR2947081A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0954109A FR2947081A1 (fr) 2009-06-18 2009-06-18 Procede de traitement d'image.
PCT/EP2010/057967 WO2010145968A1 (fr) 2009-06-18 2010-06-08 Procédé de traitement d'images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0954109A FR2947081A1 (fr) 2009-06-18 2009-06-18 Procede de traitement d'image.

Publications (1)

Publication Number Publication Date
FR2947081A1 true FR2947081A1 (fr) 2010-12-24

Family

ID=41479053

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0954109A Withdrawn FR2947081A1 (fr) 2009-06-18 2009-06-18 Procede de traitement d'image.

Country Status (2)

Country Link
FR (1) FR2947081A1 (fr)
WO (1) WO2010145968A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1237138A1 (fr) * 1999-09-17 2002-09-04 Matsushita Electric Industrial Co., Ltd. Dispositif afficheur d'images
US20050253825A1 (en) * 2004-05-11 2005-11-17 Hitachi, Ltd. Video display apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1237138A1 (fr) * 1999-09-17 2002-09-04 Matsushita Electric Industrial Co., Ltd. Dispositif afficheur d'images
US20050253825A1 (en) * 2004-05-11 2005-11-17 Hitachi, Ltd. Video display apparatus

Also Published As

Publication number Publication date
WO2010145968A1 (fr) 2010-12-23

Similar Documents

Publication Publication Date Title
US11961431B2 (en) Display processing circuitry
US8212741B2 (en) Dual display device
RU2433477C1 (ru) Расширение динамического диапазона изображений
WO2017152398A1 (fr) Procédé et dispositif pour traiter une image de plage dynamique élevée
US9286658B2 (en) Image enhancement
EP1523730A1 (fr) Procede et systeme pour calculer une image transformee a partir d'une image numerique
DK2539880T3 (en) Methods and systems to reduce energy consumption in double modulation displays
JP2013502602A (ja) 表示パネルによる表示のための画像データ処理のための装置、表示装置、プログラムおよび方法
US20200134793A1 (en) Video image processing method and apparatus thereof, display device, computer readable storage medium and computer program product
Eilertsen The high dynamic range imaging pipeline
CH690404A5 (fr) Récepteur de communication de données d'image
EP3391331A1 (fr) Procede de traitement d'une image numerique, dispositif, equipement terminal et programme d'ordinateur associes
FR2947081A1 (fr) Procede de traitement d'image.
EP3821611A2 (fr) Procede de visualisation d'elements graphiques issus d'un flux video composite encode
FR2966632A1 (fr) Dispositif d'affichage matriciel de deux images fusionnees
FR3045903A1 (fr) Procede de traitement d'une image numerique, dispositif, equipement terminal et programme d'ordinateur associes
FR2880718A1 (fr) Procede et dispositif de reduction des artefacts d'une image numerique
FR2824660A1 (fr) Systeme et procede d'affichage d'image
EP1542450B1 (fr) Procédé et dispositif d'établissement de trames par diffusion d'erreurs de vecteurs issus de tables
US11625817B2 (en) Pyramid-based tone mapping
US20220292344A1 (en) Processing data in pixel-to-pixel neural networks
US20210304374A1 (en) Tone mapping method
Feng et al. P‐5.1: A Smart Timing Controller Adaptive to Any Panel with Any Interface
CN117793510A (zh) 摄像机补光灯控制方法、装置、计算机设备以及存储介质
WO2007083019A2 (fr) Procede de traitement d'une image numerique, en particulier le traitement des zones de contour, et dispositif correspondant

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20110228