FR2950182A1 - Procede de traitement d'image - Google Patents

Procede de traitement d'image Download PDF

Info

Publication number
FR2950182A1
FR2950182A1 FR0956350A FR0956350A FR2950182A1 FR 2950182 A1 FR2950182 A1 FR 2950182A1 FR 0956350 A FR0956350 A FR 0956350A FR 0956350 A FR0956350 A FR 0956350A FR 2950182 A1 FR2950182 A1 FR 2950182A1
Authority
FR
France
Prior art keywords
video
pattern
image
video pattern
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0956350A
Other languages
English (en)
Inventor
Hassane Guermoud
Jonathan Kervec
Emmanuel Jolly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0956350A priority Critical patent/FR2950182A1/fr
Priority to PCT/EP2010/063385 priority patent/WO2011032913A1/fr
Priority to US13/496,479 priority patent/US8803904B2/en
Publication of FR2950182A1 publication Critical patent/FR2950182A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

L'invention concerne un procédé de traitement d'une image vidéo pour un dispositif d'affichage. Afin de réduire la visibilité de zones de transitions dans l'image traitée, le procédé comprend une étape (82) d'application d'un troisième motif vidéo à au moins une partie de l'image, le troisième motif vidéo résultant de l'entrelacement spatial (81) d'un premier motif vidéo et d'au moins un deuxième motif vidéo selon un modèle déterminé.

Description

PROCEDE DE TRAITEMENT D'IMAGE
1. Domaine de l'invention.
L'invention se rapporte au domaine du traitement d'images ou de vidéo pour affichage sur tout type de dispositifs d'affichage dont la source de lumière peut être modulée pixel par pixel (par exemple PDP (de l'anglais « Plasma Display Panel » ou en français « Panneau d'affichage à plasma ») ou par région (par exemple écran LCD (de l'anglais « Liquid Crystal Display » ou en français « Dispositif d'affichage à cristaux liquides ») à rétro-éclairage à LED (de l'anglais « Light-Emitting Diode » ou en français « Diode électroluminescente ») ou dispositifs à rétroprojection).
2. Etat de l'art.
Selon l'état de la technique, de tels écrans plasma ou LCD sont connus pour être de gros consommateurs d'énergie, les écrans plasma étant réputés plus consommateurs d'énergie que les écrans LCD. A titre d'exemple, la puissance nominale d'un écran plasma dont la dimension de la diagonale est de 42 pouces est de l'ordre de 200 à 250 Watts alors que la puissance nominale d'un écran LCD à rétro-éclairage de puissance constante de même dimension est légèrement inférieure, par exemple de l'ordre de 150 Watts. Pour satisfaire les recommandations de la commission européenne concernant le plafonnement de la consommation électrique des écrans plats (qu'ils soient de types plasma, LCD ou à rétroprojection) qui entreront en vigueur courant 2010, la consommation électrique des écrans de l'état de l'art doit être réduite. La demande de brevet français FR0954109 déposée le 18 juin 2009 au nom de Thomson Licensing propose de réduire la consommation électrique des écrans de l'état de l'art en appliquant un motif vidéo à une séquence vidéo de manière à conserver une intensité lumineuse maximale dans la ou les zones d'intérêt des images de la séquence vidéo tout en diminuant l'intensité lumineuse au fur et à mesure que l'on s'éloigne de la ou les zones d'intérêt dans les images de la séquence vidéo. La figure 1 illustre l'application d'un motif vidéo à une image source selon la demande de brevet FR0954109. Un motif vidéo 11 correspondant par exemple à une matrice de M lignes par N colonnes (M et N correspondant par exemple respectivement aux nombres de lignes et de colonnes de l'image source) est appliqué à une image source 10. Le motif 11 est déterminé de manière à ce que le niveau vidéo prenne une valeur maximale Max au centre du motif, par exemple égal à 255, et prenne une valeur minimale Min dans les coins du motif, c'est-à-dire dans les zones du motif les plus éloignées du centre du motif. La valeur minimale correspond par exemple à un pourcentage de la valeur maximale Max. Ainsi, le produit de convolution (symbolisé par le multiplieur 14) de l'image source 10 par la fonction (par exemple de type gaussienne ou double linéaire) permettant d'obtenir le motif vidéo 11 donne comme résultat une image de sortie 12 dont le niveau vidéo aura une valeur maximale en son milieu (ou au niveau de la ou les zones d'intérêts) et une valeur minimale dans les coins (ou au niveau des zones les plus éloignées de la ou les zones d'intérêt), conformément au motif vidéo 11. Pour certaines séquences vidéo, contenant notamment de larges zones uniformes, des zones de transitions apparaissent dues au gradient du motif vidéo appliqué à la séquence vidéo source. La figure 4a illustre une courbe représentative d'une fonction de type gaussienne 40 utilisée pour définir le motif vidéo 11. Par grossissement d'une partie 41 de la courbe 40, il est possible de voir les sauts de gradient 42 à l'origine des défauts d'affichage. Ces défauts sont plus ou moins visibles selon le nombre de bits qu'un écran peut utiliser pour l'affichage d'une séquence vidéo. Plus le nombre de bits utilisés est faible, plus les défauts seront importants. Ces défauts d'affichage sont également connus sous le nom de défaut de quantification et sont illustrés par le motif 13 qui correspond à un grossissement d'une zone quasi-uniforme 121 de l'image de sortie 13, affichée en niveaux de gris. Le motif 13, pour lequel le contraste a été augmenté de manière à bien faire apparaître les zones de transition de niveau de gris, illustre de manière générale les défauts d'affichage liés au problème de quantification des écrans de l'art antérieur. 3. Résumé de l'invention. L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur. Plus particulièrement, l'invention a notamment pour objectif de réduire la visibilité des zones de transition de niveau de gris sur un écran d'affichage.
L'invention concerne un procédé de traitement d'une image vidéo pour un dispositif d'affichage. Le procédé comprend une étape d'application d'un troisième motif vidéo à au moins une partie de l'image, le troisième motif vidéo résultant de l'entrelacement spatial d'un premier motif vidéo et d'au moins un deuxième motif vidéo selon un modèle déterminé. Selon une caractéristique particulière, le premier motif vidéo est généré à partir d'une première fonction de type gaussienne ayant un premier écart type. Avantageusement, le au moins un deuxième motif vidéo est 10 généré à partir d'au moins une deuxième fonction de type gaussienne ayant un deuxième écart type différent du premier écart type. Selon une caractéristique spécifique, le procédé comprend une étape de génération du premier motif vidéo et du au moins un deuxième motif vidéo à partir d'un motif vidéo initial. 15 De manière avantageuse, le premier motif vidéo et le au moins un deuxième motif vidéo sont générés par application d'au moins un coefficient de pondération au premier motif vidéo initial. Selon une caractéristique particulière, l'entrelacement spatial est réalisé selon deux dimensions. 20 Selon une autre caractéristique, le premier motif et le au moins un deuxième motif sont générés de manière à conserver une intensité lumineuse maximale dans au moins une zone de la au moins une partie de l'image sur laquelle le troisième motif est appliqué et à atténuer l'intensité lumineuse dans le reste de la au moins une partie de l'image, la au moins 25 une zone comprenant au moins un pixel.
4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la 30 description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre l'application d'un motif vidéo à une image source dans une unité de traitement de l'art antérieur ; - la figure 2 illustre schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon un mode de réalisation particulier de 35 l'invention ; - la figure 3 illustre deux fonctions d'atténuation utilisées dans l'unité de traitement de la figure 2 ou de la figure 5, selon un exemple de mise en oeuvre de l'invention ; - la figure 4a illustre une fonction d'atténuation utilisée dans une unité de traitement de l'art antérieur ou dans l'unité de traitement de la figure 2, selon un mode de réalisation de l'invention ; - la figure 4b illustre le résultat de l'entrelacement de fonctions d'atténuation mis en oeuvre dans l'unité de traitement de la figure 2, selon un exemple de mise en oeuvre de l'invention ; - les figure 5 et 6 illustrent schématiquement la structure d'une unité de traitement d'un dispositif d'affichage, selon deux modes de réalisation particuliers de l'invention ; - la figure 7 illustre deux fonctions d'atténuation utilisées dans l'unité de traitement de la figure 6, selon un exemple de mise en oeuvre de l'invention ; - les figures 8 et 9 illustrent un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement des figures 2, 5 ou 6, selon deux modes de réalisation particuliers de l'invention. 5. Description détaillée de modes de réalisation de l'invention. La figure 1 illustre le traitement d'une image vidéo 10 source à laquelle est appliqué un motif vidéo 11 selon l'art antérieur et notamment tel que décrit dans la demande de brevet français FR0954109. Le résultat de l'application du motif 11 à l'image 10 est représenté par l'image vidéo 12 résultante. Le motif 11 possède les mêmes dimensions que l'image source à laquelle il est appliqué. De manière avantageuse, le motif 11 est une matrice de dimension M*N (M lignes par N colonnes) avec un nombre d'éléments égal au nombre de pixels des images 10 et 12. A chaque élément de la matrice M*N représentative du motif 11 est ainsi associé un pixel de l'image source 10. Le motif 11 est déterminé de manière à ce que le niveau vidéo prenne une valeur maximale Max au centre du motif, par exemple égal à 255, et prenne une valeur minimale Min dans les coins du motif, c'est-à-dire dans les zones du motif les plus éloignées du centre du motif. La valeur minimale correspond à un pourcentage de la valeur maximale Max et est par exemple égale à 60, 70, 80 ou 90 % de la valeur maximale Max. En d'autres mots, l'élément placé au centre de la matrice représentative du motif 11 a comme valeur la valeur maximale Max de niveau vidéo, par exemple 255, et les éléments placés aux quatre coins de la matrice ont comme valeur la valeur minimale Min de niveau vidéo. Le niveau vidéo associé à chacun des éléments de la matrice représentative du motif 11 est par exemple obtenu par une fonction de type gaussienne ou double linéaire représentée par le multiplieur 14. Selon une variante, les éléments de la matrice M*N représentative du motif 11 prennent comme valeur des coefficients de pondération. L'élément placé au centre de la matrice prend avantageusement comme valeur un coefficient de pondération maximal égal à 1 et les éléments les plus distants de l'élément du centre, c'est-à-dire les éléments positionnés dans les coins de la matrice, prennent comme valeur un même coefficient de pondération minimal correspondant à x % du coefficient de pondération maximale, X ayant par exemple pour valeur 60, 70, 80 ou 90 %.
De manière avantageuse, le centre du motif ayant pour valeur la valeur maximale de niveau vidéo ou le coefficient de pondération maximale correspond à un élément de la matrice M*N, à savoir l'élément placé à l'intersection de la ligne du milieu et de la colonne du milieu. Selon une variante, le centre du motif correspond à un ensemble d'éléments de la matrice, par exemple un cercle centré sur l'élément du centre de la matrice ayant pour rayon R éléments (R étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un carré centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments (L étant par exemple égal à 5, 10, 20, 50 ou 100 éléments), un rectangle centré sur l'élément du centre de la matrice ayant des côtés de longueur L éléments et de largeur I éléments, ou tout autre forme géométrique centré sur l'élément central de la matrice.
L'invention va maintenant être décrite en référence à un mode particulier de réalisation d'un procédé de traitement d'image dans lequel un motif vidéo, dit troisième motif vidéo, résultant de l'entrelacement spatial, selon un modèle d'entrelacement déterminé, d'un premier motif vidéo et d'un ou plusieurs deuxième motifs vidéo est appliqué à tout ou partie d'une image source. L'entrelacement spatial selon un modèle déterminé de plusieurs motifs vidéo permet avantageusement de réduire la visibilité de zones de transitions telles que décrites en regard de la figure 1. Les premier et deuxième motifs vidéo sont par exemple, mais non exclusivement, du type du motif vidéo 11 de la figure 1.
La figure 2 illustre schématiquement un premier exemple de réalisation matérielle d'une unité de traitement 2 d'un dispositif d'affichage. L'unité de traitement 2 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais « Field-Programmable Gate Array » ou en français « Réseau de portes programmables ») par exemple, ASIC (de l'anglais « Application-Specific Integrated Circuit » ou en français « Circuit intégré à application spécifique ») ou d'un DSP (de l'anglais « Digital Signal Processor » ou en français « Processeur de signal numérique »).
L'unité de traitement 2 comprend les éléments suivants : un processeur 21 ; - une mémoire 23 ; - une unité de synchronisation 22 ; - un multiplexeur 25 à quatre entrées 251 à 254, chaque entrée 15 étant précédée d'un multiplieur ; - un décodeur d'adresse 24 ; - une unité de normalisation 26 ; - un multiplieur 27 ; - des bus de données 200, 201, 202, 203, 204. 20 Le processeur 21 contient une fonction permettant de générer un motif vidéo initial en fonction de critères entrés via par exemple une interface MMI (ou interface homme/machine de l'anglais « Man Machine Interface ») non représentée. Les critères correspondent par exemple à la zone du motif initial pour laquelle le niveau vidéo est maximal, à la valeur maximale voulue, 25 à la valeur minimale correspondant à un pourcentage X de la valeur maximale. Le processeur 21 génère un motif vidéo initial représenté par une matrice comprenant autant d'éléments que de pixels contenus dans l'image à traiter. Si l'image à traiter 210 est une image comprenant M lignes et N colonnes, la matrice représentant le motif vidéo initial comprendra également 30 M lignes et N colonnes d'éléments. La matrice générée est transmise à la mémoire (par exemple une mémoire de type RAM (de l'anglais « Random Access Memory » ou en français « mémoire vive ») ou de type flash) 23 via un bus 200 reliant le processeur 21 à la mémoire 23. Le contenu de la mémoire 23 est ensuite transmis en entrée d'un multiplexeur 25. Chaque 35 élément de la mémoire 23 est pondéré des quatre coefficients de pondération A1, A2, A3 ou A4 (respectivement référencé 251 à 254) en parallèle, chaque pondération correspondant à une entrée du multiplexeur 25, pour former un premier motif vidéo (pondéré du coefficient Al), et trois deuxièmes motifs vidéo (respectivement pondérés des coefficients A2, A3 et A4). Un décodeur d'adresse 24, relié en entrée à une unité de synchronisation 22 et en sortie au multiplexeur 25, aiguille la sortie du multiplexeur 25 pour que soit appliqué à un pixel de l'image à traiter 210 un élément de la mémoire 23 pondéré d'un coefficient de pondération Al, A2, A3 ou A4 via la multiplieur 27, et ce pour chaque pixel de l'image à traiter 210. La sélection d'une entrée 251 à 254 du multiplexeur 25 par le décodeur d'adresse pour appliquer les éléments de la mémoire 23 pondérés aux pixels de l'image à traiter 210 suit avantageusement une séquence de sélections de coefficients de pondération programmée dans le décodeur d'adresse 24. L'application d'un élément donné de la matrice contenue dans la mémoire 23 au pixel associé de l'image à traiter, les coordonnées de l'élément dans la matrice étant identiques aux coordonnées du pixel associés dans l'image d'entrée 26, est synchronisée par une unité de synchronisation 22 recevant en entrée des signaux de synchronisation verticale (Vsync), de synchronisation horizontale (Hsync) et un signal (RGB_en) correspondant aux pixels actifs de l'image source 210. Le coefficient de pondération appliquée à l'élément de la mémoire 23 avant que ce dernier ne soit appliqué à un pixel de l'image à traiter est sélectionné par le décodeur 24 en fonction de l'adresse du pixel à traiter et en fonction de la séquence de coefficients de pondération stockée dans le décodeur d'adresse 24. Selon une variante, le décodeur d'adresse 24 contient plusieurs séquences de coefficients de pondération, la séquence à appliquer dépendant de l'adresse (en X et en Y) du pixel de l'image à traiter 210. De manière avantageuse, la ou les séquences de coefficients de pondération sont répétées de manière cyclique. La ou les séquences de coefficients de pondération dépendent avantageusement du type d'écran d'affichage, par exemple en fonction des traitements appliqués aux images (traitement du flou ou en anglais « blurring » par exemple) d'un écran d'affichage donné. Voici un exemple d'une séquence de sélection de coefficients de pondération appliquée aux éléments de la mémoire 23 en fonction de l'adresse du pixel de l'image à traiter : Ligne/Colonne Cl C2 C3 C4 C5 C6 L1 Al A2 A3 A4 A3 A2 L2 A3 A4 A3 A2 Al A2 L3 A2 Al A2 A3 A4 A3 L4 A4 A3 A4 Al A2 Al L5 A2 Al A2 A3 A4 A3 L6 A3 A4 A3 A2 Al A2 Tableau 1 : séquence de sélection de coefficients de pondération
Selon cet exemple, la séquence de sélection des coefficients de pondération est une matrice 6x6. Lors de l'application des éléments de la mémoire 23 à l'image à traiter, le 1 er pixel de l'image à traiter est sélectionné, c'est-à-dire le pixel de la première ligne et de la première colonne de l'écran d'affichage. Via l'unité de synchronisation, le 1 er élément de la mémoire correspondant à ce 1 er pixel, c'est-à-dire l'élément ayant les mêmes coordonnées que le pixel est sélectionné (première ligne, première colonne) et est transmis aux quatre entrées du multiplexeur 25, un coefficient de pondération Al, A2, A3 ou A4 étant appliqué à ce 1 er élément au niveau de chacune des quatre entrées du multiplexeur. Puis l'unité de décodage 24 sélectionne l'entrée du multiplexeur 25 en fonction de la matrice représentative de la séquence de sélection des coefficients de pondération qu'elle contient. Conformément à la matrice ci- dessus, l'unité de décodage sélectionne la première entrée du multiplexeur, c'est-à-dire celle correspondant au coefficient Al. Ainsi, le premier élément de la mémoire 23 est pondéré du coefficient Al avant d'être appliqué au premier pixel de l'image à traiter 210. Puis le deuxième pixel de l'image à traiter est sélectionné, par exemple celui de la première ligne et de la deuxième colonne. Via l'unité de synchronisation, le deuxième élément de la mémoire correspondant à ce deuxième pixel, c'est-à-dire l'élément ayant les mêmes coordonnées que le pixel (première ligne, deuxième colonne), est sélectionné et est transmis aux quatre entrées du multiplexeur 25, un coefficient de pondération Al, A2, A3 ou A4 étant appliqué à ce deuxième élément au niveau de chacune des quatre entrées du multiplexeur. Puis l'unité de décodage 24 sélectionne l'entrée du multiplexeur 25 en fonction de la matrice représentative de la séquence de sélection des coefficients de pondération qu'elle contient. Conformément à la matrice ci-dessus, l'unité de décodage sélectionne la deuxième entrée du multiplexeur, c'est-à-dire celle correspondant au coefficient A2. Ainsi, le deuxième élément de la mémoire 23 est pondéré du coefficient A2 avant d'être appliqué au deuxième pixel de l'image à traiter 210.
Le même processus est réitéré pour chaque pixel de l'image à traiter 210. Les six premiers pixels de la première ligne se voient ainsi appliqués les six premiers éléments de la première ligne de la mémoire respectivement pondérées des coefficients Al, A2, A3, A4, A3, A2, puis les six premiers pixels de la deuxième ligne se voient appliqués les six premiers éléments de la deuxième ligne de la mémoire 23 pondérés respectivement des coefficients A3, A4, A3, A2, A1, A2 conformément à la matrice de sélection des coefficients de l'unité de décodage 24 et ainsi de suite. La matrice de sélection des coefficients est ainsi appliquée cycliquement, ce qui revient à dire que l'image d'entrée est découpée en blocs de 6x6 pixels (ou de manière équivalente la mémoire est découpée en blocs de 6x6 éléments) et que la même séquence de 6x6 coefficients est appliquée à chaque blocs de 6x6 pixels (respectivement 6x6 éléments). La taille de la matrice de séquence de sélection de coefficients dépend avantageusement du type d'écran et est par exemple égale 8x1 ou 12x2 ou 16x16, etc. En d'autres termes, la sélection des entrées du multiplexeur en fonction d'une séquence de sélection stockée dans le décodeur d'adresse 24 et en fonction de l'adresse d'un pixel assure un entrelacement spatial de plusieurs motifs vidéo (c'est-à-dire l'entrelacement du premier motif vidéo et des trois deuxièmes motifs vidéo), un motif vidéo correspondant à une matrice de MxN éléments générée à partir d'une fonction contenue dans le processeur 21 à laquelle est appliquée un coefficient de pondération. Dans le mode de réalisation de la figure 2, le décodeur d'adresse 24 assure l'entrelacement spatial de quatre motifs vidéos pour former un troisième motif vidéo applqiué à l'image d'entrée 210. La mémoire 23 et le multiplexeur 25 sont reliés entre eux via un bus de données 16 bits. Le signal d'entrée 210 est transmis au multiplieur 27 via un bus de données de par exemple 32 bits (le nombre de bits à transmettre en parallèle étant de 30 bits effectifs, chaque composante RGB (de l'anglais « Red, Green, Blue » ou en français « Rouge, vert bleu ») étant codée sur 10 bits). Le bus 201 est dimensionné à 16 bits puisque un seul élément codé sur 10 bits de la matrice contenue dans la mémoire 23 est à appliquer aux trois composantes RGB définissant chaque pixel de l'image d'entrée 210. Le bus 201 devant donc être capable de transmettre 10 bits en parallèle, un bus 16 bits est disposé entre la mémoire 23 et le multiplexeur 25. Une unité de normalisation 26 est placée en sortie du multiplieur 27 pour ramener sur 30 bits le signal codé issu de la multiplication du signal d'entrée RGB 210 codé sur 30 bits et du signal sur 10 bits représentatif des éléments du troisième motif vidéo, le signal en sortie de l'unité de normalisation 24 étant le signal de sortie RGB_traité 211 représentatif des images vidéo à afficher sur le dispositif d'affichage : la dynamique du signal de sortie RGB_traité 211 doit être identique à la dynamique du signal d'entrée RGB 210. L'image de sortie 211 correspond à l'image d'entrée 210 à laquelle a été appliqué le troisième motif vidéo issu de l'entrelacement spatial des premier et deuxièmes motifs vidéo. Dans le cas où le motif vidéo initial présente un niveau vidéo maximal en son centre et un niveau vidéo minimal dans les zones les plus éloignées du centre du motif, le premier et les deuxièmes motifs vidéo possèdent les mêmes caractéristiques puisque ces premier et deuxièmes motifs vidéos sont identiques au motif vidéo initial, au coefficient de pondération près. Ainsi, le troisième motif vidéo issu de l'entrelacement spatial du premier motif et des deuxièmes motifs vidéo présente également un niveau vidéo maximal en son centre et un niveau vidéo minimal dans les zones les plus éloignées du centre du motif. L'image de sortie 211 aura une intensité lumineuse identique à celle de l'image d'entrée au centre de l'image et une intensité lumineuse réduite dans les zones de l'image distantes du centre de l'image. La diminution de l'intensité lumineuse des pixels de l'image décroit de manière progressive du centre de l'image vers la périphérie de l'image selon la fonction utilisée (par exemple fonction de type gaussienne ou fonction de type interpolation bilinéaire) pour générer le motif vidéo initial dans le processeur 21. L'énergie nécessaire pour afficher l'image de sortie est donc inférieure à l'énergie qui serait nécessaire pour afficher l'image d'entrée non traitée par l'unité de traitement 2. Selon une variante, la mémoire 23 est disposée à l'extérieur de l'unité de traitement 2. En effet, la mémoire 23 contient autant d'éléments codés sur 10 bits qu'il y a de pixels dans l'image d'entrée 26. Pour une image de résolution 1920x1080 (contenant donc 2073600 pixels), la mémoire doit avoir une capacité de stockage d'environ 2,6 Mo. Une mémoire RAM ou flash avec une telle capacité de stockage n'est généralement pas intégrée dans une unité de traitement 2 de type FGPA ou ASIC.
La figure 3 illustre deux courbes représentatives de fonctions d'atténuation utilisées dans l'unité de traitement de la figure 2 ou de la figure 5, selon un exemple de mise en oeuvre de l'invention. La courbe G1 31 est avantageusement représentative de la fonction programmée dans le processeur 21, servant à la génération du motif vidéo initial. La fonction utilisée pour générer le motif vidéo initial et les éléments qui le composent est avantageusement de type gaussienne, avec par exemple pour formule :
xùx° )2 _ )2 + y y0 ) formule 1 20 2a où K est un coefficient déterminé, par exemple 255 correspondant au niveau vidéo maximal, x et y correspondent respectivement à l'abscisse et à l'ordonné d'un élément du motif vidéo, xo et yo correspondent respectivement aux coordonnées du centre de la zone dans laquelle
10 l'intensité lumineuse est conservée à sa valeur maximale, 6X et a, correspondent respectivement à la variance en x et à la variance en y de la gaussienne.
La courbe G2 32 est quant à elle avantageusement représentative de la fonction représentative du premier motif vidéo ou de l'un des trois
15 deuxièmes motifs vidéo de la figure 2. La courbe G2 a par exemple pour fonction la fonction de la courbe G1 pondérée de Al ou la fonction de G1 pondérée de l'un des coefficients A2, A3 ou A4. On obtient ainsi une formule du type suivant pour G2 : f2 (x, y) = A1.f1(x, y), formule 2 20 Al étant par exemple égal à 0.9, à 0.8 ou à 0.6. Selon une variante, Al = 1 et l'un des premier et deuxième motif vidéo est identique au motif vidéo initial. La figure 4a illustre une fonction d'atténuation de type gaussienne
25 utilisée dans une unité de traitement de l'art antérieur et illustre également une fonction d'atténuation du type de G1 illustrée en figure 3 servant à générer le motif vidéo initial. Par grossissement d'une partie 41 de cette courbe 40, on aperçoit les sauts de gradient 42 à l'origine des zones de transitions visibles notamment dans les parties ayant un niveau vidéo
30 uniforme d'une image traitée avec un motif vidéo généré à partir d'une telle fonction d'atténuation.
La figure 4b illustre le résultat de l'entrelacement de plusieurs fonctions d'atténuation de type gaussienne et de manière avantageuse le résultat de l'entrelacement de la fonction représentative du premier motif
35 vidéo et des trois fonctions représentatives des trois deuxièmes motifs vidéo de la figure 2. Par grossissement d'une partie 44 de la courbe 43 issue du f1(x, y) = K.exp(- résultat de l'entrelacement spatial des courbes représentatives des fonctions représentatives des premier et deuxièmes motifs vidéo, on aperçoit que les sauts de gradient 45 sont très atténués en comparaison de ceux présents pour une unique courbe représentative d'une seule fonction d'atténuation.
L'entrelacement spatial de plusieurs motifs vidéo selon une séquence déterminée offre l'avantage de réduire la visibilité de défauts d'affichage tels que l'apparition de zones de transitions visibles dans les parties uniformes d'une image traitée avec une fonction d'atténuation et tels qu'illustrés en figure 1.
La figure 5 illustre schématiquement un deuxième exemple de réalisation matérielle d'une unité de traitement 5 d'un dispositif d'affichage. L'unité de traitement 5 prend par exemple la forme d'un circuit logique programmable de type FPGA par exemple, ASIC ou d'un DSP.
L'unité de traitement 5 comprend les éléments suivants : un processeur 51 ;
- deux mémoires 53a et 53b ;
- une unité de synchronisation 52 ;
- un multiplexeur 55 à quatre entrées 551 à 554 ;
- un décodeur d'adresse 54 ;
- une unité de normalisation 56 ;
- deux multiplieurs 57 et 58 ;
- des bus de données 500, 501a, 501b, 502, 503, 504.
Le processeur 51, l'unité de synchronisation 52, le décodeur
d'adresse 54, le multiplieur 58, l'unité de normalisation 56 et les bus de données 500 à 504 assurent les mêmes fonctions que respectivement le processeur 21, l'unité de synchronisation 22, le décodeur d'adresse 24, le multiplieur 27, l'unité de normalisation 26 et les bus de données 200 à 204 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le
détail ici. Le processeur 51 utilise les propriétés mathématiques de certaines fonctions d'atténuation, notamment les fonctions de type gaussienne pour générer les composantes en X du motif vidéo initial d'une part et les composantes en Y du motif vidéo initial d'autre part. Pour rappel, une fonction de type gaussienne telle qu'illustrée par exemple en figure 3
possède une formule générale du type : (xùxo)2 + (yùyo)2 f (x, y) = K.exp(- 2a 20 qui peut être décomposée de la manière suivante : f(x,y)=K.exp(ù(x262 )2).exp(ù(Yù °)2) formule 3 y Le premier terme ex p(ù )2) correspond aux composantes en p(ù 26-2 x X du motif vidéo initial et le deuxième terme exp(ù(y2~°)2)correspond aux y
composantes en Y du motif vidéo initial.
Le processeur 51 génère d'une part les composantes en X du motif vidéo initial et les transmet pour stockage dans une première mémoire 53a et d'autre part les composantes en Y du motif vidéo initial et les transmet pour stockage dans une deuxième mémoire 53b. De manière avantageuse,
la deuxième mémoire 53b est identique, en terme de capacité de stockage et/ou de structure, à la première mémoire 53a. Pour une image de résolution 1920x1080 (contenant donc 1920 lignes et 1080 colonnes, soit 1920 valeurs en X et 1080 valeurs en Y), deux mémoires 53a et 53b de 2000 mots de 16 bits chacune sont suffisante pour le stockage des composantes en X et en Y.
Un tel exemple de réalisation matérielle d'une unité de traitement offre l'avantage de pouvoir utiliser la mémoire embarquée dans un circuit FPGA (ou ASIC) sans avoir à ajouter de mémoire de type RAM ou flash à l'extérieur du circuit. L'application d'un élément du motif vidéo initial à un pixel de l'image à traiter est réalisée par sélection de la composante en X du motif
vidéo initial dans la mémoire 53a correspondant à la coordonnée X du pixel à traiter et par sélection de la composante en Y du motif vidéo initial dans la mémoire 53b correspondant à la coordonnée Y du pixel à traiter. La valeur de la composante en X est alors multipliée à la valeur de la composante en Y via le multiplieur 57. La sélection des composantes en X et en Y dans les
mémoires 53a et 53b à partir de l'adresse du pixel à traiter est synchronisée via l'unité de synchronisation 52 qui est reliée aux mémoires 53a et 53b. L'élément du motif vidéo initial à appliquer au pixel sélectionné est ensuite pondéré des coefficients A1, A2, A3 et A4 pour former le premier motif vidéo et les trois deuxièmes motifs vidéos en entrée du multiplexeur 55. Le
décodeur d'adresse 54 vient alors sélectionner l'une de ces quatre entrées en fonction de l'adresse du pixel à traiter et d'une séquence de sélection des coefficients de pondération Al à A4 programmée et enregistrée dans le décodeur d'adresse 54. L'élément du motif vidéo initial pondéré d'un des coefficients de pondération Al à A4 sélectionné par le décodeur d'adresse 54 est ensuite transmis au multiplieur 58 pour être appliqué au pixel correspondant de l'image à traiter 510 pour former l'image traitée 511 en sortie de l'unité de normalisation 56. Tout comme dans l'unité de traitement 2 de la figure 2, le décodeur d'adresse 54 réalise ici un entrelacement spatial (suivant une séquence spatiale prédéterminée) du premier motif vidéo et des trois deuxièmes motifs vidéo pour former un troisième motif vidéo qui est appliqué au signal d'entrée RGB 510 représentatif des images vidéo à traiter.
La figure 6 illustre schématiquement un troisième exemple de réalisation matérielle d'une unité de traitement 6 d'un dispositif d'affichage. L'unité de traitement 6 prend par exemple la forme d'un circuit logique programmable de type FPGA par exemple, ASIC ou d'un DSP. L'unité de traitement 6 comprend les éléments suivants : un processeur 61 ; - quatre mémoires 63a, 63b et 64a, 64b ; - une unité de synchronisation 62 ; - deux multiplexeurs 65 et 62 deux entrées chacun ; - un décodeur d'adresse 67 ; - une unité de normalisation 68 ; - deux multiplieurs 60 et 69 ; - des bus de données 600, 603, 604. Le processeur 61, l'unité de synchronisation 62, le décodeur d'adresse 64, le multiplieur 60, l'unité de normalisation 68 et les bus de données 600, 603 et 604 assurent les mêmes fonctions que respectivement 25 le processeur 21, l'unité de synchronisation 22, le décodeur d'adresse 24, le multiplieur 27, l'unité de normalisation 26 et les bus de données 200, 203 et 204 décrits en regard de la figure 2 et ne seront pas décrits à nouveau dans le détail ici. Le processeur 61 contient deux fonctions d'atténuation permettant de générer un premier motif vidéo et un deuxième motif vidéo en 30 fonction de critères entrés via par exemple une interface une interface MMI (ou interface homme/machine de l'anglais « Man Machine Interface ») non représentée. Les critères correspondent par exemple à la zone du motif initial pour laquelle le niveau vidéo est maximal, à la valeur maximale voulue, à la valeur minimale correspondant à un pourcentage X de la valeur maximale et 35 sont valables pour les deux fonctions. Les fonctions, avantageusement de type gaussien, présentent deux écarts types différents. La première fonction a par exemple pour formule : 20 2 _ )2 f1(x,y)=K.exp(ù x ù )+ y y0 ) formule 4 2a1 261 y qui peut être décomposée de la manière suivante : f1(x,y)=K.exp(ù(xùx°)2).exp(ù(yùy°)2) formule 5 2 2 2o-1x 2a La deuxième fonction a par exemple pour formule : f2(x,y)=K.exp( formule 6 ) qui peut être décomposée de la manière suivante : .f2(x,y)=K.exp(ù(xùx°)2).exp(ù(yùy°)2) formule 7 2a2x 262y Les premiers termes de chacune des formules 5 et 7 exp(ù (x ù x° )2) et exp(ù (x ù x° )2) correspondent aux composantes en X de 2a12 x 2a2x 2 respectivement le premier motif vidéo et le deuxième motif vidéo et les deuxièmes termes exp(ù (y y0)2) et exp(ù (y y0)2) correspondent aux 2a1 2o-2 composantes en Y de respectivement le premier motif vidéo et le deuxième motif vidéo.
Le processeur 61 génère d'une part les composantes en X de chacun des premier et deuxième motifs vidéos et les transmet pour stockage dans respectivement une première mémoire 63a et une deuxième mémoire 63b ; et d'autre part les composantes en Y de chacun des premier et deuxième motifs vidéo et les transmet pour stockage dans respectivement une troisième mémoire 64a et une quatrième mémoire 64b. De manière avantageuse, les première, deuxième, troisième et quatrième mémoires 63a, 63b, 64a, 64b sont identique en terme de capacité de stockage et/ou de structure.
Pour chaque pixel de l'image 610 à traiter, c'est-à-dire pour chaque adresse (X, Y) des pixels de l'image 610, les composante en X et en Y d'un premier élément du premier motif vidéo sont sélectionnées respectivement dans les mémoires 63a et 64a, les positions X et Y des composantes X et Y dans les mémoires 63a et 64a correspondant à l'adresse (X, Y) du pixel à traiter. Chacune de ces composantes X et Y du premier élément du premier motif vidéo est transmise à une entrée d'un multiplexeur 65. De la même manière, les composantes en X et Y d'un deuxième élément du deuxième motif vidéo sont sélectionnées dans les mémoires 63b et 64b pour être transmises chacune à une entrée d'un multiplexeur 66. La sélection des composantes en X et en Y dans les mémoires 63a, 63b et 64a, 64b à partir de l'adresse du pixel à traiter est synchronisée via l'unité de synchronisation 62 qui est reliée aux mémoires 63a, 63b et 64a, 64b. Le décodeur d'adresse 67 vient alors sélectionner une des deux entrées du multiplexeur 65 en fonction de l'adresse du pixel à traiter et d'une séquence de sélection des fonctions d'atténuation (fonction f, ayant un premier écart type ou fonction f2 ayant un deuxième écart type) enregistrée dans le décodeur d'adresse 67. Si le décodeur d'adresse 67 sélectionne l'entrée correspondant à la composante X de la fonction f, du multiplexeur 65 alors le décodeur d'adresse 67 sélectionne l'entrée correspondant à la composante Y de la fonction f, du multiplexeur 66. Si le décodeur d'adresse 67 sélectionne l'entrée correspondant à la composante X de la fonction f2 du multiplexeur 65 alors le décodeur d'adresse 67 sélectionne l'entrée correspondant à la composante Y de la fonction f2 du multiplexeur 66. Les multiplexeurs 65 et 66 transmettent alors les composantes en X et Y de la fonction f, (ou de la fonction f2) sélectionnées par le décodeur d'adresse 67 pour multiplication de ces composantes entre elles via un multiplieur 69. Le résultat de la multiplication est alors transmis au multiplieur 60 pour multiplication avec le niveau vidéo du pixel correspondant de l'image à traiter 610. Après traitement par une unité de normalisation 68, on obtient en sortie une image traitée 611, c'est-à-dire une image dont le niveau lumineux est maximal en une zone de l'image (par exemple en son centre) et dont le niveau lumineux est moins important que celui de l'image d'entrée 610 dans le reste de l'image, la luminosité variant en fonction de la fonction d'atténuation utilisée. Le décodeur d'adresse réalise un entrelacement spatial (suivant une séquence spatiale prédéterminée) des fonctions d'atténuation f1 et f2, c'est-à-dire un entrelacement spatial des premier et deuxième motifs vidéo pour former un troisième motif vidéo qui est appliqué au signal d'entrée RGB 610 représentatif des images vidéo à traiter.
La figure 7 illustre deux courbes représentatives de fonctions d'atténuation utilisées dans l'unité de traitement de la figure 6, selon un exemple de mise en oeuvre de l'invention. La courbe G1 71 est par exemple représentative de la fonction f, servant à la génération du premier motif vidéo et la courbe G2 72 est par exemple représentative de la fonction f2 servant à la génération du deuxième motif vidéo. La courbe G1 présente un premier écart type et la courbe G2 présente un deuxième écart type qui est différent du premier écart type. Les courbes G1 et G2 présentent avantageusement des caractéristiques identiques, par exemple elle présente un maximum en un même point et des minima en des mêmes points. Posséder des caractéristiques identiques permet d'obtenir un troisième motif vidéo (issu de l'entrelacement spatial du premier motif vidéo et du deuxième motif vidéo) uniforme, c'est-à-dire avec un maximum en un même point et des minima dans des mêmes points afin d'obtenir un maximum de luminosité dans l'image traitée dans une zone donnée et des atténuations de lumière de plus en plus importantes au fur et à mesure que l'on s'éloigne de la zone de luminosité maximale dans l'image traitée, sans disparité dans le gradient d'atténuation de l'intensité lumineuse.
La figure 8 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 2, 5 ou 6, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 80, les différents paramètres de l'unité de traitement sont mis à jour.
Ensuite, au cours d'une étape 81, un motif vidéo, dit troisième motif vidéo, est généré par entrelacement spatial d'un premier motif vidéo et d'un ou plusieurs deuxièmes motifs vidéo. L'entrelacement spatial suit avantageusement une ou plusieurs séquences d'entrelacement déterminées. Le troisième motif vidéo est avantageusement généré de manière à conserver une intensité lumineuse de valeur maximale dans une ou plusieurs zones de l'image (ou dans une zone d'une ou plusieurs parties de l'image) sur laquelle aura été appliqué le troisième motif vidéo et de manière à atténuer l'intensité lumineuse dans le reste de l'image (ou respectivement dans le reste de la ou les parties de l'image). La zone pour laquelle l'intensité lumineuse conserve une valeur maximale correspond de manière avantageuse au centre de l'image, c'est-à-dire par exemple au pixel placé au centre de l'image ou également aux pixels répartis autour du pixel central de l'image. La zone ainsi définie correspond par exemple à un pixel, à un cercle ayant pour rayon plusieurs pixels et centré sur le pixel du centre de l'image, à un carré ou à un rectangle de pixels centré sur le pixel du centre de l'image ou à toute forme géométrique centré sur le pixel du centre de l'image. Selon une variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de deux, par exemple chacune disposée sur un côté latéral de l'image, au milieu de l'image. Selon une autre variante, les zones pour lesquelles l'intensité lumineuse conserve une valeur maximale sont au nombre de trois, avec par exemple une zone localisée au centre de l'image, les deux autres étant localisées sur les côtés latéraux de l'image au milieu de l'image. De manière avantageuse, le troisième motif vidéo est représenté par une matrice à deux dimensions M*N comprenant M x N éléments. Selon une variante, le nombre d'éléments de la matrice représentative du motif vidéo comprend autant d'éléments qu'il y a de pixels dans les images à traités (par exemple 2073600 éléments pour une image de résolution haute définition 1920*1080). Le motif vidéo est alors de même dimension que les images à traiter. Selon une autre variante particulièrement avantageuse, le motif vidéo est de dimension (ou taille) inférieure à celle des images à traiter, c'est-à-dire qu'il comprend un nombre d'éléments inférieur au nombre de pixels contenus dans les images à traiter. Les fonctions représentatives des premier et deuxième motifs vidéo sont avantageusement de type gaussienne, avec par exemple pour formule : x où K est un coefficient déterminé, par exemple 255 correspondant au niveau vidéo maximal, x et y correspondent respectivement à l'abscisse et à l'ordonné d'un élément du motif vidéo, xo et yo correspondent respectivement aux coordonnées du centre de la zone dans laquelle l'intensité lumineuse est conservée à sa valeur maximale, a et a, correspondent respectivement à la variance en x et à la variance en y de la gaussienne. Selon une variante, la fonction représentative du premier motif vidéo présente un premier coefficient K1 et la fonction représentative du deuxième motif présente un deuxième coefficient K2 différent de K1. Selon une autre variante, la fonction représentative du premier motif vidéo présente un premier écart type al et la fonction représentative du deuxième motif présente un deuxième écart type a2 différent de al . Selon cette variante, les fonctions d'écarts types al et a2 présentent un même coefficient K ou des coefficients K1 et K2 différents. Selon une variante, les fonctions utilisées pour générer les premier et deuxième motifs vidéo sont de type double linéaire. L'atténuation de 25 30 35 (xùxo)2 + (yùyo)2 f (x, y) = K.exp(- 262 2a -) l'intensité lumineuse appliquée aux pixels de l'image à traiter est d'autant plus importante que le pixel est éloigné du ou des pixels de la zone pour laquelle l'intensité lumineuse est maximale et est proportionnelle à l'éloignement de la zone d'intensité lumineuse maximale. Cette variante sera avantageusement mise en oeuvre dans une unité de traitement 2. De manière avantageuse, les premier et deuxième motifs vidéo ont des caractéristiques similaires, c'est-à-dire par exemple qu'ils permettent de conserver une intensité lumineuse de valeur maximale dans une ou plusieurs mêmes zones de l'image (ou dans une même zone d'une ou plusieurs parties de l'image) sur laquelle aura été appliqué le troisième motif vidéo et qu'ils permettent d'atténuer l'intensité lumineuse dans le reste de l'image (ou respectivement dans le reste de la ou les parties de l'image) suivant un même schéma (par exemple dans de mêmes proportions avec des minima d'intensité lumineuse dans des mêmes points de l'image). Ainsi, le troisième motif vidéo résultant de l'entrelacement du premier et du ou des deuxièmes motifs vidéo aura des caractéristiques similaires aux premier et deuxièmes motifs vidéo et cohérentes (c'est-à-dire que l'intensité lumineuse sera maximale dans une même zone et les minimas d'intensité lumineuse seront localisés aux mêmes points que les premier et deuxièmes motifs).
L'entrelacement spatial du premier motif vidéo et du ou des deuxièmes motifs vidéos est avantageusement réalisé selon deux directions spatiales, une première direction en X correspondant aux colonnes du dispositif d'affichage sur lequel est réalisé le traitement vidéo et une deuxième direction en Y correspondant aux lignes du dispositif d'affichage.
Puis, au cours d'une étape 82, le troisième motif vidéo est appliqué à chaque image de la séquence vidéo, image par image. Le motif est appliqué à une image source en entrée de l'unité de traitement et l'image résultante présente une intensité lumineuse égale à celle de l'image source dans la ou les zones pour lesquelles le motif présente un niveau vidéo maximal et présente une intensité lumineuse réduite dans le reste de l'image, la réduction de l'intensité lumineuse par rapport à l'image source étant lié aux valeurs des éléments compris dans le motif vidéo et appliqués aux pixels de l'image source.
La figure 9 illustre un procédé de traitement d'images vidéo mis en oeuvre dans une unité de traitement 2, 5 ou 6, selon un exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention.
Au cours d'une étape d'initialisation 90, les différents paramètres de l'unité de traitement sont mis à jour. Ensuite, au cours d'une étape 91, un premier motif vidéo est généré suivant une première fonction d'atténuation. La première fonction d'atténuation est avantageusement de type gaussienne avec un premier écart type. Selon une variante, la première fonction d'atténuation est de type double linéaire. Selon une autre variante, le premier motif vidéo est généré à partir d'un motif vidéo initial. Selon cette variante, le premier motif vidéo est égal au motif vidéo initial pondéré d'un premier coefficient de pondération avantageusement compris entre 0 et 1. Selon une variante, le premier coefficient de pondération est égal à 1 et le premier motif vidéo et le motif vidéo initial sont identiques. Puis, au cours d'une étape 92, un deuxième motif vidéo est généré suivant une deuxième fonction d'atténuation différente de la première fonction d'atténuation. La deuxième fonction d'atténuation est avantageusement de type gaussienne avec un deuxième écart type différent du premier écart type. Selon une variante, la deuxième fonction d'atténuation est de type double linéaire. Selon une autre variante, le deuxième motif vidéo est généré à partir d'un motif vidéo initial. Selon cette variante, le deuxième motif vidéo est égal au motif vidéo initial pondéré d'un deuxième coefficient de pondération avantageusement compris entre 0 et 1. Le deuxième coefficient de pondération est avantageusement différent du premier coefficient de pondération. De manière avantageuse, plusieurs deuxièmes motifs vidéo sont générés. Chaque deuxième motif vidéo présente un écart type différent de celui des autres deuxièmes motifs vidéo. Selon une variante, chaque deuxième motif vidéo présente un coefficient K différent de celui des autres deuxièmes motifs vidéo avec un même écart type ou non. Puis au cours d'une étape 81, un troisième motif vidéo est généré par entrelacement spatial du premier motif vidéo avec le ou les deuxièmes motifs vidéo. Cette étape 81 correspond à l'étape 81 décrite en regard de la figure 8 et n'est pas reprise dans le détail ici. Enfin, au cours d'une étape 82, le troisième motif vidéo est appliqué à au moins une image vidéo d'une séquence vidéo. Cette étape 82 correspond à l'étape 82 décrite en regard de la figure 8 et n'est pas reprise dans le détail ici.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment. En particulier, l'invention n'est pas limitée à un procédé de traitement d'image mais s'étend à l'unité de traitement mettant en oeuvre un tel procédé et au dispositif d'affichage comprenant une unité de traitement mettant en oeuvre le procédé de traitement d'image. L'invention n'est pas non plus limitée à l'entrelacement spatial de deux motifs vidéo mais s'étend à l'entrelacement spatial de plus de deux motifs vidéo, par exemple 3, 4, 5, 6 ou 10 motifs vidéo.
Selon une variante, plusieurs motifs vidéo générés à partir de fonctions gaussiennes d'écarts types différents sont chacun pondérés par une pluralité de coefficients de pondération avant d'être entrelacés spatialement suivant une séquence déterminée pour former un motif vidéo résultant, dit troisième motif vidéo.
Selon un mode de réalisation avantageux, la mémoire, le multiplieur, l'unité d'interpolation et l'unité de normalisation de l'unité de traitement 2 sont par exemple remplacés par une table de correspondance LUT (de l'anglais « Look-Up Table ») stockée dans une mémoire. La table de correspondance est adressée avec la position du pixel de l'image à traiter et avec les données RGB du pixel et fournit directement en sortie une valeur RGB du pixel, associée à la position du pixel et à sa valeur RGB d'entrée, à afficher dans l'image de sortie après pondération par un coefficient de pondération sélectionné par le décodeur d'adresse suivant une séquence déterminée. Un tel mode de réalisation permet de simplifier la mise en oeuvre matérielle de l'unité de traitement et d'accélérer le traitement de l'image.

Claims (7)

  1. REVENDICATIONS1. Procédé de traitement d'une image vidéo (10) pour un dispositif d'affichage, caractérisé en ce que le procédé comprend une étape (82) d'application d'un troisième motif vidéo à au moins une partie de l'image, ledit troisième motif vidéo résultant de l'entrelacement spatial d'un premier motif vidéo et d'au moins un deuxième motif vidéo selon un modèle déterminé.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que le premier motif vidéo est généré à partir d'une première fonction (71) de type gaussienne ayant un premier écart type.
  3. 3. Procédé selon la revendication 2, caractérisé en ce que le au moins un deuxième motif vidéo est généré à partir d'au moins une deuxième fonction (72) de type gaussienne ayant un deuxième écart type différent dudit premier écart type.
  4. 4. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape (91, 92) de génération dudit premier motif vidéo et dudit au moins un deuxième motif vidéo à partir d'un motif vidéo initial.
  5. 5. Procédé selon la revendication 4, caractérisé en ce que ledit premier motif vidéo et ledit au moins un deuxième motif vidéo sont générés par application d'au moins un coefficient de pondération audit premier motif vidéo initial.
  6. 6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ledit entrelacement spatial est réalisé selon deux dimensions.
  7. 7. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que ledit premier motif et ledit au moins un deuxième motif sont générés de manière à conserver une intensité lumineuse maximale dans au moins une zone de ladite au moins une partie de l'image sur laquelle ledit troisième motif est appliqué et à atténuer l'intensité lumineuse dans le reste de ladite au moins une partie de l'image, ladite au moins une zone comprenant au moins un pixel.
FR0956350A 2009-09-16 2009-09-16 Procede de traitement d'image Withdrawn FR2950182A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0956350A FR2950182A1 (fr) 2009-09-16 2009-09-16 Procede de traitement d'image
PCT/EP2010/063385 WO2011032913A1 (fr) 2009-09-16 2010-09-13 Procédé de traitement d'image
US13/496,479 US8803904B2 (en) 2009-09-16 2010-09-13 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0956350A FR2950182A1 (fr) 2009-09-16 2009-09-16 Procede de traitement d'image

Publications (1)

Publication Number Publication Date
FR2950182A1 true FR2950182A1 (fr) 2011-03-18

Family

ID=42116012

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0956350A Withdrawn FR2950182A1 (fr) 2009-09-16 2009-09-16 Procede de traitement d'image

Country Status (3)

Country Link
US (1) US8803904B2 (fr)
FR (1) FR2950182A1 (fr)
WO (1) WO2011032913A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5538849B2 (ja) * 2009-12-08 2014-07-02 キヤノン株式会社 画像表示装置、画像表示方法
US10547820B2 (en) * 2014-09-12 2020-01-28 Seek Thermal, Inc. Selective color display of a thermal image
CN105184826B (zh) * 2015-05-13 2018-04-10 京东方科技集团股份有限公司 一种判别图像亮度背景的方法、装置和显示装置
WO2019028067A1 (fr) 2017-08-04 2019-02-07 Seek Thermal, Inc. Modes d'affichage couleur pour un système d'imagerie thermique
CN114739321B (zh) * 2022-05-12 2023-01-24 中南大学 一种用于光栅精密测量的结构光条纹校正方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991426A (en) * 1998-12-18 1999-11-23 Signafy, Inc. Field-based watermark insertion and detection
EP1237138A1 (fr) * 1999-09-17 2002-09-04 Matsushita Electric Industrial Co., Ltd. Dispositif afficheur d'images
US20050253825A1 (en) * 2004-05-11 2005-11-17 Hitachi, Ltd. Video display apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1485904B1 (fr) * 2002-03-13 2012-08-29 Dolby Laboratories Licensing Corporation Dispositifs d'affichage a plage dynamique elevee
JP5224804B2 (ja) * 2007-12-27 2013-07-03 三星電子株式会社 撮像装置
KR100902908B1 (ko) * 2008-07-17 2009-06-15 엘지전자 주식회사 발광 소자 패키지 및 이를 이용한 백라이트 유닛

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991426A (en) * 1998-12-18 1999-11-23 Signafy, Inc. Field-based watermark insertion and detection
EP1237138A1 (fr) * 1999-09-17 2002-09-04 Matsushita Electric Industrial Co., Ltd. Dispositif afficheur d'images
US20050253825A1 (en) * 2004-05-11 2005-11-17 Hitachi, Ltd. Video display apparatus

Also Published As

Publication number Publication date
US8803904B2 (en) 2014-08-12
WO2011032913A1 (fr) 2011-03-24
US20120176547A1 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
DE102015003525B4 (de) Überauflösungs-Anzeige unter Benutzung von kaskadierten Tafeln
Lee et al. Tomographic near-eye displays
EP1292921B1 (fr) Raffinement d'un maillage triangulaire en trois dimensions
FR2950182A1 (fr) Procede de traitement d'image
FR2599873A1 (fr) Systeme d'affichage video
WO2017152398A1 (fr) Procédé et dispositif pour traiter une image de plage dynamique élevée
EP0667595B1 (fr) Procédé de génération d'images texturées et d'effets spéciaux en vidéo
WO2004012445A2 (fr) Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
JP2008058703A5 (fr)
FR2782592A1 (fr) Dispositif et procede de compression de donnees d'images recues a partir d'un capteur d'images a configuration bayer, et systeme utilisant ce dispositif
FR2964236A1 (fr) Dispositif et procede de generation d'images multifenetres a priorite variable
JP2008544306A (ja) ホログラムを合成するための信号処理システム
FR2887999A1 (fr) Procede et dispositif de visualisation autostereoscopique avec adaptation de la distance de vision optimale
FR2998126A1 (fr) Procede et dispositif de capture et de construction d'un flux d'images panoramiques ou stereoscopiques
FR3001600A1 (fr) Procede et dispositif de compression d'un signal d'image et procede et dispositif correspondant de decompression
EP1249133B1 (fr) Procede et dispositif de restitution d'un signal lumineux
EP1282078A1 (fr) Dispositif de traitement graphique d'objet vidéo
FR2565382A1 (fr) Appareil de reorganisation de donnees
CH690404A5 (fr) Récepteur de communication de données d'image
FR2910684A1 (fr) Procede d'adressage d'un afficheur a cristaux liquides en mode sequentiel couleur.
EP2444953A1 (fr) Dispositif d'affichage matriciel de deux images fusionnees
FR2666165A1 (fr) Procede de presentation d'images sur un ecran matriciel et systeme pour la mise en óoeuvre du procede.
WO2017148856A1 (fr) Procede de d'affichage d'une animation lors de la phase de demarrage d'un dispositif electronique et dispositif electronique associe
CN113784165A (zh) 短视频滤镜叠加方法、系统、电子设备及可读存储介质
EP1679899A1 (fr) Procédé et dispositif de réduction des artefacts d'une image numérique

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20110531