FR2978274A1 - Procede de traitement differencie de zones d'une image - Google Patents

Procede de traitement differencie de zones d'une image Download PDF

Info

Publication number
FR2978274A1
FR2978274A1 FR1156576A FR1156576A FR2978274A1 FR 2978274 A1 FR2978274 A1 FR 2978274A1 FR 1156576 A FR1156576 A FR 1156576A FR 1156576 A FR1156576 A FR 1156576A FR 2978274 A1 FR2978274 A1 FR 2978274A1
Authority
FR
France
Prior art keywords
pixels
pixel
image
window
differences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1156576A
Other languages
English (en)
Other versions
FR2978274B1 (fr
Inventor
Gregory Roffet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics Grenoble 2 SAS
Original Assignee
STMicroelectronics Grenoble 2 SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STMicroelectronics Grenoble 2 SAS filed Critical STMicroelectronics Grenoble 2 SAS
Priority to FR1156576A priority Critical patent/FR2978274B1/fr
Priority to US13/552,783 priority patent/US8903189B2/en
Priority to US13/552,720 priority patent/US8811741B2/en
Publication of FR2978274A1 publication Critical patent/FR2978274A1/fr
Application granted granted Critical
Publication of FR2978274B1 publication Critical patent/FR2978274B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

L'invention est relative à un procédé d'amélioration de la perception d'une image comprenant les étapes suivantes : opérer une séparation principale (16) des pixels de l'image en deux catégories, l'une correspondant à des pixels d'une zone à-plat (10), et l'autre correspondant à des pixels d'une zone texturée (12) ; et traiter les pixels de chaque catégorie selon un procédé (18, 20) optimisé en fonction du type de zone. Avant l'étape de séparation principale, on opère une séparation préliminaire (50) des pixels en une catégorie de pixels normaux orientés vers l'étape de séparation principale (16), et une catégorie de pixels singuliers, le critère de sélection des pixels singuliers étant adapté à identifier des pixels qui seraient incorrectement identifiés comme des pixels d'une zone texturée. Les pixels singuliers sont alors traités selon un procédé (52) adapté à leur nature.

Description

PROCEDE DE TRAITEMENT DIFFERENCIE DE ZONES D'UNE IMAGE Domaine technique de l'invention L'invention est relative au traitement d'image en vue d'améliorer sa perception visuelle.
Elle concerne plus particulièrement les traitements d'image réalisés au sein de systèmes embarqués, comme les appareils photo numériques, où l'on cherche une faible complexité de traitement et une basse consommation. État de la technique Parmi les traitements les plus courants pour améliorer la perception visuelle d'une image, on peut citer la réduction de bruit, l'amélioration de la netteté et l'amélioration de l'équilibre des luminosités et des contrastes. La qualité et l'utilité de chacun de ces traitements dépend des propriétés de l'image au voisinage de chaque pixel traité. On souhaite ainsi différencier des zones de l'image afin de choisir le traitement le plus adapté à chaque zone.
La figure 1 illustre une image comprenant deux types de zones qu'il est souhaitable de traiter de manières différentes : une zone à-plat 10, tel que le ciel, et une zone texturée 12, tel qu'un feuillage. Dans une zone à-plat, on privilégie la réduction de bruit, tandis que dans une zone texturée, on privilégie la netteté, la luminosité et les contrastes. On peut également utiliser des techniques de réduction de bruit adaptées aux zones texturées, comme celle décrite dans la demande de brevet US 2009141978. Les traitements d'image courants, du moins les plus simples qu'on préférera utiliser dans des systèmes embarqués, sont basés sur une fenêtre de référence, couramment dénommée « kernel », définie autour de chaque pixel à traiter La figure 2 représente une telle fenêtre. C'est un carré de 5x5 pixels de l'image, au 25 centre duquel se trouve le pixel à traiter. Cette taille de fenêtre est courante - elle offre un bon compromis de complexité. La figure 3 représente un flot de traitement d'une fenêtre de référence 14, permettant un traitement différencié en fonction de la nature de la zone dans laquelle se trouve le pixel en cours de traitement. En 16, on calcule à partir de la fenêtre un critère représentatif de 30 l'appartenance du pixel à une zone à-plat (10 à la figure 1). Si le critère n'est pas satisfait, le pixel est considéré comme appartenant à une zone texturée (12), et la fenêtre 14 subit en 18 un traitement adapté aux zones texturées. Si le critère est satisfait, la fenêtre subit en 20 un traitement adapté aux zones à-plat. Le traitement 18 ou 20 produit un pixel unique Pxo' t, remplaçant le pixel en cours dans la nouvelle image. Un exemple de critère de sélection peut être le suivant. Comme cela est représenté à la figure 2, on calcule pour chaque pixel i de la fenêtre de référence la différence d; entre ce pixel et le pixel central, qui est le pixel à traiter. Dans le cas d'une fenêtre 5x5, on obtient 24 différences di à d24, la différence, nulle, pour le pixel central n'étant pas comptabilisée. Les différences sont calculées en termes de luminance. On considère alors que le pixel à traiter appartient à une zone à-plat si le nombre de différences inférieures à un seuil de luminance est proche du nombre de pixels de la 10 fenêtre (par exemple au moins égal à 22 dans le cas d'une fenêtre 5x5). Il s'avère que de tels algorithmes classent mal certains pixels. Par exemple, si les pixels de la fenêtre sont tous semblables sauf le pixel central, toutes les différences ont une valeur élevée, de sorte que le critère ci-dessus classe le pixel comme n'appartenant pas à une zone à-plat, alors qu'il s'agit manifestement d'un pixel erroné dans une zone à-plat. 15 Le pixel est donc classé comme appartenant à une zone texturée. La zone texturée subit ensuite des traitements comme l'amélioration de la netteté, qui auront pour conséquence d'amplifier la singularité du pixel mal classé, le rendant encore plus visible. Des algorithmes plus complexes permettraient d'identifier cet exemple particulier pour apporter une correction. Rappelons néanmoins que, dans le cadre des systèmes 20 embarqués, on souhaite limiter la complexité des algorithmes. En outre, on ne mentionne ci-dessus qu'un cas singulier frappant ; il existe des cas plus subtils où les pixels sont mal classés et occasionnent également des artéfacts visuels désagréables. La figure 4 représente schématiquement un exemple plus détaillé d'un flot de traitement 18 des pixels classés comme appartenant à une zone texturée. Une mémoire RAM sert 25 d'espace de travail temporaire et stocke des parties d'image en cours de traitement. Une mémoire non-volatile NVM stocke les images originales et reçoit les images après traitement. Un premier traitement NR consiste, par exemple, en une réduction de bruit adaptative optimisée pour les zones texturées, telle que décrite dans la demande de brevet US 30 2009141978. Ce traitement travaille sur des fenêtres de référence 14 lues dans l'image originale, par exemple des fenêtres de 5x5 pixels contenant le pixel à traiter en leur centre. Les pixels à traiter ont été identifiés par l'étape de décision 16 à la figure 3. Le traitement calcule un pixel unique à partir de la fenêtre, lequel pixel est stocké dans la mémoire RAM. L'étape suivante SHARP est, par exemple, une augmentation de la netteté. Ce traitement travaille également sur une fenêtre de référence, 14.2, qui peut être de taille différente de la fenêtre 14. La fenêtre 14.2 est lue dans la mémoire RAM lorsque le traitement NR a produit les pixels la constituant. Le traitement SHARP calcule un pixel unique à partir de la fenêtre 14.2, lequel pixel est écrit dans la mémoire RAM. L'étape suivante USM est, par exemple, une augmentation de l'acutance qui est caractérisée par une augmentation du contraste local ainsi qu'une accentuation des transitions entre deux couleurs adjacentes. Cette technique est couramment désignée par l'acronyme USM (du terme anglais « UnSharp Mask »). Comme les traitements précédents, le traitement USM travaille sur une fenêtre de référence 14.3, lue dans la mémoire RAM lorsque le traitement précédent aura produit tous les pixels de cette fenêtre. Le traitement USM produit à partir de la fenêtre 14.3 un pixel unique constitutif de l'image traitée finale, qui est écrit par exemple dans la mémoire non volatile NVM. On s'aperçoit que chaque traitement a besoin de travailler sur des pixels constitutifs d'une image intermédiaire produite par le traitement précédent. Avec trois traitements, on a besoin de deux images intermédiaires, dont les zones nécessaires sont stockées dans la mémoire RAM. Cette mémoire RAM est généralement une mémoire à accès rapide pour ne pas ralentir les traitements ; il n'est généralement pas envisageable de stocker les images intermédiaires dans la mémoire non-volatile NVM, car de telles mémoires sont à accès trop lent. Résumé de l'invention On souhaite disposer d'un procédé de traitement différencié par zones qui ne produise 25 pas d'artefacts visibles tout en étant de faible complexité. On tend à satisfaire ce besoin en prévoyant un procédé d'amélioration de la perception d'une image comprenant les étapes consistant à opérer une séparation principale des pixels de l'image en deux catégories, l'une correspondant à des pixels d'une zone à-plat, et l'autre correspondant à des pixels d'une zone texturée ; et à traiter les pixels de 30 chaque catégorie selon un procédé optimisé en fonction du type de zone. Avant l'étape de séparation principale, on opère une séparation préliminaire des pixels en une catégorie de pixels normaux orientés vers l'étape de séparation principale, et une catégorie de pixels singuliers, le critère de sélection des pixels singuliers étant adapté à identifier des pixels qui seraient incorrectement identifiés comme des pixels d'une zone texturée. Les pixels singuliers sont alors traités selon un procédé adapté à leur nature. Selon un mode de mise en oeuvre, la séparation préliminaire comprend les étapes consistant à obtenir une fenêtre de référence autour du pixel en cours d'analyse ; à calculer la différence entre chaque pixel de la fenêtre de référence et le pixel en cours ; et à identifier le pixel en cours comme un pixel singulier si l'une quelconque des conditions suivantes est vérifiée : - le nombre de différences non nulles de signe positif est proche du nombre de pixels de la fenêtre ; - le nombre de différences non nulles de signe négatif est proche du nombre de pixels de la fenêtre ; - le nombre de différences non nulles de signe positif est proche du nombre de différences non nulles de signe négatif ; et - la dynamique en luminance de la fenêtre de référence est inférieure à un seuil.
Selon un mode de mise en oeuvre, le traitement de chaque pixel singulier comprend les étapes consistant à calculer quatre sommes de différences, une première égale à la somme des différences correspondant aux pixels nord et sud de la fenêtre de référence, une deuxième égale à la somme des différences correspondant aux pixels est et ouest, une troisième égale à la somme des différences correspondant aux pixels nord-ouest et sud-est, et la quatrième égale à la somme des différences correspondant aux pixels nord-est et sud-ouest ; à trouver la somme minimale ; et à calculer le pixel courant comme moyenne de pixels situés sur l'axe des pixels correspondant à la somme minimale. On souhaite par ailleurs diminuer les ressources mémoire nécessaires lorsqu'une image d'origine, ou une zone de celle-ci, subit une série de traitements indépendants, chacun produisant un pixel calculé à partir d'une fenêtre de référence respective. Pour cela, les fenêtres de référence comprennent toutes des pixels de l'image d'origine. Selon un mode de mise en oeuvre, les traitements sont effectués en parallèle et un pixel résultant est produit comme une combinaison des pixels respectifs produits par les traitements.
Selon un mode de mise en oeuvre, le procédé comprend l'étape consistant à remplacer un pixel clé de la fenêtre de référence servant à un traitement courant par le pixel produit par le traitement précédent. Selon un mode de mise en oeuvre, les traitements sont opérés sur une zone d'image 5 texturée et comprennent une réduction de bruit adaptative, une augmentation de netteté, et une amélioration de l'acutance utilisant les masques flous. Description sommaire des dessins Des modes de réalisation seront exposés dans la description suivante, faite à titre non limitatif en relation avec les figures jointes parmi lesquelles : 10 - la figure 1, précédemment décrite, représente une image comportant deux zones que l'on souhaite soumettre à des traitements distincts ; - la figure 2, précédemment décrite, représente une fenêtre de référence utilisée par un critère d'identification de type de zone ; - la figure 3, précédemment décrite, représente un exemple de flot de traitement 15 différencié de deux zones d'une image ; - la figure 4, précédemment décrite, représente un flot de traitement classique d'une zone texturée d'une image ; - la figure 5 représente un flot de traitement d'une image basé sur une pré-identification de pixels singuliers qui subiront un traitement spécifique ; 20 - la figure 6 représente une utilisation d'une fenêtre de référence pour le traitement des pixels singuliers ; - la figure 7A représente un mode de réalisation de flot de traitement d'une zone texturée, optimisé pour limiter les ressources mémoire ; et - la figure 7B représente un deuxième mode de réalisation de flot de traitement 25 optimisé. Description d'un mode de réalisation préféré de l'invention La figure 5 représente schématiquement un flot de traitement différencié de zones d'une image, dans lequel on effectue une présélection de pixels singuliers qui sont extraits du flot principal pour subir un traitement spécifique.
On vise à extraire du flot principal les pixels susceptibles d'être classés par erreur dans une catégorie tendant à produire des artefacts visuels, notamment la catégorie correspondant à une zone texturée. Une erreur de classification inverse, c'est-à-dire classer un pixel comme appartenant à une zone à-plat alors qu'il appartient à une zone texturée, n'a pas de conséquences visuelles notables, et on ne cherche pas ici à identifier de tels pixels. En pratique, on sépare ainsi les pixels de l'image en trois catégories distinctes, chacune soumise à un traitement adapté. Le flot principal correspond, par exemple, à celui de la figure 3. Ainsi, en 16 on décide 10 de la catégorie du pixel selon un critère classique, simple, et, en fonction du résultat, on le dirige vers un traitement adapté aux textures, en 18, ou aux à-plats, en 20. Une étape de décision ou présélection 50 est prévue en amont de l'étape 16. Les fenêtres de référence 14 de l'image originale y sont confrontées à un critère de singularité. Si le pixel est classé comme singulier, il est extrait du flot normal et dirigé 15 vers un traitement adapté en 52. Le traitement 52, comme les traitements 18 et 20, produit un pixel unique Pxout calculé à partir de la fenêtre de référence. Bien entendu, si le pixel n'est pas classé comme singulier, il est dirigé vers le flot normal, passant par la séparation en 16. De façon générale, le critère de singularité est élaboré pour détecter les pixels qui 20 seraient mal classés à l'étape 16, notamment les pixels appartenant à un à-plat qui seraient classés comme appartenant à une texture. Un exemple de critère de singularité, qui a l'avantage d'être simple, est le suivant. Comme pour le critère de séparation à-plat/texture décrit en relation avec la figure 2, on calcule pour chaque pixel i de la fenêtre de référence la différence d; entre le pixel i et le 25 pixel central. Ces différences serviront ensuite à l'étape 16, le cas échéant. Un pixel est alors considéré comme singulier si l'une quelconque des conditions suivantes est satisfaite : 1. le nombre de différences non nulles de signe positif est proche du nombre de pixels de la fenêtre ; 30 2. le nombre de différences non nulles de signe négatif est proche du nombre de pixels de la fenêtre ; 3. le nombre de différences non nulles de signe positif est proche du nombre de différences non nulles de signe négatif ; et 4. la dynamique en luminance de la fenêtre de référence est de faible amplitude. Par «proche » on entend un écart de quelques unités entre les nombres, en fonction de la taille de la fenêtre. Pour une fenêtre de 5x5, on peut considérer que les nombres sont proches si l'écart est inférieur ou égal à 2, c'est-à-dire de l'ordre de 10 % du nombre de pixels de la fenêtre. L'écart choisi dans chaque condition pourra être optimisé par essais successifs ou par des analyses statistiques. La quatrième composante peut être traduite par dmax - dm;,, < L, où d.), et d,,,;,, sont respectivement la différence maximale et la différence minimale trouvées dans la fenêtre de référence, et L est un seuil de luminance, par exemple de l'ordre de 20 % de la dynamique maximale. Cette composante permet d'exclure des pixels réguliers très contrastés de l'image, comme des points de lumière sur une surface sombre ou des trous sur une surface claire. De tels pixels seront convenablement traités dans le flot normal, où ils seront classés comme appartenant à une texture. Le traitement effectué en 52 pourrait être le traitement réservé aux à-plats en 20, généralement une réduction de bruit par effet de moyenne calculée sur les pixels de la fenêtre. En effet, un pixel singulier pourrait être un pixel distordu par du bruit. Néanmoins, le critère susmentionné, notamment sa troisième ou quatrième composante, permet de détecter également des pixels se trouvant sur une transition entre des zones de luminosités distinctes, qui seraient également détectés en 16 comme appartenant à une texture. Une telle détection en 16 n'est pas forcément erronée, puisqu'on peut considérer qu'une transition entre deux éléments de texture appartient à la texture. Cependant, on s'est aperçu qu'on obtient de meilleurs résultats en traitant de tels pixels par un calcul de moyenne directionnelle. La figure 6 illustre un exemple d'utilisation des pixels de la fenêtre de référence pour effectuer un calcul simple de moyenne directionnelle. Dans la fenêtre de référence, on conserve neuf pixels : le pixel central et les pixels nord N, sud S, est E, ouest W, nord- ouest NW, nord-est NE, sud-ouest SW, et sud-est SE, c'est-à-dire qu'on forme une fenêtre de référence réduite de 3x3 pixels. On calcule la somme des différences pour chaque couple de pixels opposés de la fenêtre réduite, à savoir dii+d14 (ou dw+dE), di+d24 (ou dNw+dsE), d3+d22 (ou dN+ds), et ds+d20 (ou dNE+dsw). Le pixel sortant Pxo'r est alors calculé comme la moyenne des pixels correspondant à la somme minimale des différences. Par exemple, si la somme minimale est dN+ds, on a : Px.t = (PxN+Pxs)/2. Selon une variante, on fait intervenir la valeur du pixel central Px, : 5 Px.t = (PxN+Pxs+ Pxs)/3. Selon une autre variante, on calcule la moyenne de deux pixels, ou de tous les pixels, se trouvant sur l'axe des deux pixels correspondant à la somme minimale. Comme on l'a précédemment évoqué en relation avec la figure 4, lorsqu'un traitement comporte l'application en succession de plusieurs algorithmes indépendants, ce qui est 10 habituel pour traiter des zones texturées, chaque algorithme stocke classiquement dans une mémoire volatile une portion d'image intermédiaire, requise par l'algorithme suivant. Il est constant de chercher à diminuer la taille de la mémoire volatile, notamment dans les systèmes embarqués. Cela diminue la surface des circuits et la consommation. 15 La figure 7A représente schématiquement un mode de réalisation de flot de traitement permettant de réduire la taille de la mémoire volatile. Le principe à la base de ce flot est d'utiliser pour les algorithmes successifs des fenêtres de référence dont les pixels sont pris dans l'image d'origine, et de ne manipuler à chaque étape que le pixel produit par l'étape précédente. 20 Par exemple, à la figure 7A, pour chaque pixel à traiter, on lit une fenêtre de référence 14 dans la mémoire MEM contenant l'image d'origine. Cette fenêtre est traitée de manière classique par le premier algorithme NR, tel qu'une réduction de bruit adaptative, qui produit un premier pixel intermédiaire Px2. On reconstitue une fenêtre de référence 14.2' en reprenant la fenêtre 14 et en remplaçant son pixel clé, généralement 25 le pixel central, par le pixel Px2. Cette fenêtre 14.2' alimente l'algorithme suivant SHARP, par exemple une amélioration de netteté, qui produit un nouveau pixel intermédiaire Px3. On reconstitue une nouvelle fenêtre de référence 14.3', pour l'algorithme suivant USM, en reprenant la fenêtre d'origine 14 et en remplaçant son pixel clé par le pixel Px3.
En procédant ainsi, on n'a besoin de stocker que la fenêtre de référence 14 dans une mémoire rapide, cette fenêtre étant réutilisée par chaque algorithme de la chaîne de traitement. La taille de la fenêtre de référence peut dépendre de l'algorithme utilisé. Quelle que soit 5 sa taille, ses pixels sont tous pris dans l'image d'origine, ce qui simplifie la gestion de fenêtres de tailles différentes. Le temps de traitement est par ailleurs notablement accéléré, puisqu'un algorithme dans la chaîne n'a plus besoin d'attendre que l'algorithme précédent produise tous les pixels de sa fenêtre de référence. Cette fenêtre de référence est prête dès que son pixel clé est 10 produit par l'algorithme précédent. Bien entendu, les algorithmes à partir du deuxième de la chaîne n'opèrent pas sur les mêmes pixels que dans le flot classique de la figure 4. On s'attend donc à une image résultante différente. Il s'avère que l'image résultante, même si elle est en effet différente dans certains cas, offre une perception visuelle satisfaisante sinon meilleure.
15 La figure 7B représente schématiquement un deuxième mode de réalisation de flot de traitement permettant de réduire la taille de la mémoire volatile. Par rapport à la figure 7A, au lieu d'inclure le pixel sortant d'un algorithme au centre de la fenêtre de référence pour l'algorithme suivant, chaque algorithme est utilisé en parallèle sur une fenêtre intégralement formée de pixels de l'image d'origine, y compris le pixel clé. Les pixels 20 produits indépendamment par les algorithmes sont combinés par un processus ou circuit WAVG pour produire le pixel sortant Pxo' t. Cette combinaison peut être une somme pondérée. Dans le cadre d'un traitement usuel comprenant une réduction de bruit (NR), une augmentation de la netteté (SHARP), et une amélioration de l'acutance (USM), on utilise à titre d'exemple des valeurs respectives de 1, 1/32 et 1/64 pour les coefficients 25 de pondération. Le résultat final est différent de celui produit par les flots des figures 4 et 7A, mais la perception visuelle de l'image est également satisfaisante.

Claims (7)

  1. REVENDICATIONS1. Procédé d'amélioration de la perception d'une image comprenant les étapes suivantes : - opérer une séparation principale (16) des pixels de l'image en deux catégories, l'une correspondant à des pixels d'une zone à-plat (10), et l'autre correspondant à des pixels d'une zone texturée (12) ; et - traiter les pixels de chaque catégorie selon un procédé (18, 20) optimisé en fonction du type de zone ; caractérisé en ce qu'il comprend les étapes suivantes : - avant l'étape de séparation principale, opérer une séparation préliminaire (50) des pixels en une catégorie de pixels normaux orientés vers l'étape de séparation principale (16), et une catégorie de pixels singuliers, le critère de sélection des pixels singuliers étant adapté à identifier des pixels qui seraient incorrectement identifiés comme des pixels d'une zone texturée ; et - traiter les pixels singuliers selon un procédé (52) adapté à leur nature.
  2. 2. Procédé selon la revendication 1, dans lequel la séparation préliminaire comprend les étapes suivantes : - obtenir une fenêtre de référence (14) autour du pixel en cours d'analyse ; - calculer la différence (d) entre chaque pixel de la fenêtre de référence et le pixel en cours ; et - identifier le pixel en cours comme un pixel singulier si l'une quelconque des conditions suivantes est vérifiée : le nombre de différences non nulles de signe positif est proche du nombre de pixels de la fenêtre ; - le nombre de différences non nulles de signe négatif est proche du nombre de pixels de la fenêtre ; 10 le nombre de différences non nulles de signe positif est proche du nombre de différences non nulles de signe négatif ; et la dynamique en luminance de la fenêtre de référence est inférieure à un seuil.
  3. 3. Procédé selon la revendication 2, dans lequel le traitement de chaque pixel singulier comprend les étapes suivantes : - calculer quatre sommes de différences, une première égale à la somme des différences correspondant aux pixels nord et sud de la fenêtre de référence, une deuxième égale à la somme des différences correspondant aux pixels est et ouest, une troisième égale à la somme des différences correspondant aux pixels nord-ouest et sud-est, et la quatrième égale à la somme des différences correspondant aux pixels nord-est et sud-ouest ; - trouver la somme minimale ; et - calculer le pixel courant comme moyenne de pixels situés sur l'axe des pixels 15 correspondant à la somme minimale.
  4. 4. Procédé selon la revendication 1, comprenant les étapes suivantes pour traiter une zone texturée de l'image d'origine : - faire subir à chaque pixel de la zone texturée une série de traitements indépendants, chacun produisant un pixel calculé à partir d'une fenêtre de 20 référence respective (14, 14.2') ; et - prendre les pixels des fenêtres de référence (14, 14.2') dans l'image d'origine.
  5. 5. Procédé selon la revendication 4, comprenant l'étape consistant à produire un pixel final (Pxo' t) comme une combinaison des pixels individuels produits par les traitements indépendants. 25
  6. 6. Procédé selon la revendication 4, dans lequel les traitements sont effectués en parallèle et un pixel résultant (Pxo' t) est produit comme somme pondérée des pixels respectifs produits par les traitements.
  7. 7. Procédé selon la revendication 5 ou 6, dans lequel les traitements sont opérés sur une zone d'image texturée (12) et comprennent une réduction de bruit adaptative (NR), une augmentation de netteté (SHARP), et une amélioration de l' acutance utilisant les masques flous (USM).
FR1156576A 2011-07-20 2011-07-20 Procede de traitement differencie de zones d'une image Expired - Fee Related FR2978274B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1156576A FR2978274B1 (fr) 2011-07-20 2011-07-20 Procede de traitement differencie de zones d'une image
US13/552,783 US8903189B2 (en) 2011-07-20 2012-07-19 Image processing method
US13/552,720 US8811741B2 (en) 2011-07-20 2012-07-19 Differentiated processing method of image zones

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1156576A FR2978274B1 (fr) 2011-07-20 2011-07-20 Procede de traitement differencie de zones d'une image

Publications (2)

Publication Number Publication Date
FR2978274A1 true FR2978274A1 (fr) 2013-01-25
FR2978274B1 FR2978274B1 (fr) 2013-08-30

Family

ID=44903260

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1156576A Expired - Fee Related FR2978274B1 (fr) 2011-07-20 2011-07-20 Procede de traitement differencie de zones d'une image

Country Status (2)

Country Link
US (1) US8811741B2 (fr)
FR (1) FR2978274B1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2978274B1 (fr) 2011-07-20 2013-08-30 St Microelectronics Grenoble 2 Procede de traitement differencie de zones d'une image
US8903189B2 (en) * 2011-07-20 2014-12-02 Stmicroelectronics (Grenoble 2) Sas Image processing method
US9582861B2 (en) 2015-04-10 2017-02-28 Stmicroelectronics (Grenoble 2) Sas Image processing technique using high frequency data analysis to filter low frequency data by dynamic kernel adjustment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020172431A1 (en) * 2001-03-07 2002-11-21 Atkins C. Brian Digital image appearance enhancement and compressibility improvement method and system
US20090141978A1 (en) * 2007-11-29 2009-06-04 Stmicroelectronics Sa Image noise correction
US20100074548A1 (en) * 2008-09-23 2010-03-25 Sharp Laboratories Of America, Inc. Image sharpening technique

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7428333B2 (en) 2004-01-23 2008-09-23 Old Dominion University Visibility improvement in color video stream
CA2616875A1 (fr) * 2004-07-30 2006-02-02 Algolith Inc. Appareil et procede de reduction d'artefact 3d adaptative pour signal d'image code
JP4710635B2 (ja) * 2006-02-07 2011-06-29 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
WO2007096168A2 (fr) * 2006-02-22 2007-08-30 Sony Deutschland Gmbh Procédé pour distinguer des zones de texture et des zones homogènes ou planes dans une image et procédés d'estimation de bruit dans une séquence d'images
US7711199B2 (en) * 2006-03-16 2010-05-04 Samsung Electronics Co., Ltd. Method for estimating quantization factor of compressed digital image
JP4874904B2 (ja) * 2007-09-13 2012-02-15 株式会社東芝 画像処理装置及びその方法
US8189933B2 (en) * 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8548257B2 (en) 2009-01-05 2013-10-01 Apple Inc. Distinguishing between faces and non-faces
US8320636B2 (en) 2009-01-05 2012-11-27 Apple Inc. Detecting image detail level
US8903189B2 (en) 2011-07-20 2014-12-02 Stmicroelectronics (Grenoble 2) Sas Image processing method
FR2978274B1 (fr) 2011-07-20 2013-08-30 St Microelectronics Grenoble 2 Procede de traitement differencie de zones d'une image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020172431A1 (en) * 2001-03-07 2002-11-21 Atkins C. Brian Digital image appearance enhancement and compressibility improvement method and system
US20090141978A1 (en) * 2007-11-29 2009-06-04 Stmicroelectronics Sa Image noise correction
US20100074548A1 (en) * 2008-09-23 2010-03-25 Sharp Laboratories Of America, Inc. Image sharpening technique

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUILLON S ET AL: "Adaptive nonlinear filters for 2D and 3D image enhancement", SIGNAL PROCESSING, ELSEVIER SCIENCE PUBLISHERS B.V. AMSTERDAM, NL, vol. 67, no. 3, 30 June 1998 (1998-06-30), pages 237 - 254, XP004129654, ISSN: 0165-1684, DOI: 10.1016/S0165-1684(98)00042-5 *
REINHARD KLETTE: "Local Operators", INTERNET CITATION, August 2006 (2006-08-01), pages 1 - 16, XP002668818, Retrieved from the Internet <URL:http://www.cs.auckland.ac.nz/~rklette/TeachAuckland.html/mm/MI09slides.p> [retrieved on 20100203] *

Also Published As

Publication number Publication date
US20130022269A1 (en) 2013-01-24
US8811741B2 (en) 2014-08-19
FR2978274B1 (fr) 2013-08-30

Similar Documents

Publication Publication Date Title
EP0054596B1 (fr) Procédé d&#39;inspection et de tri automatique d&#39;objets présentant des configurations avec des tolérances dimensionnelles et des critères de rejet variables selon l&#39;emplacement, équipement et circuits de mise en oeuvre
EP0054598B1 (fr) Procédé d&#39;inspection et de tri automatique d&#39;objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
WO2005122086A2 (fr) Reduction de bruit d’image numerique
EP2652702B1 (fr) Méthode de détection et de quantification du flou dans une image numérique
FR3030042A1 (fr) Procede de detection de defaut sur une surface de pneumatique
FR2731819A1 (fr) Methode d&#39;extraction de contours utilisant une analyse multi-fractale
FR3081244A1 (fr) Procede de reconnaissance de caracteres
FR2905188A1 (fr) Procede et dispositif de conversion de densites d&#39;image
EP2203871A1 (fr) Procede de detection d&#39;une cible
CA3043090A1 (fr) Procede de reconnaissance de caracteres
FR2978274A1 (fr) Procede de traitement differencie de zones d&#39;une image
WO2019186073A1 (fr) Methode de detection de cellules presentant au moins une anomalie dans un echantilllon cytologique
EP0926625B1 (fr) Procédé de traitement d&#39;image incluant des étapes de filtrage spatio-temporel du bruit et appareil d&#39;imagerie médicale mettant en oeuvre ce procédé
EP0769760B1 (fr) Procédé de détection automatique des zones expertisables dans des images de pièces mécaniques
EP2887307B1 (fr) Procédé de traitement d&#39;images, notamment issues de systèmes de visualisation de nuit et système associé
CA2965323C (fr) Procede de detection de pixels defectueux.
FR2978275A1 (fr) Procede de traitement d&#39;image
EP1544793B1 (fr) Procédé et système d&#39;amélioration de la qualité d&#39;images numériques surexposées
FR2823943A1 (fr) Procede de detection de bruit dans un flux de donnees video codees
FR2817694A1 (fr) Procede et dispositif de lissage spatial pour les zones sombres d&#39;une image
EP1129432B1 (fr) Procede de comparaison d&#39;images enregistrees formees de pixels representant des equipotentielles d&#39;au moins une puce de circuit integre
FR2910673A1 (fr) Procede de traitement d&#39;image et dispositif implementant ledit procede
Singh et al. An optimized approach for underwater image dehazing and colour correction
FR3048800A1 (fr) Procede de traitement d&#39;images
EP4189602A1 (fr) Procédé de contrôle automatique de qualité d&#39;une pièce aéronautique

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20160331