FR2719141A1 - Méthode et appareil pour occultation des détails d'une image. - Google Patents

Méthode et appareil pour occultation des détails d'une image. Download PDF

Info

Publication number
FR2719141A1
FR2719141A1 FR9504943A FR9504943A FR2719141A1 FR 2719141 A1 FR2719141 A1 FR 2719141A1 FR 9504943 A FR9504943 A FR 9504943A FR 9504943 A FR9504943 A FR 9504943A FR 2719141 A1 FR2719141 A1 FR 2719141A1
Authority
FR
France
Prior art keywords
region
image
core
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9504943A
Other languages
English (en)
Other versions
FR2719141B3 (fr
Inventor
Cok Ronald
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of FR2719141A1 publication Critical patent/FR2719141A1/fr
Application granted granted Critical
Publication of FR2719141B3 publication Critical patent/FR2719141B3/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

L'invention est relative à l'occultation de détails dans une région concernée d'une image. Un opérateur désigne une région concernée de forme particulière et un calculateur permet d'extraire des détails situés à l'extérieur de la région et à les transférer à l'intérieur de la région, tout en combinant les informations contenues dans la région avec les informations provenant de l'extérieur. Le noyau peut être conçu de manière à correspondre à la forme de la région afin de garantir un calcul efficace. Lorsque la région concernée est occultée, l'image est imprimée et le résultat obtenu est une image imprimée exempte des détails indésirables. Application à la réalisation d'images exemptes de détails indésirables.

Description

% 1 2719141
METHODE ET APPAREIL POUR OCCULTATION
DES DETAILS D'UNE IMAGE
Historique de l'invention Domaine de l'invention La présente invention se rapporte à un système pour occulter automatiquement des détails indésirables dans une région d'image, sachant que ce système combine une fonction de convolution et une fonction d'érosion pour extraire des détails situés à l'extérieur de la région et les transférer dans la région à l'aide d'un noyau de conception spéciale, c'est-à-dire une région concernée adaptée pour réduire les artefacts tout en occultant des détails indésirables et des
informations locales.
Description de l'état de l'art correspondant
Les techniques de traitement d'images, qui améliorent l'aspect des images, sont bien connues. Les méthodes, permettant la réduction globale des informations dans une image, sont également bien connues. Par exemple, il est possible de réduire la netteté d'une image en rendant l'ensemble de l'image plus flou au moyen d'une fonction de convolution dont les éléments de noyau choisis sont adaptés au besoin particulier. Il est également possible de générer des informations décrivant une image, en appliquant des
algorithmes qui calculent divers détails dans une image.
Par exemple, il est possible d'utiliser des applications successives d'opérations d'érosion et de dilatation pour
2 2719141
extraire des informations relatives à la structure des
détails au sein d'une image.
Les techniques permettant l'enrichissement local d'informations d'image sont également bien connues. Le but de telles techniques est de chercher à améliorer la qualité apparente d'une image dans une zone limitée ou de tenter d'extraire des informations concernant un objet dans une image. Il existe également de nombreuses méthodes standards permettant d'éliminer des informations d'image, qui reposent sur l'interaction d'un opérateur. Des outils logiciels de mise au net d'images assurent une fonction d'aérographe, des opérations de clonage et autres opérations similaires pour éliminer des détails d'image sous le contrôle artistique direct de l'opérateur. De telles méthodes ne sont pas automatisées et s'appliquent
toutes sous le contrôle de l'opérateur.
Les opérations automatiques, qui tentent d'occulter efficacement des portions d'une image (indiquées par un opérateur), tout en laissant le reste de l'image intact,
sont plus difficiles à réaliser (et moins sophistiquées).
De telles opérations doivent éviter la destruction de
l'aspect général de l'image ou de compromettre sa qualité.
Malgré cela, la portion d'image occultée ne doit pas être évidente à l'oeil et, lorsqu'elle est examinée plus attentivement, elle doit apparaitre comme une partie
normale de l'image, mais sans les détails indésirables.
Le but est d'obtenir une opération automatique qui permette de fusionner des informations situées à l'extérieur d'une région avec des informations situées à l'intérieur de la région o l'on doit occulter les détails indésirables, tout en conservant certaines des caractéristiques des informations dans la région et en
veillant à l'aspect esthétique de l'image.
RESUME DE L'INVENTION
La présente invention a pour objet: de proposer une méthode permettant d'occulter des détails indésirables dans
3 2719141
une image sans dégrader la qualité globale de l'image, ni créer des artefacts occultants, ni générer des discontinuités perceptibles au sein de l'image; de permettre à un utilisateur de désigner des régions d'une image qui comportent des informations indésirables et de traiter les régions de manière à occulter les détails indésirables tout en conservant l'aspect esthétique de l'image; de proposer un système qui utilise une forme d'une région à occulter, qui améliore la qualité perçue de l'image finale en réduisant les artefacts de traitement; de proposer un noyau qui améliore l'efficacité du procédé d'occultation; de fusionner des informations situées à l'extérieur d'une région avec des informations situées à l'intérieur de la région o l'on veut éliminer des détails indésirables
dans les informations contenues dans la région.
Les objectifs mentionnés ci-dessus peuvent être atteints grâce à une méthode et à un système permettant d'occulter des détails d'une image dans une région concernée désignée par l'utilisateur. Le procédé comprend la détermination, par un opérateur utilisant un calculateur, d'une région concernée présentant une forme particulière, et la convolution automatique par le calculateur utilisant un noyau de conception spéciale avec les données d'image. Le noyau est destiné à extraire des détails situés à l'extérieur des limites d'une région et à les transférer vers la région, permettant ainsi à la région de se confondre naturellement avec l'environnement, sans pour autant éliminer complètement les détails de l'image dans la région. Le noyau est également destiné à effectuer un calcul efficace nécessitant uniquement des additions et des décalages. Le noyau est appliqué de façon itérative, de la bordure de la région vers le centre. Une fois que la région concernée est occultée, l'image ne comportera plus de détails indésirables et pourra alors être visualisée ou imprimée. Ces éléments, associés à d'autres caractéristiques et avantages qui apparaîtront par la suite, résident dans les détails de construction et de fonctionnement tels qu'ils seront ci-après plus clairement décrits et revendiqués, en faisant référence aux dessins d'accompagnement qui font partie intégrante du présent document, dessins dans lesquels les mêmes numéros de référence se rapportent aux
mêmes éléments.
DESCRIPTION SUCCINCTE DES DESSINS
La figure 1 décrit les composants matériels classiques de la présente invention; la figure 2 décrit les étapes du procédé de la présente invention; la figure 3 illustre une image à laquelle l'invention doit être appliquée; la figure 4 décrit une zone en cours de traitement; les figures 5A à 5D illustrent des noyaux appliqués à l'image de la figure 4; la figure 6 décrit un premier niveau de traitement; la figure 7A illustre un noyau appliqué à l'image; la figure 7B décrit les résultats du traitement; la figure 8 illustre un premier niveau de résultats traités; la figure 9 illustre un second niveau; la figure 10 décrit un niveau final; les figures 11 à 13 décrivent différents niveaux finaux; les figures 14A à 14D décrivent des noyaux réduits; la figure 15 décrit une région concernée elliptique; les figures 16A et 16B illustrent la numérisation de la région d'image; les figures 17A à 17D et 18A à 18D illustrent les noyaux appliqués à la région elliptique; la figure 19 décrit des pixels devant être traités; la figure 20 illustre les résultats du traitement des pixels de la figure 19; la figure 21 décrit la procédure de sélection des noyaux; la figure 22 illustre les résultats de traitement relatifs à l'ensemble du premier niveau; la figure 23 illustre deux niveaux de traitement; la figure 24 illustre trois niveaux de traitement; et
la figure 25 décrit tous les pixels traités.
DESCRIPTION DES MODES DE REALISATION PREFERENTIELS
La présente invention, telle qu'illustrée dans la figure 1, comprend un appareil photographique 10, tel que l'appareil photographique DCS200 de Eastman Kodak Company, qui enregistre une image 12 d'environ 4 Mo comportant des détails indésirables. Bien qu'une source d'image d'appareil photographique soit indiquée, la source d'images pourrait être un autre dispositif, tel qu'un dispositif de mémorisation d'images, par exemple: un disque compact. Dès qu'elle est reçue, l'image 12 est mémorisée dans un calculateur 14, tel que le poste de travail SUNSPARK de Sun Microsystems ou le processeur EktronBOSS de Kodak muni d'accélérateurs matriciels de processus, et utilisé pour piloter un afficheur 16. Un opérateur 18, par l'intermédiaire d'une procédure et d'un dispositif d'entrée classiques, par exemple: une souris, définit l'emplacement et la taille de la région concernée dans
l'image 12 dans laquelle des détails doivent être occultés.
La désignation de la région est mémorisée dans un emplacement 22 de la mémoire du calculateur 14. Lorsque toutes les régions nécessitant une occultation dans l'image 12 sont désignées, un processus d'occultation 24, utilisant la désignation de la région 22 et un noyau 26, effectue automatiquement l'occultation à l'aide d'une technique de convolution classique dans laquelle le noyau est appliqué de façon itérative, de l'extérieur vers le centre, pour occulter les détails dans l'image 12 dans la région concernée. Lorsque le traitement de l'image est achevé, l'image 12 peut alors être observée sur l'afficheur 16 ou transférée vers un dispositif de sortie 26, par exemple:
6 2719141
une imprimante telle que l'imprimante thermique Kodak XL.
La méthode itérative mentionnée ci-dessus assure l'occultation efficace de détails d'images, à l'aide d'une famille de noyaux bidimensionnels qui sont d'abord appliqués à la bordure de la zone des détails de l'image, puis déplacés successivement vers le centre de la zone contenant les détails de l'image. Le noyau combine des informations provenant de la bordure de la zone occultée avec des informations contenues dans la zone occultée. Le noyau est construit de telle manière que son application à l'image est extrêmement efficace en termes de capacité de calcul. Les caractéristiques du noyau qui améliorent l'efficacité et la qualité de l'image comprennent: l'utilisation de puissances de deux pour toutes les valeurs des éléments du noyau, de telle sorte que seuls des décalages (au lieu de multiplications) et des additions sont requis; la somme des éléments du noyau est une puissance de deux; les pixels adjacents au pixel cible au même niveau ne participent pas aux valeurs des pixels occultés; le nombre de décalages requis est minimal; la forme du noyau coïncide avec celle du noyau occulté; la simplicité de la recherche des éléments du noyau par rapport aux données; le nombre de copies intermédiaires de données est minimisé par "écrasement" des données initiales ; le système est capable d'assurer un traitement parallèle
à haut rendement.
La méthode d'occultation automatique des détails d'images de la présente invention permet d'occulter des informations sans dégrader la qualité globale de l'image, ni créer des artefacts d'image, ni générer des discontinuités perceptibles dans l'image. La méthode, telle qu'illustrée à la figure 2, peut démarrer avec la prise d'une image (étape 40) comprenant un ou plusieurs détails indésirables. De ce fait, l'intervention de l'opérateur 18 se limitera à définir ou à indiquer (étape 42) une région concernée nécessitant une occultation. La figure 3 illustre une image 80 artificielle simplifiée. Le détail qui sera
!' 7 2719141
occulté dans cette image est la balle 82, tenue dans la main 83 à l'extrémité du bras gauche 84 de l'individu 86 se
tenant à droite de l'image artificielle 80.
Lorsque l'opérateur 18 sélectionne la zone à occulter, celle-ci est incluse dans un rectangle 88. Un tel rectangle est indiqué à la figure 3 en pointillés; il entoure ou enferme complètement la zone à occulter. Une fois la zone concernée sélectionnée, l'opérateur n'a plus à intervenir et le traitement se poursuit automatiquement avec
l'application 44 du noyau à l'image.
La zone à occulter peut être numériquement, plutôt que graphiquement, représentée par la figure 4. Dans cette figure, le fond a des valeurs de pixels comprises entre zéro et dix, la main 83 a des valeurs comprises entre 40 et 70, et la balle ou le cercle 82 a des valeurs comprises entre 130 et 160. La zone incluse dans la case à bordure
sombre 90 doit être occultée.
Quatre noyaux séparés sont utilisés pour occulter la région concernée, chaque noyau ayant une forme rectangulaire qui coïncide avec la forme rectangulaire de la région. Chaque noyau est utilisé sur l'un des quatre côtés de la région rectangulaire concernée. En d'autres termes, les noyaux peuvent être considérés comme un seul noyau, mais qui subit néanmoins une rotation lorsqu'il est appliqué à chacun des quatre côtés. C'est-à-dire que chaque noyau est symétrique à l'intérieur du noyau par rapport à un axe perpendiculaire à la surface et chaque noyau est symétrique en rotation. Cela signifie que si le noyau tourne et qu'il est appliqué aux mêmes données, on obtient le même résultat. Les quatre noyaux sont indiqués aux figures 5A à 5D. Chaque noyau comprend un élément pour le pixel concerné et pour des pixels externes au pixel concerné et externes au niveau actuel, et qui sont considérés comme calculés ou qui ont été traités. Le processus d'occultation se poursuit de façon itérative, depuis les couches externes, ou niveaux, de la région concernée, vers l'intérieur. Le premier niveau, tel i8 2719141 qu'illustré dans la figure 6, est composé des rangées et des colonnes touchant la partie interne de la bordure sombre et doit être traité en premier. Le second niveau est composé des rangées et des colonnes situées juste à l'intérieur du premier niveau, et ainsi de suite. Chaque niveau est traité avant le niveau suivant, bien que certains calculs puissent être effectués simultanément lorsqu'il n'y a pas de dépendance arithmétique et que l'image peut être subdivisée en "carreaux" en vue de son traitement par différents processeurs, lorsque plusieurs processeurs sont disponibles. Le procédé applique (étape 44) le noyau aux données, o il peut s'agir d'une opération de convolution classique ou d'une opération spéciale qui tient compte des caractéristiques des noyaux comme indiqué ci-après. Les résultats sont mémorisés (étape 46) dans la matrice initiale et le noyau est déplacé (étape 48) par incrémentation des index. Si le processus ne se déroule pas en parallèle sur les côtés, comme cela devrait se produire lorsque des processeurs parallèles sont utilisés, le processus détermine si (étape 50) un coin a été atteint et si (étape 52) le dernier coin a été atteint. Si le dernier coin n'a pas été atteint (étape 50), on tourne le noyau (étape 54) et on l'applique (étape 44) à nouveau. Lorsque le dernier coin a été atteint, les coins peuvent nécessiter un traitement (étape 56). Si le niveau n'est pas le dernier niveau (étape 58), le noyau est déplacé (étape 60) d'un niveau vers le bas et le traitement du niveau démarre une nouvelle fois. Si le dernier niveau a été atteint, il est possible qu'un nouveau traitement central spécial final s'avère nécessaire (étape 62), l'image est achevée (étape 64) et peut alors être visualisée ou imprimée. Etant donné que la longueur de chaque côté rétrécit progressivement et que les coins se déplacent vers l'intérieur, le procédé doit assurer le suivi de la position de traitement et du niveau. A cette fin, une personne compétente dans le domaine peut fournir des index appropriés et assurer les
réglages des index.
t9 2719141 Comme mentionné plus haut, le premier niveau est traité en premier. Chaque pixel dans le niveau peut être traité indépendamment de tous les autres, de manière à obtenir facilement un certain degré de traitement en parallèle et ce, même si les étapes du procédé mentionnées ci-dessus traitent Ies côtés en séquence. Pendant le traitement le long de la rangée supérieure (à l'exclusion des coins), chaque pixel dans le premier niveau est remplacé par la convolution de la zone du pixel au moyen du
noyau supérieur indiqué à la figure 5A.
Cette opération est illustrée à la figure 7A pour le pixel dont la valeur est 5 et qui est situé dans la rangée 3, colonne 4 (en commençant le compte à partir de la rangée supérieure et de la colonne la plus à gauche). Pour clarifier l'illustration, les niveaux et les coins internes ne sont pas indiqués. La case à bordure sombre indiquée renferme les pixels dont les coefficients de convolution ne sont pas nuls. Par conséquent, la valeur du pixel résultant est ( (2xl) + (5xl) + (lx4) + (2x4) + (3x4) + (4xl) + (5xl)) / 16 = 2,5 ou plus, tout simplement en raison de la conception du noyau ( (2+5+5+4) + (1+2+3)x4) / 16 = 2,5. Cette valeur est arrondie (pour des pixels dont la valeur est un nombre entier) à 2. Le résultat est indiqué dans la rangée 3, colonne 4 de la figure 7B. Les résultats relatifs au reste du début de cette rangée sont indiqués en même temps que les résultats relatifs au début de la colonne. Toutes les valeurs des nouveaux pixels sont indiquées dans les cases
pourvues du signe "+".
Les pixels de coins peuvent être calculés en déterminant la moyenne des résultats des convolutions à l'aide des deux noyaux appropriés. De oe fait, la valeur du pixel de le coin supérieur gauche dans le premier niveau indiqué ici sera la valeur moyenne du résultat du noyau supérieur pour cet emplacement de pixel (le résultat est 3) et le résultat du noyau gauche pour cet emplacement (le t10 2719141 résultat est 5). La valeur moyenne est donc 4. En variante, pour un calcul plus rapide, un des pixels du noyau peut être choisi de façon arbitraire, par exemple, en choisissant toujours les résultats du noyau supérieur et du noyau inférieur pour les coins. Cependant, dans la mesure o les noyaux extraient des informations à partir de différentes zones de l'image, le résultat final sera différent, bien que la différence ne soit généralement pas notable. La figure 8 indique le résultat global pour le calcul au niveau 1. Les pixels dans le niveau 1 (entre les lignes sombres) ont été remplacés, tous les autres sont
laissés inchangés.
Une fois le niveau 1 calculé, les pixels du niveau 2 peuvent être calculés. Les pixels du niveau 2 sont indiqués à la figure 9 entre les lignes sombres. Ces pixels sont remplacés exactement de la même manière que dans le cas du niveau 1. Cette procédure se répète jusqu'à ce qu'il reste un niveau. Si, comme l'indique la figure 10, il y a un nombre pair de pixels dans le centre de la région concernée, il restera une zone de quatre pixels regroupés deux par deux au dernier niveau. Chacun de ces quatre pixels peut être traité comme un coin, exactement de la même manière que précédemment. La région concernée résultante, complètement traitée, est indiquée à la figure 10. Le niveau final, indiqué à la figure 10, est celui obtenu lorsque la région concernée est de forme carrée et
qu'elle a un nombre pair de pixels dans chaque dimension.
Si la zone est carrée, mais qu'elle a un nombre impair de pixels dans chaque dimension, le dernier niveau contiendra un seul pixel comme indiqué à la figure 11. (Les figures 11 à 14 indiquent uniquement les quelques derniers niveaux d'une région concernée de grande dimension). Dans ce cas, le pixel central (initialement 19) peut être remplacé par la moyenne de toutes les opérations des quatre noyaux (supérieur, gauche, droit et inférieur). Dans ce cas, la valeur du noyau supérieur est 19, la valeur du noyau gauche il 2719141 est 22, la valeur du noyau droit est 21 et la valeur du noyau inférieur est 23, soit une valeur moyenne de 21. La valeur de pixel de 21 remplacera donc la valeur centrale initiale de 19. En variante, pour un calcul plus rapide, le pixel relatif à l'un des noyaux peut être choisi
arbitrairement, comme cela a été précédemment mentionné.
Si la région concernée n'est pas carrée mais rectangulaire, le niveau final sera soit une paire de lignes, soit une seule ligne, selon que le nombre de lignes ou de colonnes comprises dans la région concernée est pair ou impair. Le cas d'un nombre pair de lignes est indiqué à la figure 12. Dans ce cas, il n'est fait appel à aucune procédure spéciale, car l'opération normale réduira le niveau final. Dans le dernier cas, indiqué à la figure 13, il est nécessaire d'utiliser une procédure spéciale,
analogue à celle indiquée à la figure 11.
Dans le cas o une seule ligne restante constitue le dernier niveau, les pixels d'extrémité peuvent être remplacés par la moyenne des noyaux supérieur, gauche ou droit, et inférieur. Dans l'exemple de la figure 13, les résultats sont respectivement 21, 17 et 19 pour les noyaux supérieur, gauche et inférieur, de sorte que la valeur de remplacement est égale à la moyenne de ces trois valeurs, soit 19. Du côté droit, les noyaux supérieur, droit et inférieur devraient être appliqués et la moyenne de ces trois résultats utilisée. Pour des pixels autres que des pixels d'extrémité, les noyaux supérieur et inférieur devraient être appliqués et la moyenne de leur résultats calculée. Par exemple, la valeur de pixel égale 29, qui est la deuxième à partir de la gauche dans le dernier niveau de la figure 13, a une valeur de noyau supérieur de 23, et un résultat de noyau inférieur de 24. Le résultat moyen est
donc 23.
La figure 13 illustre le cas dans lequel la dimension horizontale de la région concernée est supérieure à la dimension verticale, donnant ainsi une ligne horizontale pour le dernier niveau. Si la dimension verticale est
*| 12 2719141
supérieure à la dimension horizontale, le résultat est une ligne verticale. Ce cas est traité de façon similaire. La valeur moyenne des pixels d'extrémité résultants est calculée à partir des noyaux gauche, droit et supérieur ou inférieur. Pour les pixels restants, on utilise le résultat du calcul de la moyenne des valeurs déduites à partir de
l'application des noyaux gauche et droit.
Les procédures décrites ci-dessus sont très efficaces, au point de vue du calcul, sur des calculateurs numériques binaires. Aucune opération de multiplication ou de division n'est nécessaire et seuls des décalages et des additions sont requis. Le suivi de l'emplacement des arguments des pixels relatifs aux noyaux est plus complexe, mais le total est beaucoup moins important que prévu pour une convolution classique, par exemple. En outre, les cas particuliers des figures 11 à 12, concernent uniquement des régions concernées ayant des dimensions impaires. Si les régions concernées sont limitées à des tailles de rangées ou de colonnes paires, il n'y a aucun cas particulier et une
simplification pourra être effectuée ultérieurement.
Si une image présente un grand nombre de détails de haute fréquence, la procédure décrite ci-dessus peut aboutir à une bordure perceptible autour de la zone occultée. Cela peut être réduit en utilisant les noyaux légèrement plus petits indiqués aux figures 14A à 14D. Ces noyaux sont des versions effectivement moins puissantes des
noyaux précédemment décrits. En les appliquant de la même manière aux quelques premiers niveaux de la région concernée, on obtient un bord plus graduel et moins30 perceptible. Le nombre de niveaux pour lequel les petits noyaux sont utilisés dépend de l'image ou de l'application.
Il convient de noter que les petits noyaux présentent même des capacités de calcul plus élevées que les grands noyaux, dans la mesure o leur mise en oeuvre nécessite un nombre35 moins important d'additions et de décalages.
L'utilisation itérative de ces noyaux, en procédant de la manière décrite ci-dessus, occulte efficacement des
13 2719141
informations d'image sans créer d'artefacts indésirables.
Cela se produit puisque la méthode décrite combine des informations provenant de la zone occultée avec des informations floues provenant du bord de la zone, alors qu'aucune information n'est extraite des pixels voisins ou situés sur le même niveau. Au fur et à mesure que les itérations ont lieu, les informations issues du bord de la zone sont introduites dans la région concernée. De ce fait, l'occultation effective augmente au fur et à mesure du déroulement des itérations, donnant ainsi lieu à une transition lissée, se dirigeant des régions relativement
intactes du bord vers l'intérieur de la zone occultée.
Trois activités se déroulent simultanément. La première, au cours de laquelle les pixels locaux sont estompés comme dans le cas d'une convolution classique dans laquelle des pixels adjacents, situés au même niveau, sont combinés, ce qui a pour effet de réduire effectivement les détails de l'image. La seconde, au cours de laquelle les informations provenant de la région concernée sont incorporées dans les pixels occultés, ce qui a pour effet de réduire la perception des artefacts dans la zone occultée. La troisième, au cours de laquelle les informations provenant du bord de la région concernée sont transférées dans la zone concernée, assurant ainsi une continuité structurale de l'image ainsi que le recouvrement des informations indésirables de l'image. En outre, les informations provenant des bords extérieurs de la région sont
transférées vers le centre ou le milieu.
L'examen de la figure 10 indiquera que les détails ont été effectivement éliminés, alors qu'une certaine structure demeure, sans pour autant générer de bord clair dans la zone traitée. Il convient de noter qu'une représentation numérique d'une zone d'image ne peut être utilisée pour fournir une représentation visuellement précise du
traitement de l'image réelle.
La présente invention peut être améliorée en appliquant à l'image une région concernée ayant une forme
14 2719141
différente, avec des noyaux présentant une forme capable de s'adapter au changement de forme de la région concernée. La figure 15 illustre une seconde image artificielle simplifiée 100, utilisée pour décrire une région concernée améliorée. Le détail qui sera occulté dans cette image est encore la balle 82 à l'extrémité du bras 84 de la personne se tenant à droite de l'image artificielle. La zone à occulter est sélectionnée dans une ellipse 102, par un opérateur. L'ellipse 102 entoure complètement la zone à
occulter.
La zone elliptique à occulter peut être représentée numériquement, plutôt que graphiquement, dans la figure 16A. Dans cette figure, le fond présente des valeurs de pixels comprises entre 0 et 10, la main présente des valeurs comprises entre 40 et 70, et le cercle ou la balle 82 présente des valeurs comprises entre 130 et 160. La zone à occulter est celle incluse dans l'ellipse 102 numérisée à bordure sombre. Pour rendre l'illustration graphiquement plus claire, la figure 16B ajoute un fond clair à chaque zone de pixel relative à la main, et une ombre plus sombre en arrière-plan pour chaque pixel du cercle ou de la balle 82. Huit noyaux séparés sont utilisés pour occulter la région concernée, chaque noyau ayant une forme correspondant à la forme de la région avec laquelle il est utilisé, transférant ainsi les informations dans la région à partir de la direction appropriée. Les noyaux ont une forme en "V", sachant que les noyaux doivent extraire des informations à partir de régions situées à l'extérieur de la surface courbe de l'ellipse 102. Chaque noyau est utilisé sur l'une des huit régions concernées possibles pour les configurations de pixels. Il convient de noter que ces noyaux peuvent être également appliqués à une région de forme arbitraire, en affinant simplement la forme en "V" quand la pente de la courbe de la région associée devient plus forte, et en élargissant le "V" quand la pente de la courbe de la région devient moins accentuée, jusqu'à
2719141
obtenir les noyaux plats du mode de réalisation précédemment considéré. Cela nécessitera, bien évidemment, un nombre plus ou moins important denoyaux pour la courbe, selon la forme de cette dernière et pourra augmenter le temps de traitement mentionné plus haut. Les huit noyaux relatifs à cette ellipse particulière 102 peuvent être divisés en deux groupes, un groupe comprenant des noyaux de bordure tels qu'illustrés aux figures 17A à 17D, et le second groupe comprenant des noyaux de coins tels qu'illustrés aux figures 18A à 18D. Ces noyaux sont tous normalisés en les divisant par 16 comme dans le mode de
réalisation précédent.
Chaque pixel dans la zone à occulter doit être remplacé par une nouvelle valeur de pixel. Comme dans le mode de réalisation précédent, l'occultation se déroule de manière itérative, à partir des couches externes, ou niveaux, de la région concernée, vers l'intérieur. Le premier niveau est composé des pixels adjacents à la partie interne de la bordure et est traité en premier. Le second niveau est composé des pixels situés juste a l'intérieur du premier niveau, et ainsi de suite. Chaque niveau est traité avant le niveau suivant (bien que certains calculs puissent être effectués simultanément s'il n'y a aucune dépendance
arithmétique, comme dans le mode de réalisation précédent).
Chaque pixel à déterminer, associé à trois pixels connus sur la ligne de dessus, o un pixel est situé directement au-dessus et les deux autres sont situés de part et d'autre du pixel de dessus, peut être calculé à l'aide du noyau de la figure 17A. De la même manière, chaque pixel à déterminer, associé à trois pixels connus sur la ligne de droite, o un pixel est situé directement à
droite et les deux autres sont situés au-dessus et au-
dessous du pixel de droite, peut être calculé à l'aide du noyau de la figure 17C. Chaque pixel à déterminer, associé aux pixels connus situés au-dessus, à droite, et diagonalement au-dessus et à droite, peut être calculé à l'aide du noyau de la figure 18B. Les situations
16 2719141
correspondantes, concernant les quadrants supérieur gauche, et inférieurs droit et gauche, sont similaires, en utilisant les noyaux réfléchis de façon appropriée. Il est possible que l'utilisation de plusieurs noyaux puisse être réalisée. Dans ce cas, il est possible de choisir l'un des
noyaux. (Ici, c'est le noyau de coin qui est choisi).
Autrement, les deux convolutions peuvent être calculées et la valeur moyenne peut être utilisée comme dans le mode de
réalisation précédent.
Il convient de noter qu'il ne suffit pas qu'un pixel soit adjacent à un pixel connu pour pouvoir être calculé sur un niveau de traitement donné. Le voisinage approprié de pixels connus doit d'abord exister. Cependant, comme le processus érosif se poursuit de façon itérative, chaque
pixel sera finalement déterminé et entré.
A tout niveau, seuls pourront être modifiés les pixels dont les éléments de noyau sont combinés avec de nouveaux pixels (sauf pour le pixel concerné situé au centre du noyau). Les pixels dont les éléments de noyau sont nuls ne sont pas pris en compte. Les nouveaux pixels (ceux dont les nouvelles valeurs ont déjà été déterminées) sont ceux qui ne sont pas inclus dans la région elliptique concernée 102, ou alors ceux qui ont été remplacés lors d'un calcul de
niveau précédent.
Les diverses configurations concernant l'application des noyaux sont illustrées à la figure 19 pour les pixels situés dans le quadrant supérieur droit de la région elliptique concernée. Comme dans les figures précédentes, les pixels et leurs positions sont indiqués par des cases carrées. Les cases contenant un 0 représentent des pixels connus ou précédemment modifiés. Les cases contenant un x
représentent des pixels qui n'ont pas encore été modifiés.
Les cases contenant un r indiquent des pixels qui n'ont pas encore été modifiés, mais qui pourront l'être étant donné
l'existence de pixels connus ou modifiés.
Les cases vides sont situées au bord de la zone et ne sont pas prises en considération. Comme dans le cas d'une
17 2719141
convolution, la présence de pixels voisins est requise pour ce calcul; les pixels sans voisinage défini doivent être traités séparément. Ces pixels ne sont pas pris en compte ici et peuvent être entrés selon un autre procédé ou simplement laissés avec leur valeur existante. En général, ce problème ne se pose pas parce que la zone à occulter
n'est pas située à proximité immédiate des données d'image.
Compte tenu de cela, chaque pixel présent dans la zone à
occulter aura un voisinage.
La figure 20 complète l'exemple de la figure 19 en
utilisant des valeurs de pixels provenant de la figure 16A.
Les cases "r" ont été remplies en utilisant les valeurs de convolution issues des noyaux appropriés. Le pixel initial dans l'emplacement supérieur gauche de la case "r" 104 dans la figure 19 est calculé à l'aide du noyau supérieur, de sorte que la valeur du pixel résultant soit comme suit: ((6xl) + (2xl) + (3xl) + (4x4) + (5x4) + (lx4) + (2xl)) / 16 = 3,3125 ou plus simplement en raison de la conception du noyau: ((6+2+3+2) + (4+5+1) x4) / 16 = 3,3125. Cette valeur (pour
des pixels ayant des valeurs entières) est arrondie à 3.
Lorsqu'il est possible d'utiliser un noyau de coin ou un noyau latéral, un choix arbitraire est effectué de manière
préférentielle pour appliquer les noyaux de coin.
Etant donné que les ellipses numérisées sont symétriques par rapport aux quadrants, les mêmes noyaux sont appliqués aux mêmes points relatifs pour chaque quadrant. Ceci permet de réduire le calcul requis pour sélectionner le noyau approprié. (De ce fait, chaque calcul effectué pour sélectionner un noyau exécute le calcul relatif à quatre nouvelles valeurs de pixels). Pour appliquer les noyaux appropriés aux pixels du niveau actuel, il est possible d'appliquer la procédure suivante indiquée à la figure 21 pour un seul quadrant. La figure 19 illustre le quadrant dans lequel la procédure est appliquée. Le traitement démarre, étape 110, avec le positionnement du noyau au niveau du centre supérieur ou au
18 2719141
niveau du pixel 104 de la figure 19. Le noyau supérieur est appliqué, étape 112, et un test 114 est effectué pour déterminer si le pixel de droite est calculé, c'est-à-dire, si le pixel de droite a déjà été traité. Si cela n'est pas le cas, le noyau est déplacé 116 vers la droite et le pixel de droite subit un nouveau test 118. Si le pixel de droite n'est pas calculé, alors le bord est un bord horizontal et le noyau supérieur est de nouveau appliqué 112. Si le pixel de droite est calculé, le noyau supérieur droit est appliqué, étape 120, parce qu'un coin interne a été détecté. Ensuite, le pixel inférieur droit est testé, étape 122, et s'il s'avère qu'il n'est pas calculé, le pixel est déplacé, étape 124, vers la partie inférieure droite. Le système teste, en 126, le pixel de droite pour tenter d'identifier un autre coin ou un bord horizontal. Lorsque le pixel inférieur droit est calculé 122, le système teste, étape 128, le pixel de dessous et s'il est calculé, le traitement du niveau est terminé, étape 130. Si le pixel de dessous n'est pas calculé, le noyau est déplacé vers le bas, étape 132. Ensuite, le pixel inférieur droit est testé, étape 134, pour chercher un bord vertical. Si le pixel inférieur droit est calculé, un bord vertical a été détecté et le noyau de droite est appliqué, étape 136. En ce qui concerne les résultats, on se reportera à la figure 20. Pour lancer le niveau suivant, le noyau est à nouveau déplacé vers le centre supérieur. Il convient de noter que cette procédure peut être appliquée aux quadrants restants par une simple rotation des pixels testés. Par exemple, pour le quadrant inférieur gauche, l'étape 112 devrait appliquer le noyau de droite et l'étape 114 devrait tester le pixel de dessous. Il convient de noter que la convolution proprement dite doit être effectuée séparément pour chaque pixel, car, même si le noyau est identique (bien que tourné) pour chacun des quatre pixels, les valeurs des pixels ne sont pas identiques. La figure 22 indique le résultat de l'application du noyau approprié à
19 2719141
l'ensemble d'un niveau de la zone sélectionnée illustrée
dans la figure 16A.
Lorsque chaque niveau a été calculé, le niveau suivant peut être traité. Chaque pixel dans un niveau peut être calculé simultanément ou parallèlement, comme dans le mode de réalisation précédent. Si les pixels sont traités ou calculés en parallèle, un test est effectué pour chaque pixel afin de vérifier si tous les pixels correspondant aux éléments non nuls des noyaux sont déjà calculés. Si c'est le cas, le pixel concerné est situé sur le niveau en cours de traitement et peut donc être calculé. Si cela n'est pas le cas, le pixel doit être calculé et remplacé ultérieurement. Si les pixels sont calculés en série, comme cela a été illustré pour le premier mode de réalisation à la figure 2 et à la figure 21, les pixels situés sur le niveau suivant peuvent être calculés si les pixels achevés requis existent ou ont été calculés. Les figures 23 et 24 indiquent les résultats relatifs au deuxième et au troisième niveaux, lorsque la méthode appliquée à la zone choisie est celle préconisée à la figure 16A. Il convient de noter que la forme de l'ellipse se transforme en rectangle, ce qui a pour effet de réduire le nombre de noyaux utilisés, à savoir aux noyaux supérieur, inférieur et latéraux.25 Au niveau de certaines étapes, notamment les étapes finales, plusieurs noyaux seront disponibles pour la convolution. Lorsque cela se produit, il est possible d'effectuer soit un choix arbitraire entre les noyaux, soit d'utiliser le résultat moyen de tous les noyaux possibles, comme dans le mode de réalisation précédent. Cela se produira également s'il reste un seul pixel, une rangée de pixels, ou une colonne de pixels. Par exemple, s'il reste une rangée horizontale de pixels à déterminer, il est possible d'utiliser les noyaux supérieur et inférieur et de35 calculer la moyenne des résultats des convolutions des noyaux. La figure 25 indique le résultat final de la méthode appliquée à la zone sélectionnée conformément à la
2719141
figure 16A. Pour des besoins de clarté de l'exemple, la moyenne n'est pas calculée et les noyaux de coin sont préférés aux noyaux latéraux. Le noyau supérieur droit est
traité en premier.
Toutes les convolutions décrites ci-dessus par rapport au second mode de réalisation sont également très efficaces, au point de vue capacité de calcul, sur des calculateurs numériques binaires. Là encore, hormis des décalages et des additions, aucune opération de multiplication ni de division n'est nécessaire. Le fait de chercher le noyau à appliquer nécessite plus de travail; il en est de même lorsqu'il s'agit d'assurer le suivi des pixels qui doivent être calculés. Cela peut être facilement effectué en conservant un modèle de la région concernée,
qui contient des valeurs indiquant l'état de chaque pixel.
Le calcul des valeurs moyennes nécessite un travail supplémentaire. Tous ces aspects font partie des règles de l'art. L'approche elliptique nécessite certainement plus de moyens que l'approche rectangulaire, mais les résultats
visuels sont supérieurs.
L'utilisation itérative des noyaux des figures 17 et 18, en procédant de la manière décrite ci-dessus, permet l'occultation efficace des informations d'images, sans création d'artefacts indésirables. Bien que cela nécessite un travail de calcul légèrement plus important que pour des régions rectangulaires, l'utilisation d'une région concernée elliptique et des noyaux associés de forme
appropriée, permettra d'obtenir de meilleurs résultats.
L'approche elliptique conserve tous les autres avantages offerts par l'approche faisant appel à la région concernée rectangulaire. La présente invention propose une méthode automatique pour occulter efficacement des informations dans une image, sans générer d'artefacts facilement perceptibles par l'observateur. Une fois que la région à occulter à été définie, la procédure ne nécessite aucune intervention interactive de la part de l'opérateur. Les informations
21 2719141
d'image résultantes sont exemptes de détails indésirables, mais incorporent une structure d'image provenant de
l'extérieur et de l'intérieur de la zone occultée.
L'occultation au bord de la région est moindre, alors que le niveau effectif de l'occultation est plus important à l'intérieur. Par conséquent, la zone est efficacement occultée, sans pour autant générer de discontinuités indésirables dans l'image. L'approche est très efficace au point de vue du calcul, car elle nécessite uniquement des
opérations d'addition et de décalage arithmétique.
L'utilisation d'une région concernée elliptique fournit de meilleurs résultats que l'approche utilisant des régions concernées rectangulaires tout en conservant tous les avantages offerts par cette dernière, avec une légère augmentation des coûts en termes de calcul. L'approche utilisant la région concernée elliptique décrite dans le présent document est plus performante dans la mesure o les bordures formées ne sont pas linéaires (que ce soit verticalement ou horizontalement) et sont donc moins perceptibles par le système visuel humain. L'approche elliptique est également plus performante dans la mesure o les régions formées ont tendance à paraître plus naturelles et moins artificielles. L'approche elliptique est également plus performante dans la mesure o elle a peu tendance à générer des artefacts diagonaux au sein de la zone occultée. La forme de la région utilisée pour le traitement peut être arbitraire, pour autant qu'il s'agit d'une courbe fermée et que les noyaux des figures 17 et 18, modifiés en fonction de la pente de la courbe, puissent être utilisés pour traiter la région. Par conséquent, l'opérateur peut définir la zone à occulter en utilisant des techniques conventionnelles de dessin et faire en sorte que la région
délimitée soit la seule à être occultée.
La présente invention a été décrite par rapport à un ordre particulier de déroulement d'étapes du procédé, de manière à se déplacer autour la région concernée en
22 2719141
utilisant les noyaux appropriés, en détectant le moment o tous les pixels d'un niveau ont été traités et en se déplaçant dans un niveau Jusqu'à ce que tous les pixels soient traités. Il est évidemment possible d'utiliser d'autres approches, comme par exemple le traitement simultané en parallèle en testant des pixels d'éléments de noyaux non nuls afin de vérifier la possibilité de traitement. Les principales caractéristiques de l'invention et les principaux avantages qu'elle offre sont mis en évidence
dans la description particulière et, par conséquent, les
revendications énoncées en annexe sont destinées à couvrir
toutes les caractéristiques et tous les avantages de l'invention qui corroborent l'esprit réel de l'invention et correspondent à son domaine d'application. En outre, dans la mesure o de nombreuses modifications et variations pourront être facilement apportées par les personnes compétentes dans le domaine, il n'est pas souhaitable de limiter l'invention à la construction et au fonctionnement exacts illustrés et décrits, et en conséquence, il sera possible d'avoir recours à toutes les modifications et
équivalents adéquats, conformes au domaine d'application de l'invention.
23 2719141

Claims (18)

REVENDICATIONS
1. Procédé d'occultation d'informations dans une image, comprenant: (a) la désignation d'une région de l'image en vue de son occultation; et (b) la fusion de premières informations de l'image situées à l'extérieur de la région avec des secondes
informations de l'image situées à l'intérieur de la région.
2. Procédé selon la revendication 1, dans laquelle l'étape (b) fusionne les premières informations à
un même niveau.
3. Procédé selon l'une des revendications 1 ou 2,
dans laquelle l'étape (b) comprend l'application d'un noyau de convolution à la région, depuis un bord externe de la
région vers un point central.
4. Procédé selon la revendication 3, dans laquelle la région a une forme déterminéeet le noyau a une
forme correspondant à la forme déterminée de la région.
5. Procédé selon la revendication 3, dans laquelle le noyau de convolution comprend un élément relatif à un pixel d'image concerné et des éléments situés plus prêts d'un bord externe de la région que le pixel concerné.
6. Procédé selon la revendication 5, dans
laquelle le noyau contient des éléments élevés au carré.
7. Procédé selon l'une quelconque des
revendications 3 à 6, dans laquelle le noyau comprend un
premier noyau pour les zones rectilignes de la région et un
second noyau pour les zones courbes de la région.
8. Procédé selon la revendication 5, dans laquelle le noyau permet la convolution des pixels voisins
externes d'un niveau adjacent différent.
9. Procédé selon l'une quelconque des
revendications 3 à 8, dans laquelle le noyau est symétrique
en rotation par rapport à un axe perpendiculaire à la
surface de la région.
24 2719141
10. Procédé selon la revendication 8, dans
laquelle la pondération du pixel considéré est de 1/16ième.
11. Procédé selon la revendication 8, dans laquelle la pondération des pixels externes immédiatement voisins est de 4/16ième et la pondération des autres pixels
voisins externes est de 1/16ième.
12. Procédé selon la revendication 3, dans
laquelle le noyau est en forme de "V".
13. Procédé selon la revendication 14, dans laquelle la forme du noyau devient plus étroite au fur et à
mesure que la courbe de la région a une plus forte pente.
14. Procédé selon la revendication 1, dans laquelle l'étape (b) contient uniquement des opérations
d'addition et de décalage.
15. Procédé selon l'une quelconque des
revendications 1 à 14, dans laquelle la région est une
courbe fermée formée par rapport à une forme prévue d'une
région contenant des détails indésirables.
16. Procédé selon l'une quelconque des
revendications 1 à 15, comprenant également (c) un
dispositif permettant d'imprimer l'image.
17 Système comprenant: un dispositif source d'images fournissant une image; un dispositif d'entrée/sortie permettant à l'utilisateur de désigner une région de l'image en vue de l'occulter; et un calculateur, couplé audit dispositif source et audit dispositif d'entrée/sortie, traitant la région de l'image en vue d'occulter des informations de cette région en fusionnant des informations situées à l'extérieur de la région avec des informations situées à l'intérieur de la région.
18. Système selon la revendication 17, comprenant par ailleurs une imprimante destinée à imprimer l'image, y
compris la région occultée.
FR9504943A 1994-04-20 1995-04-19 Méthode et appareil pour occultation des détails d'une image. Expired - Lifetime FR2719141B3 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/230,195 US5710839A (en) 1994-04-20 1994-04-20 Method and apparatus for obscuring features of an image

Publications (2)

Publication Number Publication Date
FR2719141A1 true FR2719141A1 (fr) 1995-10-27
FR2719141B3 FR2719141B3 (fr) 1996-06-14

Family

ID=22864287

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9504943A Expired - Lifetime FR2719141B3 (fr) 1994-04-20 1995-04-19 Méthode et appareil pour occultation des détails d'une image.

Country Status (3)

Country Link
US (2) US5710839A (fr)
JP (1) JPH07302336A (fr)
FR (1) FR2719141B3 (fr)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6795580B1 (en) * 1998-09-10 2004-09-21 Tektronix, Inc. Picture quality measurement using blockiness
EP1049047B1 (fr) * 1999-04-26 2006-09-20 Adobe Systems, Inc. Identification de couleurs de pixel intrinsèques dans une région de pixels indéterminés
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
US6850875B1 (en) * 1999-06-14 2005-02-01 Analytical Graphics, Inc. Method and apparatus for determining obscuration of sensors that are mounted on a spacecraft
AU2002236659A1 (en) * 2000-12-19 2002-07-01 Pulsent Corporation Adaptive transforms
US7319755B2 (en) * 2001-08-03 2008-01-15 Waterstrike Incorporated Image altering apparatus and method for providing confidential viewing of a fundamental display image
US7079151B1 (en) 2002-02-08 2006-07-18 Adobe Systems Incorporated Compositing graphical objects
US7379613B2 (en) * 2002-02-27 2008-05-27 Omnivision Cdm Optics, Inc. Optimized image processing for wavefront coded imaging systems
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
JP4148011B2 (ja) * 2003-04-25 2008-09-10 セイコーエプソン株式会社 印刷ジョブ作成装置および印刷ジョブ作成方法並びにこれらに用いるプログラム
CN1898590A (zh) 2003-12-01 2007-01-17 Cdm光学有限公司 用于优化光学和数字系统设计的系统和方法
US7944467B2 (en) * 2003-12-01 2011-05-17 Omnivision Technologies, Inc. Task-based imaging systems
US20080144967A1 (en) * 2004-03-30 2008-06-19 Waterstrike Incorporated Confidential Viewing System Utilizing Spatial Multiplexing
US7636489B2 (en) * 2004-04-16 2009-12-22 Apple Inc. Blur computation algorithm
US7826664B2 (en) * 2004-05-24 2010-11-02 Xerox Corporation Systems and methods for efficient manual windowing operation
JP5033802B2 (ja) * 2005-09-19 2012-09-26 オムニビジョン テクノロジーズ, インコーポレイテッド タスク型画像化システム
US8577166B1 (en) * 2006-03-31 2013-11-05 Google Inc. Optimizing web site images using a focal point
US7791686B2 (en) * 2006-06-23 2010-09-07 Waterstrike Incorporated LCD-based confidential viewing apparatus utilizing auto-inversion masking
US8848044B2 (en) * 2007-01-26 2014-09-30 Nec Corporation Image processing apparatus, method, program and display
US8457448B2 (en) * 2008-02-04 2013-06-04 Hewlett-Packard Development Company, L.P. Removing inserted text from an image using extrapolation for replacement pixels after optical character recognition
US9645923B1 (en) 2013-09-10 2017-05-09 Google Inc. Generational garbage collector on multiple heaps
US9230355B1 (en) 2014-08-21 2016-01-05 Glu Mobile Inc. Methods and systems for images with interactive filters
US10007963B2 (en) 2015-11-10 2018-06-26 International Business Machines Corporation Context-based provision of screenshot modifications

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2435982A1 (de) * 1974-07-26 1976-02-12 Sulzer Morat Gmbh Verfahren und vorrichtung zur verarbeitung von durch abtastung eines mehrfarbigen musters erhaltenen informationen
JPS59157689A (ja) * 1983-02-28 1984-09-07 株式会社 タイト− 画像表示方法及び装置
US4641356A (en) * 1984-08-24 1987-02-03 Machine Vision International Corporation Apparatus and method for implementing dilation and erosion transformations in grayscale image processing
GB8431374D0 (en) * 1984-12-12 1985-01-23 Bamber J C Adaptive filtering
JPH0738217B2 (ja) * 1985-04-18 1995-04-26 ファナック株式会社 空間積和演算装置
US5222159A (en) * 1985-07-19 1993-06-22 Canon Kabushiki Kaisha Image processing method and apparatus for extracting a portion of image data
US4731864A (en) * 1986-02-21 1988-03-15 Rca Corporation Photographic camera simulation systems working from computer memory
GB8614212D0 (en) * 1986-06-11 1986-07-16 Kodak Ltd Image processing method
JPH0738681B2 (ja) * 1987-03-20 1995-04-26 富士ゼロックス株式会社 領域認識装置
US5129013A (en) * 1987-10-13 1992-07-07 At&T Bell Laboratories Graphics image editor
JP2683008B2 (ja) * 1988-02-16 1997-11-26 株式会社リコー 矩形図形内部塗りつぶし方法
US4977604A (en) * 1988-02-17 1990-12-11 Unisys Corporation Method and apparatus for processing sampled data signals by utilizing preconvolved quantized vectors
US4975972A (en) * 1988-10-18 1990-12-04 At&T Bell Laboratories Method and apparatus for surface inspection
US5101445A (en) * 1989-03-16 1992-03-31 Unisys Corporation Method and apparatus for filtering digital data by concatenating preprocessed overlapping groups of the data
US5038388A (en) * 1989-05-15 1991-08-06 Polaroid Corporation Method for adaptively sharpening electronic images
US5245432A (en) * 1989-07-31 1993-09-14 Imageware Research And Development Inc. Apparatus and method for transforming a digitized signal of an image to incorporate an airbrush effect
US5181255A (en) * 1990-12-13 1993-01-19 Xerox Corporation Segmentation of handwriting and machine printed text
US5272764A (en) * 1989-12-08 1993-12-21 Xerox Corporation Detection of highlighted regions
US5181261A (en) * 1989-12-20 1993-01-19 Fuji Xerox Co., Ltd. An image processing apparatus for detecting the boundary of an object displayed in digital image
JPH04294166A (ja) * 1991-03-25 1992-10-19 Ricoh Co Ltd 画像処理装置
US5081692A (en) * 1991-04-04 1992-01-14 Eastman Kodak Company Unsharp masking using center weighted local variance for image sharpening and noise suppression
US5218350A (en) * 1991-04-26 1993-06-08 Xerox Corporation Image processing method for dodging with softened edge transitions
US5335295A (en) * 1991-05-08 1994-08-02 International Business Machines Corporation System and method for scaling a digital image
US5649031A (en) * 1992-03-31 1997-07-15 Hitachi, Ltd. Image information processor for producing high-quality output image
JP3472596B2 (ja) * 1993-06-11 2003-12-02 株式会社日立製作所 ノイズ低減フィルター
US5563962A (en) * 1994-03-08 1996-10-08 The University Of Connecticut Two dimensional digital hysteresis filter for smoothing digital images

Also Published As

Publication number Publication date
JPH07302336A (ja) 1995-11-14
FR2719141B3 (fr) 1996-06-14
US5933543A (en) 1999-08-03
US5710839A (en) 1998-01-20

Similar Documents

Publication Publication Date Title
FR2719141A1 (fr) Méthode et appareil pour occultation des détails d'une image.
EP2174289B1 (fr) Procede de traitement d'objet numerique et systeme associe.
EP0650299B1 (fr) Procédé de traitement des niveaux de luminance dans une image composite et système de traitement d'image appliquant ce procédé
EP1386480B1 (fr) Procede de capture et d'affichage d'une image panoramique numerique a resolution variable
CA2835047C (fr) Procede pour commander une action, notamment une modification de nettete, a partir d'une image numerique en couleurs
FR2596175A1 (fr) Procede et dispositif d'echantillonnage selon des points pseudo-aleatoires en informatique graphique
WO2003007238A1 (fr) Procede et systeme pour calculer une image transformee a partir d'une image numerique
EP1410327A2 (fr) Procede et systeme pour produire des informations formatees liees aux defauts d'au moins un appareil d'une chaine, notamment au flou
EP0692772A1 (fr) Procédé et dispositif pour détecter des points clés situés sur le contour d'un objet
EP1964053A2 (fr) Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
WO2005031646A1 (fr) Procede et systeme pour m7difier une image numérique de maniere differenciee et quasi reguliere par pixel
FR2773247A1 (fr) Procede de traitement d'une image multidimensionnelle bruitee et appareil d'imagerie medicale mettant en oeuvre ce procede
FR3021127A1 (fr) Systeme et procede d'acquisition d'images hyperspectrales
WO2002001239A1 (fr) Procede d'individualisation d'un element de circuit integre
WO2007071882A2 (fr) Procede pour fournir des donnees a un moyen de traitement numerique
WO1992016908A1 (fr) Procede de traitement d'images par files d'attente hierarchisees
CA2701151A1 (fr) Systeme d'imagerie a modification de front d'onde et procede d'augmentation de la profondeur de champ d'un systeme d'imagerie
WO2009133307A1 (fr) Dispositif de traitement d'images amélioré
WO2010052427A1 (fr) Procede de numerisation de livres en trois dimensions par ondes terahertz
FR2816155A1 (fr) Procede et dispositif de qualification de detecteurs d'image en fonction de leurs mauvais pixels
FR2921504A1 (fr) Procede et dispositif d'interpolation spatiale
FR2910673A1 (fr) Procede de traitement d'image et dispositif implementant ledit procede
WO2011089341A1 (fr) Procede de segmentation d'image, programme d'ordinateur et systeme informatique correspondant
WO2024194544A1 (fr) Procede de traitement d'une image brute, produit programme d'ordinateur et dispositif de traitement associes
EP0567377B1 (fr) Procédé de pistage à partir d'images d'éléments déformables, et/ou aux contours fortement bruités