BE1017547A6 - Compression d'images numeriques de documents scannes. - Google Patents

Compression d'images numeriques de documents scannes. Download PDF

Info

Publication number
BE1017547A6
BE1017547A6 BE2008/0258A BE200800258A BE1017547A6 BE 1017547 A6 BE1017547 A6 BE 1017547A6 BE 2008/0258 A BE2008/0258 A BE 2008/0258A BE 200800258 A BE200800258 A BE 200800258A BE 1017547 A6 BE1017547 A6 BE 1017547A6
Authority
BE
Belgium
Prior art keywords
image
steps
pixels
text
background
Prior art date
Application number
BE2008/0258A
Other languages
English (en)
Inventor
Michel Dauw
Muelenaere Pierre De
Original Assignee
Iris Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iris Sa filed Critical Iris Sa
Application granted granted Critical
Publication of BE1017547A6 publication Critical patent/BE1017547A6/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/162Quantising the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • G06V30/19013Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V30/1902Shifting or otherwise transforming the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Character Input (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

Un premier aspect de l'invention concerne un procédé permettant de créer une image de masque binaire à partir d'une image numérique saise d'un document scanné, comprenant les étapes suivantes: la création d'une image binarisée par binarisation de ladite image numérique saisie; la détection de premières zones de texte représentant du texte clair sur un arrière-plan foncé; et l'inversion des premières zones de texte, de sorte que les premières zones de texte inversées sont interprétables de la même façon comme du texte foncé sur un arrière-plan clair. Un second aspect de l'invention concerne un procédé permettant de comparer dans une image binaire une première tache de pixel à une seconde tache de pixel afin de déterminer si elles reprèsentent des symboles de correspondance, comprenant les étapes consistant à détecter une ligne dans une tache n'étant pas présente dans l'autre et/ou à déterminer si une des taches représentent un symbole en italiques que l'autre ne le représente pas.

Description

Compression d'images numériques de documents scannés Domaine technique
La présente invention concerne des procédés, des algorithmes et des produits programme lisible par ordinateur permettant de compresser des images numériques saisies de documents scannés.
Etat de la technique antérieur ITU-T ont défini dans leur Recommandation T.44 le modèle de contenu en trame mixte (MRC)1. En utilisant ce modèle, l’on peut compresser les images de document à niveaux de gris et en couleurs avec un taux de compression élevé, une bonne lisibilité du texte et un bon rendu des images. Le modèle MRC divise l'image de document en 3 couches : la couche de masque binaire, la couche d’avant-plan et la couche d’arrière-plan. La couche de masque est une image binaire, les couches d’avant-plan et d’arrière-plan sont des images en couleur (ou à niveaux de gris). Un pixel activé (ON) dans la couche de masque binaire indique que, lors de la décompression, la couleur (ou l’échelle de gris) doit être prise de la couche d’avant-plan. Un pixel désactivé (OFF) dans la couche de masque binaire indique que, lors de la décompression, la couleur (ou l’échelle de gris) doit être prise de la couche d’arrière-plan. Cependant, ITU-T T.44 n'indique pas le procédé de division en couches.
L’on connaît une première technique pour compresser une table de pixels à niveaux de gris ou en couleurs représentant un document par le brevet nord américain portant le numéro 5,778,092 ; cette technique correspondant au modèle MRC. La table de pixels est décomposée en une représentation à trois plans comprenant un avant-plan à résolution réduite, un arrière-plan à résolution réduite, et un plan sélecteur binaire à haute résolution. L’avant-plan contient des informations de niveaux de gris 1 Mixed Raster Content (MRC) model ou de couleurs d’articles en avant-plan, tels qu’un texte et des éléments graphiques. L’arrière-plan contient des informations de niveaux de gris ou de couleurs ou pour 'Tarrière-plan" de la page et des images à tons continus qui sont contenues sur la page. Le plan sélecteur sauvegarde des informations permettant de sélectionner soit parmi l’avant-plan ou l’arrière-plan pendant la décompression. Chacun des plans respectifs est compressé en utilisant une technique de compression appropriée pour le type de données correspondant.
L’on connaît une autre technique permettant de compresser des documents à niveaux de gris, en coulèurs, scannés par le brevet nord américain portant le numéro 6,731,800, dans le cadre duquel l’image numérique du document scanné est divisée en trois plans d’image, à savoir une image d’avant-plan, une image d’arrière-plan et une image de masque binaire. L’image de masque décrit quelles zones du document appartiennent à l’avant-plan et quelles zones appartiennent à l’arrière-plan. Dans le but de générer l'image de masque, une image de valeur seuil localement variable est générée à partir du document original réduit défini avec un procédé seuil adaptatif et est ramenée à nouveau au niveau de la dimension du document original. Avec cette technique également un texte inverse (texte clair sur un arrière-plan foncé) peut être détecté. Le texte inverse est détecté grâce au concept de “trous". Un “trou" est une zone d’avant-plan ou une tache qui touche une zone d'avant-plan différente qui a déjà été introduite. Ce procédé exige beaucoup de mémoire puisque toutes les taches doivent être détectées et nécessite de beaucoup de temps puisque l’on doit vérifier si les taches se touchent l’une l’autre. En outre les taches "noires" et les taches "blanches" doivent être enregistrées.
L’on connaît une technique de compression d'image par le brevet nord américain portant le numéro 6,748,115 qui utilise la sélection d’une valeur seuil de niveaux de gris afin de convertir une entrée d'image numérique à niveaux de gris en une entrée à deux niveaux qui minimise une faible connectivité, où la faible connectivité comporte un motif en damier trouvé dans une matrice 2x2 ou un voisinage de pixels. La valeur seuil pour la conversion est déterminée en traversant la matrice de pixels comprenant |e document en une seule trajectoire, en examinant les voisinages 2x2 successifs et en incrémentant un registre positif pour la valeur de niveaux de gris pour laquelle un motif en damier semble apparaît en premier lieu et en incrémentant un registre négatif pour la valeur de niveaux de gris pour laquelle le motif en damier n'existe plus.
Cependant, ces techniques de compression d'image présentent l'inconvénient que les taux de compression atteints sont insuffisants. La technique de compression a souvent aussi une incidence sur la qualité de l'image reconstruite, par exemple, sur la lisibilité du texte ou le rendu des images.
L’on connaît un procédé et un appareil destinés à comparer des symboles extraits à partir d’images binaires de texte pour le classement dans des classes d'équivalence par le.brevet nord américain portant le numéro 5,835,638. Un procédé similaire à Hausdorff est utilisé afin de comparer les symboles quant à leur similitude. Lorsqu’un symbole contenu dans une table de bits A est comparé à un symbole contenu dans une table de bits B, l’on détermine si le symbole dans la table de bits B rentre oui ou non dans une tolérance dans une représentation dilatée du symbole dans la table de bits A sans une dqnsité d’erreurs excessive et si le symbole dans la table de bits A rentre dans une tolérance dans une représentation dilatée du symbole dans la table de bits B sans une densité d’erreurs excessive. Si l’on réussit les deux tests, une vérification de la densité d'erreur est réalisée afin de déterminer une correspondance.
Ce procédé de comparaison de symboles connu présente l'inconvénient que dans beaucoup de cas une correspondance peut être renvoyée alors qu’en réalité un mésappariement se produit
Divulgation de l'invention
Un premier objectif de l’invention consiste à fournir une technique de binarisation d’image qui soit plus économe en temps et en mémoire.
Le premier objectif est atteint avec la technique de binarisation d’image de la première revendication indépendante.
Un second objectif de l’invention consiste à fournir une technique de comparaison de symboles qui génère le moindre nombre de classes de modèles, substantiellement sans erreurs de substitution.
Ce second objectif est atteint avec la technique de comparaison de symboles de la seconde revendication indépendante.
Un autre objectif de l’invention consiste à fournir une technique de compression d’image dans laquelle le premier aspect et/ou le second aspect susmentionnés sont appliqués.
Dans un premier aspect de l’invention, l’on propose un procédé permettant de créer une image de masque binaire à partir d’une image numérique saisie d’un document scanné. Le procédé comprend les étapes suivantes : (a) la création d’une image binarisée par binarisation de ladite image numérique saisie, (b) la détection, dans ladite image binarisée, de premières zones de texte représentant un texte clair sur un arrière-plan foncé dans ladite image numérique saisie, et (c) l'inversion desdites premières zones de texte dans ladite image binarisée, de sorte que les premières zones de texte inversées sont susceptibles d’être interprétées de la même façon que du texte foncé sur un arrière-plan clair. A l’aide de ces étapes, le texte inversé (texte clair sur un arrière-plan foncé) est susceptible d’être détecté d'une manière plus efficace par rapport à l’état antérieur de la technique, en particulier à une vitesse plus élevée et nécessitant moins de mémoire. Par l'inversion, le texte inverse devient interprétable de la même façon comme du texte normal (texte foncé sur un arrière-plan clair), ainsi aucune étape spéciale ou aucun algorithme ne sont nécessaires afin de détecter le texte inverse et pour le placer dans le masque binaire.
Le procédé du premier aspect de l’invention peut par exemple être appliquée dans des techniques de compression d’image en utilisant le modèle MRC. Dans de telles techniques, le fait d’enregistrer le texte inverse de la même façon comme pour du texte normal présente l'avantage que le texte inverse peut être mis à l’avant-plan et pas à l’arrière-plan. En conséquence, le texte inverse peut être compressé par une technique de compression basée sur des symboles qui peut conduire à un taux de compression plus élevé. Eh outre, la lisibilité du texte inverse dans l'image reconstruite peut être améliorée, puisqu'elle est reconstruite sur la base des images d’avant-plan et d’arrière plan et pas uniquement sur l’image d’arrière plan qui présente habituellement une faible résolution et qui est compressé avec une faible qualité.
Le procédé du premier aspect de l'invention peut par exemple être appliqué dans des techniques de reconnaissance de textes. Dans de telles techniques, le fait d’enregistrer le texte inverse de la même façon comme pour du texte normal présente l'avantage que le texte inverse peut être reconnu ensemble avec le texte normal et peut faire l’objet, par la suite également, de recherches sur texte.
Dans des modes de réalisation préférés, le procédé du premier aspect de l'invention comporte en outre une ou plusieurs des étapes suivantes : (d) la détection, dans ladite image binarisée, de secondes zones de texte représentant un texte foncé sur un arrière-plan clair dans ladite image numérique saisie, et (e) l'élimination de zones de texte de l'image binarisée qui ne représentent aucun texte réel, mais par exemple des éléments d'image provenant de parties d'image dans l'image saisie.
La création de l’image binarisée par la binarisation de l'image numérique saisie comporte, de préférence, les étapes suivantes : (a1) la formation d’une image à niveaux de gris à partir de ladite image numérique saisie, (a2) la détection de contours dans ladite image à niveaux de gris, en formant de ce fait une image binaire de contour contenant des pixels de contour et des pixels hors contour, (a3) la détermination de valeurs seuil pour chacun desdits pixels de contour sur la base de pixels environnants et donnant auxdits pixels hors contour une valeur seuil nulle, en formant de ce fait une image à niveaux de gris seuil, (a4) la détermination de valeurs seuil pour chacun desdits pixels hors contour touchant les pixels de contour sur la base de valeurs seuil environnantes, (a5) la mise à l'échelle de ladite image à niveaux de gris seuil en gardant les valeurs seuil maximales, (a6) la propagation des valeurs seuil de pixels ayant une valeür positive à des pixels ayant une valeur nulle, et (a7) la formation d’une première image binaire sur la base de ladite image à niveaux de gris et de ladite image à niveaux de gris seuil mise à l'échelle. Ces étapes présentent l'avantage que le seuil qui est employé pour former la première image binaire varie afin de détecter plus d'éléments avec plusieurs luminosités et contrastes dans l'image numérique saisie. Dans une technique de compression modèle MRC, ceci peut améliorer la qualité de l'image reconstruite après la décompression.
L’étape (a2) de détection des contours de symboles de texte dans ladite image comprend, de préférence, l’utilisation d’un algorithme de contours de Canny pour ladite détection des contours de symboles de texte. Un algorithme de contours de Canny utilise un algorithme par étapes afin de détecter une large gamme dç contours et est par exemple connu par J. Canny, “A Computational Approach to Edge Détection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 8, No. 6, Nov 1986, lequel est incorporé ici comme référence dans sa totalité. L’utilisation de cet algorithme peut conduire à une amélioration substantielle dans la détection et/ou reconnaissance de symboles de texte dans une image.
Encore mieux, la création de l'image binaire comporte en outre les étapes suivantes : (a8) la formation d’une seconde image binaire sur la base de ladite image à niveaux de gris et de ladite image à niveaux de gris seuil, et (a9) la formation de ladite image binarisée par la combinaison desdites première et seconde images binaires. Ces étapes présentent l'avantage que le seuil qui est employé pour former la seconde image binaire varie plus encore afin de détecter bien plus d’éléments avec plusieurs luminosités et contrastes dans l'image numérique saisie. Dans une technique de compression modèle MRC, ceci peut améliorer la qualité de l'image reconstruite après la décompression.
Dans un mode de réalisation, la création de l'image de masque binaire comporte la réduction de la résolution de l'image numérique saisie par un facteur de réduction de résolution de masque binaire. De cette façon, la résolution de masque binaire peut par exemple être réglable par l'utilisateur dans une technique de compression modèle MRC, en fonction de la qualité souhaitée de l'image reconstruite.
Dans un second aspect de l’invention qui peut être associé ou pas associé avec les autres aspects de l'invention, l’on propose un procédé permettant de comparer, dans une image primaire, une première tâche de pixels à une seconde tache de pixels afin de déterminer si elles représentent des symboles de correspondance, comprenant les étapes suivantes : (f) la dilatation de la première tache et le fait de vérifier si la seconde tache s’intégre dans la première tache dilatée, et (g) la dilatation de la seconde tache et le fait de vérifier si la première tache s’intégre dans la seconde tache dilatée. Le procédé de cornparaison comprend en outre au moins une des étapes suivantes : (h) la détection d’une ligne dans une parmi la première et la seconde tache qui ne soit pas présente dans l’autre, (i) le fait de déterminer si une parmi la première et la seconde tache représente un symbole en italiques tandis que l’autre ne le représente pas. Les étapes (h) et (i) peuvent efficacement réduire le nombre de correspondances de symboles erronées ou, en d'autres termes, réduire le risque que des symboles en mésappariement soient détectés en tant que symboles de correspondance.
De préférence, dans le procédé selon le second aspect de l'invention, l'étape (h) comporte la vérification de croisements NxN dans lesquels une ligne dans une des taches présente une couleur différente de celle d'une ligne dans l'autre tache, où N est un nombre de bits, de préférence 3.
De préférence, dans le procédé selon le second aspect de l'invention, l'étape (i) comprend le fait de vérifier si le nombre de pixels noirs qui sont communs à la première et à la seconde tache se situe au-dessus d’un seuil prédéterminé. Ce seuil prédéterminé égale, de préférence, 80-90%, idéalement environ 85% du montant total de pixels dans une tache, mais d’autres seuils peuvent également être utilisés si cela est considéré comme approprié par l’homme du métier.
Tous les aspects de l'invention mentionnés ci-dessus peuvent faire partie d'un aspect supplémentaire de l'invention, à savoir un procédé de compression destinée à compresser l'image numérique saisie dudit document scanné, ledit procédé de compression comportant les étapes suivantes : (j) la segmentation de ladite image numérique saisie en de multiple couches d’image comprenant une image d’avant-plan contenant des informations de couleurs pour des éléments d’avant-plan dudit document, une image d’arrière-plan contenant des informations de couleurs pour des éléments d'arrière-plan dudit document et ladite image de masque binaire permettant de sélectionner entre des pixels dans ladite image d’avant-plan et ladite image d’arrière-plan lors de la décompression de ladite image numérique compressée, et (k) la compression de chacune des couches d'image à l'aide d'une technique de compression appropriée, obtenant de ce fait une image numérique compressée.
De préférence, dans cet aspect ultérieur, la création de ladite image de masque binaire implique la réduction de la résolution de l'image numérique saisie par un facteur de réduction de résolution de masque binaire. La résolution de masque binaire peut par exemple être réglable par l'utilisateur, en fonction de la qualité souhaitée de l'image reconstruite.
De préférence, dans cet aspect ultérieur, les images d’avant-plan et d’arrière-plan sont formées en réduisant la résolution par un facteur de réduction de résolution d’avant-plan et un facteur de réduction de résolution d’arrière-plan respectivement. Les résolutions d’avant-plan et d’arrière-plan peuvent par exemple être réglables par l’utilisateur, en fonction de la qualité souhaitée de l'image reconstruite.
De préférence, dans cet aspect ultérieur, la'compression comporte les étapes suivantes : (k1) la compression desdites images d’avant-plan et d’arrière-plan à l’aide d'une technique de compression d'image, telle que par exemple JPEG 2000 ou tout autre technique connue par l’homme du métier, et (k2) la compression de ladite image de masque binaire à l’aide d'une technique de compression basée sur des symboles.
Un avantage des modes de réalisation conformément à l’invention consiste en ce qu'une technique de compression d'image destinée à des documents scannés est mise à disposition avec laquelle un taux de compression plus élevé peut être atteint sans avoir d’incidence sur la qualité de l’image reconstruite.
Un autre avantage des modes de réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image qui ne transige pratiquement pas sur la lisibilité du texte ou le rendu des images.
Un autre avantage des modes de. réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image qui est très flexible permettant de régler le problème du choix entre compacité et qualité.
Un autre avantage des modes de réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image qui est conçue pour n'importe quel type de documents, par exemple des documents qui peuvent contenir des éléments de texte de différentes couleurs et intensités et/ou des documents contenant des éléments de texte placés sur des arrière-plans de différentes couleurs et intensités ou sur des arrière-plans non uniformes tels qu’une filigrane ou une photo.
Un autre avantage des modes de réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image qui est conçue pour des documents contenant un texte clair sur un arrière-plan foncé.
Un autre avantage des modes de réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image avec laquelle des lignes graphiques verticales et horizontales peuvent être décompressées avec une qualité élevée.
Un autre avantage des modes de réalisation conformément à l'invention consiste en ce que l’on met à disposition une technique de compression d'image dans laquelle aucun paramètre spécifique au document ne doit être instauré pour un type particulier de document.
Brève description des dessins L’invention sera expliquée ultérieurement à l’aide de la description suivante et des Figures annexées.
La Figure 1 montre un organigramme général d’un algorithme de compression modèle MRC, conformément à l'invention.
La Figure 2 montre un organigramme détaillé de l'étape de segmentation dans l'organigramme de la Figure 1.
La Figure 3 montre un organigramme détaillé de l’étape de binarisation dans l'organigramme de la Figure 2.
La Figure 4 montre un organigramme détaillé de l’étape de sélection des éléments d’avant-plan dans l'organigramme de la Figure 2.
La Figure 5 montre un organigramme détaillé de l’étape d’élimination de la grande tache et de l’étape d’inversion de la tache blanche dans l'organigramme de la Figure 4.
La Figure 6 montre une alternative de l’organigramme de la Figure 5 dans lequel en outre l’on maintient les éléments graphiques verticaux et horizontaux.
La Figure 7 montre un organigramme détaillé de l’étape de formation de l’image d’arrière-plan dans l'organigramme de la Figure 2.
La Figure 8 montre un organigramme détaillé de l’étape de formation de l’image d’avant-plan dans l'organigramme de la Figure 2.
La Figure 9 montre un organigramme d’un algorithme de comparaison de symboles, conformément à l’invention. ,
La Figure 10 montre une visualisation des étapes de l’algorithme de comparaison de symboles de la Figure 9.
La Figure 11 montre un exemple d’une image en couleurs saisie, compressible à l’aide du procédé des Figures de 1 à 8.
La Figure 12 montre l’image de la Figure 11 après l'étape de binarisation.
La Figure 13 montre une image de masque binaire formée à partir de l’image de la Figure 11.
La Figure 14 montre une image d’arrière-plan formée à partir de l’image de la Figure 11.
La Figure 15 montre une image d’avant-plan formée à partir de i l’image de la Figure 11.
La Figure 16 montre une image reconstruite formée à l’aide des images des Figures de 13 à 15.
Les Figures 17-21 montrent, étape par étape, comment l’image de masque binaire de la Figure 13 est formée à partir de l’image binarisée de la Figure 12.
Modes de réalisation de l’invention
La présente invention sera décrite par rapport à. des modes de réalisation particuliers et en faisant référence à certains dessins, mais ceci ne limitera pas la portée de l'invention qui est limitée uniquement par les revendication. Les dessins décrits sont uniquement schématiques et non limitatifs. Dans les dessins, la dimension de certains des éléments peut être exagérée et n’être pas dessinée à l'échelle à titre d'exemple. Les dimensions et les dimensions relatives ne correspondent nécessairement pas aux réductions réelles conformément à la pratique de l'invention.
En outre, les termes premier, second, troisième et les termes similaires, dans la description et dans les revendications, sont utilisés afin d’établir une distinction entre des éléments similaires et pas nécessairement dans le but de décrire un ordre chronologique ou séquentiel. Les termes sont interchangeables lors de circonstances appropriées et les modes de réalisation de l’invention peuvent fonctionner dans d’autres séquences que celles décrites ou illustrées dans ce texte.
En outre, les termes haut, bas, au dessus, en dessous et autres termes similaires, dans la description et dans les revendications, sont utilisés à titre descriptif et pas nécessairement dans le but de décrire des positions relatives. Les termes ainsi employés sont interchangeables lors de circonstances appropriées et les modes de réalisation de l’invention ici décrits peuvent fonctionner dans d'autres orientations que celles décrites ou illustrées dans ce texte.
Le terme “comportant ou comprenant”, utilisé dans les revendications, ne devrait pas être interprété comme étant limité aux moyens énumérés dans la suite ; il n'exclut pas d'autres éléments ou étapes. Il doit être interprété en tant qu'indication de la présence des caractéristiques indiquées, des nombres entiers, des étapes ou des composants tels que décrits et auxquels l’on faut référence, mais n'exclut pas la présence ou addition d'une ou de plusieurs autres caractéristiques, nombres entiers, étapes ou composants, ou groupes de ceux-ci. Ainsi, la portée de l'expression "un dispositif comportant les moyens A et B" ne devrait pas être limitée aux dispositifs se composant uniquement des composants A et B. Il signifie qu'en ce qui concerne la présente invention, les seuls composants appropriés du dispositif sont A et B.
L'expression “image en couleurs”, telle qu’elle est utilisée ici, est prévue pour signifier une image tramée en couleurs, c’est-à-dire une table de pixels avec chaque pixel représentant une valeur de couleurs.
L'expression “image à niveaux de gris", telle qu’elle est utilisée ici, est prévue pour signifier une table de pixels avec chaque pixel représentant une valeur d'intensité.
L'expression “image binaire” ou “image binàrisée”, telle qu’elle est utilisée ici, est prévue pour signifier une image bitonale, par exemple une image en noir & blanc, c’est-à-dire une table de pixels avec chaque pixel représentant une valeur binaire (activé ou désactivé, 1 ou 0, noir ou blanc).
L'expression “binarisation”, telle qu’elle est utilisée ici, se réfère à une opération qui transforme une image en couleurs ou à niveaux de gris en une image binaire.
L’expression opération “ET” de 2 images binaires, telle qu’elle est utilisée ici, se réfère à une opération qui exécute le ET logique de pixels correspondants dans les 2 images sources et intègre le résultat dans l’image de destination.
L’expression opération “OU” de 2 images binaires, telle qu’elle est utilisée ici, se réfère à une opération qui exécute le OU logique de pixels correspondants dans les 2 images sources et intègre le résultat dans l’image de destination.
L’expression opération “XOU” (OU exclusif) de 2 images binaires, telle qu’elle est utilisée ici, se réfère à une opération qui exécute le XOU logique de pixels correspondants dans les 2 images sources et intègre le résultat dans l’image de destination.
L’expression une “inversion” d’une image binaire, telle qu’elle est utilisée ici, se réfère à une opération qui inverse chaque pixel de l’image source et intègre le résultat dans l’image de destination.
L’expression “dilatation” d’une image binaire, telle qu’elle est utilisée ici, se réfère à une opération qui pour chaque pixel noir ajoute un motif noir NxN sur l’image de destination avec le motif centré au niveau de l'emplacement correspondant dans l'image de destination. Par exemple, une dilatation par un motif noir 3x3 signifie une opération qui pour chaque pixel noir ajoute un motif noir 3x3 sur l’image de destination.
L’expression “dilatation” d’une image à niveaux de gris, telle qu’elle est utilisée ici, se réfère à une opération qui pour chaque pixel recherche la valeur du pixel la plus foncée dans un carré NxN (par exemple, 3x3) centré sur ce pixel et intègre cette valeur au pixel correspondant de l’image de destination.
L’expression une “tache” dans une image binaire, telle qu’elle est utilisée ici, se réfère à un groupe de pixels noirs ou blancs connectés.
Dans ce qui suit, des aspects de l’invention seront décrits en utilisant l’exemple d’un procédé de compression d’image. A noter que plusieurs des algorithmes décrits peuvent également être appliqués dans d’autres procédés, par exemple pour la reconnaissance de textes ou d’autres choses encore. En outre, de nombreuses modifications peuvent être apportées aux étapes et aux algorithmes décrits sans s’écarter pour cela de la portée de l’invention.
Le procédé de compression représenté dans la Figure 1 est basé sur le modèle MRC dans lequel l’image en couleurs ou à niveaux de gris saisie est segmentée en trois couches, après quoi chaque couche est compressée séparément à l’aide d’une . technique de compression appropriée. En particulier, une image en couleurs saisie 1 est segmentée en une image d’arrière-plan 5, une image de masque binaire 6 et une image d’avant-plan 7 à l’aide d’un algorithme de segmentation 100 qui assume comme paramètres un facteur de réduction de résolution d’arrière-plan 2, un facteur de réduction de résolution d’avant-plan 3 et un facteur de réduction de résolution de masque binaire 4. L’image de masque 6 est une image binaire, les images d’avant-plan et d’arrière-plan 5, 7 sont des images en couleurs ou à niveaux de gris (selon que l’image saisie 1 est en couleur ou à niveaux de gris). Un pixel activé dans l’image de masque binaire 6 indique que, lors de la décompression, la couleur (ou l’échelle de gris) doit être prise de l’image d’avant-plan 7. Un pixel désactivé dans l'image de masque binaire 6 indique que, lors de la décompression, la couleur (ou l’échelle de gris) doit être prise de l’image d’arrière-plan 5. Par la suite, l’image d’arrière-plan 5 est compressée à l’aide d’une technique de compression d'image 300 (telle que par exemple JPEG 2000) qui prend comme paramètre une qualité d’arrière-plan 8, l’image de masque binaire 6 est compressée par une technique de compression basée sur des symboles (telle que par exemple JBIG2) qui prend comme paramètre une qualité dé masque 9 et l’image d’avant-plan 7 est compressée à l’aide d’une technique de compression d’image 500 (telle que par exemple JPEG 2000) qui prend comme entrée une qualité d’avant-plan 10. En conclusion, les images compressées sont encapsulées dans un format lisible de document comme par exemple un PDF, produisant une image compressée 11.
L'algorithme de segmentation 100 est détaillé à l’aide des Figures de 2 à 8 qui montrent ses étapes et ses sous-algorithmes. En général, comme ceci est représenté dans la Figure 2, la segmentation comporte les étapes suivantes. L'image saisie 1 est binarisée avec un algorithme local adaptatif 110, ce qui a pour résultat une image binarisée 123 à partir de laquelle les éléments d’avant-plan sont sélectionnés dans l'étape 125 afin de former une image de masque binaire 6. Cette image de masque binaire 6 est employée afin de former, sur la base de l'image saisie 1, l’image d’arrière-plan 5 dans l'étape 170 et l’image d'avant-plan 7 dans l'étape 180. Les étapes 170 et 180 tiennent compte du facteur de réduction de résolution d’arrière-plan 2 et du facteur de réduction de résolution d’avant-plan 3 respectivement. L’étape 126 est une étape facultative permettant de réduire la résolution de l'image de masque binaire 6 sur la base du facteur de réduction de résolution de masque binaire 4.
Comme ceci est représenté dans la Figure 3, le binarisation de l'image saisie 1 comporte un algorithme local adaptatif 110 avec les étapes suivantes. Dans l'étape 111, l'image saisie 1 (si en couleurs) est transformée en image à niveaux de gris en calculant les intensités des pixels. Cette image à niveaux de gris peut être lissée (par exemple par un filtre gaussien) afin de réduire les bruits.
Ensuite, dans l’étape 112, les contours sont détectés dans l’image à niveaux de gris à l’aide de l’algorithme de détection de contours de Canny. Ceci a été développé par John F. Canny en 1986 et utilise un algorithme par étapes afin de détecter' une large gamme de contours, et est par exemple décrit dans J. Canny, “A Computational Approach to Edge Détection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 8, No. 6, Nov 1986, lequel est incorporé ici comme référence dans sa totalité. L'algorithme utilise deux seuils "Thaut" et "Tbas" afin d’éviter de détruire un profil de contour. Un profil de contour commence avec un pixel dont le gradient est supérieur à Thaut, mais peut également continuer même pour des pixels dont le gradient est inférieur à Thaut, mais supérieur à Tbas. Conformément à l’invention, des valeurs typiques pour Tbas et Thaut sont 32 et 40 respectivement pour une image à niveaux de gris à 1-octet. Cet algorithme de détection de contours de Canny est employé afin de détecter les contours des éléments de texte et graphiques dans l'image à niveaux de gris. En agissant de la sorte, également des contours dans des images sont détectés, mais ceci n'est pas un problème puisque les éléments d’image peuvent être filtrés par la suite (étape 160, voir ci-dessous). Le détecteur de contours de Canny produit une image binaire dans laquelle uniquement les pixels de contours sont établis à 1.
Par rapport à d’autres algorithmes de détection de contours, l’algorithme de détection de contours de Canny présente les avantages suivants : - bonne détection : l’algorithme marque autant de contours réels que possible dans l'image; - bonne localisation : les contours marqués sont le plus près possible du contour dans l’image réelle ; - réponse minimale : un contour donné dans l’image est uniquement marqué une seule fois, et dans la mesure du possible, le bruit d'image ne crée pas de faux contours.
Ensuite dans l’étape 113, une valeur seuil est calculée pour chaque pixel de contour de la sortie d’image binaire de contours par l’algorithme de contours de Canny 112. Le seuil correspond à la moitié de la somme d'une valeur minimale et maximale. La valeur minimale est la valeur minimale d'un carré 3x3 centré sur le pixel examiné. La valeur maximale est la valeur maximale d'un carré 3x3 centré sur le pixel examiné. Les pixels hors contour reçoivent une valeur seuil 0.
Ensuite dans l’étape 114, des valeurs seuil sont attribuées aux pixels hors contour touchant les pixels de contour. Les valeurs seuil sont copiées à partir de l’entrée vers la sortie. Pour les pixels hors contour (valeur = 0), un carré 3x3 est centré sur chaque pixel. La somme des valeurs seuil pour les pixels dans ce carré est calculée et divisée par le nombre de pixels de contour, s’il y en a. Cette valeur est copiée sur l’image de sortie. La sortie de l’étape 114 est une image à niveaux de gris seuil.
Ensuite dans l’étape 115, cette image à niveaux de gris seuil est mise à l’échelle par un facteur entier, de préférence 4. L’image de sortie est initialisée à 0. Pour chaque pixel de sortie, les valeurs des pixels d’entrée correspondantes sont ajoutées et divisées par le nombre de valeurs non nulles, s’il y en a.
Ensuite dans l’étape 116, l’on calcule la moyenne des seuils avec les valeurs des voisins. Un carré 3x3 est centré sur chaque pixel pour lequel la valeur est différente de 0. La somme des valeurs seuil pour les pixels dans ce carré est calculée et divisée par le nombre de valeurs non nulles, s’il y en a. Cette valeur est copiée sur l’image de sortie.
Ensuite dans l’étape 117, les valeurs seuil sont propagées aux pixels n’ayant aucune valeur seuil. Premièrement, des valeurs seuil sont attribuées aux pixels à valeur non nulle touchant les pixels à valeur nulle à peu près de la même façon comme dans l'étape 114. Deuxièmement, un algorithme de propagation à 2 passages est employé. Dans un premier passage, l’image est scannée de gauche à droite et du haut vers le bas. Pour des pixels à valeur nulle, la valeur est établie au niveau de celle du pixel voisin avec la valeur non nulle la plus faible. Dans un second passage, l’image est scannée de droite à gauche et du bas vers le haut. A nouveau, pour les pixels à valeur nulle, la valeur est établie au niveau de celle du pixel voisin avec la valeur non nulle la plus faible. De la sorte, tous les pixels reçoivent une valeur seuil.
Ensuite dans l’étape 118 une première image binaire 119 est formée par la combinaison de la sortie d'image à niveaux de gris de l'étape 111 et de la sortie d’image à niveaux de gris mise à l’échelle seuil de l'étape 117. La valeur de chaque pixel de l'image à niveaux de gris est comparée à la valeur seuil du pixel correspondant dans l'image seuil mise à l’échelle. Une valeur de 1 ou de 0 est établie dans la première image binaire 119 selon que la valeur de pixel se situe en dessous ou au-dessus du seuil.
Dans l’étape 120 une seconde image binaire 121 est formée par la combinaison de la sortie d'image à niveaux de gris de l'étape 111 et de la sortie d’image à niveaux de gris seuil de l’étape 114. La valeur de chaque pixel de l'image à niveaux de gris est comparée à la valeur seuil du pixel correspondant dans l'image seuil. Une valeur de 1 ou de 0 est établie dans la seconde image binaire 121 selon que la valeur de pixel se situe en dessous ou au-dessus du seuil.
En conclusion, dans l’étape 122 de l’algorithme de binarisation 110, un OU est réalisé de la première image binaire 119 et de la seconde image binaire 121 afin de générer l’image binarisée 123.
L’image binarisée 123 contient, en plus des éléments de texte et graphiques, des éléments provenant des parties d'image dans l'image saisie 1. L’on préfère que ces éléments soient éliminés, de sorte qu'ils ne se produisent pas dans l'image de masque binaire 6. En outre, des éléments de texte en blanc sur noir sont inversés pour qu'ils deviennent interprétables de la même façon comme du noir sur texte blanc, ce qui est très avantageux dans le traitement ultérieur de l'image de masque binaire 6. Ces étapes sont exécutées par un algorithme de sélection 125 qui est montré dans la Figure 4.
A l’aide de sous-algorithmes 130 ou 140, de grandes taches sont éliminées de l’image binarisée 123 et les taches blanches sont inversées. La différence entre les deux consiste en ce que dans le sous-algorithme 140 des étapes sont ajoutées de sorte à garder des éléments graphiques horizontaux et verticaux.
Le sous-algorithme 130, montré dans la Figure 5, comprend les étapes suivantes. Dans l’étape 131, uniquement de grandes taches noires sont maintenues, c’est-à-dire des taches avec un nombre de pixels au-delà d’un minimum donné. Ensuite, l’image avec ces taches maintenues est inversée dans l’étape 132. Dans l’étape 133 un ET logique est réalisé de cette image inversée et de l’image binarisée. Ces étapes sont répétées pour la sortie d’image de l’étape 132 : à nouveau uniquement de grandes taches noires sont maintenues dans l’étape 134, l’image avec ces taches maintenues est inversée dans l’étape 135 et un ET est réalisé dans l’étape 136 avec la sortie d’image de l’étape 132. En conclusion, un XOU est réalisé dans l’étape 137 des sorties d'image des étapes 133 et 136, résultant en une image binaire.transformée 138.
Le sous-algorithme 140, montré dans la Figure 6, comprend les étapes suivantes. A l’aide de l’étape d’élimination 141 et de l’étape XOU
142 des éléments graphiques horizontaux et verticaux sont séparés de l’image binarisée 123. Les étapes 143-145 correspondent aux étapes 131-133 du sous-algorithme 130. A l’aide de l’étape d’élimination 146 et de l’étape XOU 147, d’autres éléments graphiques horizontaux et verticaux sont séparés de la sortie d’image de l’étape 144. Ces éléments graphiques séparés sont combinés dans l’étape 148 en exécutant un OU des sorties des étapes XOU 142 et 147. Les étapes 149-151 correspondent aux étapes 134-136 du sous-algorithme 130. A nouveau, un XOU est exécuté dans l’étape 152 des sorties d'image des étapes ET 145 et 151. En conclusion, une image binaire transformée 157 est générée dans l’étape 156 en exécutant un OU des sorties des étapes XOU 152 et de l’étape OU 148, remettant les éléments graphiques horizontaux et verticaux dans l'image.
Les étapes susmentionnées permettant d’inverser le blanc sur les éléments de texte noirs présentent l'avantage qu'il n'est pas nécessaire de sauvegarder les descriptions (table de bits ou liste de passages) de toutes les taches du document. Ceci est nécessaire dans le cadre de procédé de l'état de la technique antérieur, en particulier afin d'inverser le blanc sur des taches noires en cherchant les trous (taches incluses dans d'autres taches). Dans les algorithmes 130 et 140 les taches sont traitées dès qu'elles sont trouvées et après qu'une goutte a été traitée, sa description est éliminée.
Revenant à la Figure 4, l'image de masque binaire 6 est générée à partir de l'image binaire transformée 138/157 en éliminant les taches d'image (c’est-à-dire les taches ne concernant aucun élément de texte réel). Ceci est atteint par une étape de filtrage 160 qui emploie le principe de longueur descriptive minimale2 qui est connu de l’état de la technique. Ici l’on décide pour chaque tache si c’est un élément d’avant-plan ou d’arrière-plan. Par l’application du principe de longueur descriptive 2 Minimum Description Length Principle minimale, la stratégie est de savoir si la tache serait mieux compressée en étant l’avant-plan ou en faisant partie de l’arrière-plan. Si la tache est dans l’arrière-plan, elle serait compressée dans l’image d’arrière-plan. Si la tache est dans l’avant-plan, elle serait compressée dans l'image de masque binaire et dans l'image d'avant-plan. Ainsi, le coût des différentes compressions doit être estimé. L'évaluation est faite en utilisant des modèles simples. Le modèle d’arrière-plan suppose que la couleur change progressivement. La couleur d'un pixel n'est pas très différente de ses voisins. Le coût est la somme des erreurs entre les couleurs de pixel et la couleur moyenne locale. Le modèle d’avant-plan suppose que tous les pixels d'une tache présentent la même couleur. Ceci est habituellement le cas pour des éléments de texte. Le coût est la somme des erreurs entre les couleurs de pixel et la couleur moyenne. Le modèle de masque binaire suppose que le coût de compression dépend du périmètre de la tache. Ainsi, une tache fait partie de l’arrière-plan (et est filtrée) si : coût arrière-plan < coût avant-plan + périmètre * facteur
Le facteur est le seul paramètre et il est mis au point en effectuant le test sur de nombreuses pages. Ici encore, les taches sont traitées dès qu'elles sont trouvées. Après qu'une tache ait été traitée, l’on élimine sa description.
Comme montré dans la Figure 7, l’image d’arrière-plan 5 est générée à l’aide d'un algorithme 170 qui assume en tant qu’entrées l'image saisie 1, l'image de masque binaire 6 et le facteur de réduction de résolution d’arrière-plan 2 qui peut être un paramètre définissable par l’utilisateur. Dans l'étape 171, l'image de masque binaire est dilatée. Dans l'étape 172, la résolution est réduite par le facteur de réduction de résolution d’arrière-plan 2. De même, dans l'étape 173 la résolution de l'image saisie 1 est réduite par le facteur de réduction de résolution de d’arrière-plan 2. Les images résultantes sont combinées dans l’étape 174 afin de combler les pixels "vides". La couleur des pixels de l'image saisie réduite qui sont activés dans l'image de masque binaire réduite est changée en utilisant un algorithme séquentiel à 2 étapes. Dans un premier passage les 2 images sont scannées de gauche à droite et du haut vers le bas. Lorsque l’on rencontre un pixel "vide" (valeur désactivée dans le masque binaire réduit), un carré 3x3 est centré sur celui-ci dans l’image saisie réduite et la somme des valeurs de couleurs pour les pixels dans ce carré est calculée et divisée par le nombre de pixels non vides, s'il y en a. Cette valeur de couleurs est attribuée au pixel dans l'image saisie réduite. Dans un second passage, les 2 images sont scannées de droite à gauche et du bas vers le haut. A nouveau, lorsque l’on rencontre un pixel "vide", une valeur de couleurs lui est attribuée de la même façon comme dans le premier passage.
Comme montré dans la Figure 8, l’image d'avant-plan 7 est générée à l’aide d'un algorithme 180 qui assume en tant qu’entrées l'image saisie 1, l'image de masque binaire 6 et le facteur de réduction de résolution d'avant-plan 3 qui peut être un paramètre définissable par l’utilisateur. Dans les étapes 181 et 182, l'image de masque binaire est ultérieurement inversée et dilatée. Dans l'étape 183, la résolution est réduite par le facteur de réduction de résolution d'avant-plan 2. De même dans l'étape 185 la résolution de l'image saisie 1 est réduite par le facteur de réduction de résolution d'avant-plan 2. Les images résultantes sont combinées dans l'étape 186 afin de combler les pixels "vides". La couleur des pixels de l'image saisie réduite qui sont activés dans l'image de masque binaire réduite est changée en utilisant un algorithme séquentiel à 2 étapes comme dans l'étape 174.
Un exemple d’une image compressée à l’aide du procédé des Figures de 1 à 8 est montré dans les Figures de 11 à 16. La Figure 11 montre une image en couleur saisie 1 qui est un document scanné à 300 dpi. La Figure 12 montre l’image binarisée 123 après la binarisation 110 et la Figure 13 montre l'image de masque binaire 6 après la sélection des éléments d’avant-plan 125. L'image de masque binaire est également à 300 dpi, ce qui signifie que dans ce cas-ci le facteur de réduction de résolution de masque binaire est établi à 1 (aucune réduction). La Figure 14 montre l’arrière-plan 5 qui est à 100 dpi, ce qui signifie que le facteur de réduction de résolution d’arrière-plan est établi à 3. La Figure 15 montre l’image d’avant-plan 7 qui est à 50 dpi, ce qui signifie que le facteur de réduction de résolution d’avant-plan est établi à 6. La Figure 16 montre l'image reconstruite 12 qui est atteinte après la décompression de l'image compressée 11. Puisque l'image de masque binaire est à 300 dpi, l'image reconstruite est également à 300 dpi, c’est-à-dire la même résolution que l'image saisie 1. A partir d’une comparaison des Figures 11 et 16 il apparaît clairement qu'une qualité élevée des images reconstruites peut être atteinte avec le procédé de compression des Figures de 1 à 8.
Les Figures de 17 à 21 montrent comment l’image de masque binaire 6 est formée à partir de l’image binarisée 123 par le processus de sélection des éléments d’avant-plan 125 (voir Figures de 4 à 6). La Figure 17 montre l’image binarisée 123 après la séparation de la ligne noire verticale au milieu de l'image, c’est-à-dire après l'étape 141. La Figure 18 montre l’image binarisée 123 avec uniquement les grandes taches noires maintenues et après l’inversion, c’est-à-dire après les étapes 143 et 144. La Figure 19 montre l’image binarisée 123 sans les grandes taches noires, ce qui est atteint en soumettant à une opération ET les images des Figures 17 et 18 dans l’étape 145. La Figure 20 montre le résultat après les étapes 146-151, c’est-à-dire une image inversée sans grandes taches noires. En soumettant à une opération XOU ces deux images des Figures 19 et 20 dans l’étape 152, une image binaire transformée 138/157 est atteinte, qui est l’image binarisée 123 dans laquelle les grandes taches noires ont été éliminées et les taches blanches ont été inversées. Cette image transformée est montrée dans la Figure 21. L’on peut voir que des zones de texte représentant un texte clair sur un arrière-plan foncé ou “texte inversé” dans l’image d’origine 1 est représenté comme noir sur blanc de la même façon comme un texte foncé sur une arrière-plan clair ou “texte normal” dans l’image d’origine 1. L’image de masque binaire 6 de la Figure 13 est formée à partir de l'image transformée de la Figure 21 en filtrant les taches d'image dans l'étape 160.
La Figure 9 montre un algorithme de classification de symboles, conformément au second aspect de l'invention, qui peut faire partie de l'algorithme de compression basée sur des symboles 400 utilisé pour la compression de l'image de masque binaire 6. L'algorithme de classification de symboles assume en tant qu’entrée une image binaire, telle que par exemple l'image de masque binaire 6, et fait ressortir une liste de symboles et une liste d'occurrences de symboles. Un article dans la liste de symboles inclut un indicatif de symbole (ID) et une table de bits de symboles. Un article dans la liste des occurrences inclut un indicatif de symbole (ID) mis en correspondance et la position de l'occurrence dans la page.
L'algorithme de classification de symboles comporte les étapes suivantes. Dans les étapes 403 et 404 l’on détermine si la première tache de pixel 401 s’intégre dans une dilatation d’une seconde tache 402. Si ce n’est pas le cas, un “mésappariement” est renvoyé. Si c’est le cas, dans les étapes 405 et 406 l’on détermine si la seconde tache de pixel 402 s’intégre dans une dilatation de la première tache de pixel 401. Si ce n’est pas le cas, un “mésappariement” est renvoyé. Si c’est le cas, cela ressemble à une “correspondance”, mais l’on procède à deux vérifications supplémentaires afin d’éviter toute erreur. Dans les étapes 407 et 408, l’on détermine si une des taches 401,402 présente une ligne qui n’est pas présente dans l’autre. Plus particulièrement, ceci comporte le fait de vérifier les croisements 3x3 dans lesquels une ligne dans une des taches présente une couleur différente de celle de l’autre ligne dans l’autre tache. Dans les étapes 409 et 411 l’on détermine si une des taches 401, 402 représente un symbole en italiques tandis que l’autre ne le représente pas. Plus particulièrement, ceci comporte le fait de vérifier si le nombre de pixels noirs en commun à la première et seconde tache 401, 402 se situe au-dessus d’un seuil prédéterminé 410. Ce seuil prédéterminé est, de préférence, identique à 80-90%, idéalement environ 85% du montant total de pixels dans une tache.
Ces étapes sont visualisées dans la Figure 10. La rangée supérieure représente deux taches de pixel 421 et 422 qui s'intégrent dans les dilatations respectives les unes des autres (étapes 403-406), ainsi le résultat 423 est une correspondance. La rangée du milieu représente deux taches de pixel 431 et 432 qui s'intégrent également dans des dilatations respectives les unes des autres (étapes 403-406), mais n'est clairement pas une correspondance. On élimine ce genre d'erreurs par la vérification des croisements 3x3 433, 434 dans lesquels une ligne dans une des taches présente une couleur différente de celle de l'autre ligne dans l'autre tache (étapes 407-408). Dans le croisement 433 sur la première tache 431 la ligne verticale 435 est noire tandis que la ligne horizontale 436 dans le croisement correspondant 434 sur la seconde tache 432 est blanche, ainsi le résultat 437 est un mésappariement. La rangée inférieure représente deux taches de pixel 441 et 442 qui s'intégrent également dans des dilatations respectives les unes des autres (étapes 403-406), mais n'est clairement pas une correspondance puisque la tache 442 est un symbole en italiques alors que la tache 441 ne l’est pas. On élimine ce genre d'erreurs en soumettant à une opération ET les taches 441 et 442, dont le résultat est montré dans 443 (les pixels noirs qui sont en commun sont noirs dans le résultat 443) et en vérifiant si le nombre de pixels en commun se situe au-dessus du seuil 410 (étapes 409-411). Dans cet exemple, le nombre de pixels dans 443 serait en dessous du seuil 410, ainsi un mésappariement est détecté.

Claims (22)

1. Procédé permettant de créer une image de masque binaire à partir d’une image numérique saisie d’un document scanné, comprenant les étapes suivantes : a) la création d’une image binarisée par binarisation de ladite image numérique saisie, b) la détection, dans ladite image binarisée, de premières zones de texte représentant du texte clair sur un arrière-plan foncé dans ladite image numérique saisie, c) l’inversion desdites premières zones de texte dans ladite image binarisée, de sorte que les premières zones de texte inversées sont interprétables de la même façon comme du texte foncé sur un arrière-plan clair.
2. Procédé selon la revendication 1, dans lequel la création de ladite image de masque binaire comprend en outre les étapes suivantes: d) la détection, dans ladite image binarisée, de secondes zones de texte représentant du texte foncé sur un arrière-plan clair dans ladite image numérique saisie. e) l’élimination, de l'image binarisée, de zones de texte qui ne représentent aucun texte réel.
3. Procédé selon la revendication 2, comprenant en outre les étapes comportant la séparation d’éléments graphiques horizontaux et verticaux avant lesdites étapes de détection des premières et secondes zones de texte, et la réintroduction desdits éléments graphiques horizontaux et verticaux dans l’image binarisée après lesdites étapes de détection.
4. Procédé selon une des revendications de 1 à 3, dans lequel l’étape a) comprend les étapes suivantes : a1)la formation d’une image à niveaux de gris à partir de ladite image numérique saisie, a2)la détection de contours dans ladite image à niveaux de gris, en formant de ce fait une image binaire de contour contenant des pixels de contour et des pixels hors contour, a3)la détermination de valeurs seuil pour chacun desdits pixels de contour sur la base des pixels environnants et en donnant auxdits pixels hors contour une valeur seuil nulle, en formant de ce fait une image à niveaux de gris seuil, a4)la détermination de valeurs seuil pour chacun desdits pixels hors contour touchant les pixels de contour sur la base de valeurs seuil environnantes, a5)la mise à l’échelle de ladite image à niveaux de gris seuil en gardant les valeurs seuil maximales, a6)la propagation de valeurs seuil à partir de pixels ayant une valeur positive vers des pixels ayant une valeur nulle, a7)la formation d’une première image binaire sur la base de ladite image à niveaux de gris et de ladite image à niveaux de gris seuil mise à l’échelle.
5. Procédé selon la revendication 4, dans lequel l’étape a2) comporte l’utilisation d'un algorithme de contour de Canny pour ladite détection de contour.
6. Procédé selon la revendication 4, dans lequel l’étape a) comprend en outre les étapes suivantes : a8)la formation d’une seconde image binaire sur la base de ladite image à niveaux de gris et de ladite image à niveaux de gris seuil, a9)la formation de ladite image binarisée en combinant lesdites première et seconde images binaires.
7. Procédé selon une des revendications de 1 à 6, dans lequel ladite image numérique saisie présente une résolution donnée et ladite création de ladite image de masque binaire comporte la réduction de ladite résolution par un facteur de réduction de résolution de masque binaire.
8. Procédé permettant de comparer dans une image binaire une première tache de pixel à une seconde tache de pixel afin de déterminer si elles représentent des symboles de correspondance, comprenant les étapes suivantes : f) la dilatation de la première tache et le fait de vérifier si la seconde tache s’intégre dans la première tache dilatée, g) la dilatation de la seconde tache et le fait de vérifier si la première tache s’intégre dans la seconde tache dilatée, où le procédé comprend en outre au moins une des étapes suivantes : h) la détection d’une ligne dans une des premières et secondes taches qui n'est pas présente dans l'autre, i) le fait de déterminer si une des premières et secondes taches représente un symbole en italiques où l'autre ne le représente pas.
9. Procédé selon la revendication 8, dans lequel l’étape h) comprend la vérification de croisements NxN dans lesquels une ligne dans une des taches présente une couleur différente de celle d'une ligne dans l’autre tache, où N est un nombre de bits.
10. Procédé selon la revendication 9, dans lequel N=3.
11. Procédé selon une des revendications de 8 à 10, dans lequel l’étape i) comprend le fait de vérifier si le nombre de pixels noirs qui sont en commun à la première et à la seconde tache se situe au-dessus d’un seuil prédéterminé.
12. Procédé selon la revendication 11, dans lequel ledit seuil prédéterminé est identique à 80 - 90 % du montant total de pixels dans une tache.
13. Procédé de compression permettant la compression d’une image numérique saisie d’un document scanné, ledit procédé de compression comprenant les étapes suivantes : j) la segmentation de ladite image numérique saisie en de multiples couches d'image comprenant une image d’avant-plan contenant des informations de couleurs pour des éléments d’avant-plan dudit document, une image d’arrière-plan contenant des informations de couleurs pour les éléments d’arrière-plan dudit document et une image de masque binaire permettant de sélectionner entre des pixels dans ladite image d’avant-plan et ladite image d’arrière-plan lors de la décompression de ladite image numérique compressée, et k) la compression de chacune des couches d'image à l’aide d’une technique de compression appropriée, en obtenant de ce fait une image numérique compressée, caractérisé en une image de masque binaire avec procédé selon une des revendications de 1à 7.
14. Procédé selon la revendication 13, dans lequel ladite image numérique saisie présente une résolution donnée et lesdites images d'avant-plan et d'arrière-plan sont formées en réduisant ladite résolution par un facteur de réduction de résolution d’avant-plan et un facteur de réduction de résolution d’arrière-plan respectivement
15. Procédé selon la revendication 13 ou 14, dans lequel l’étape k) comprend les étapes suivantes : k1) la compression desdites images d'avant-plan et d'arrière-plan à l'aide d'une technique de compression d'image, k2) la compression de ladite image de masque binaire à l’aide d’une technique de compression basée sur des symboles.
16. Procédé de compression permettant de compresser une image numérique saisie d’un document scanné, ledit procédé de compression comprenant les étapes suivantes : l) la segmentation de ladite image numérique saisie en de multiples couches d'image comprenant une image d’avant-plan contenant des informations de couleurs pour des éléments d’avant-plan dudit document, une image d'arrière-plan contenant des informations de couleurs pour les éléments d’arrière-plan dudit document, et une image de masque binaire permettant de sélectionner entre des pixels dans ladite image d’avant-plan et ladite image d’arrière-plan lors de la décompression de ladite image numérique compressée, m) la compression desdites images d'avant-plan et d'arrière-plan à l'aide d'une technique de compression d'image, et n) la compression de ladite image de masque binaire à l’aide d’une technique de compression basée sur des symboles, caractérisé en ce que ladite technique de compression basée sur symboles comporte l’utilisation du procédé selon une des revendication de 8 à 12.
17. Procédé selon la revendication 16, dans lequel ladite image numérique saisie présente une résolution donnée et ladite création de ladite image de masque binaire comporte la réduction de ladite résolution par un facteur de réduction de résolution de masque binaire.
18. Procédé selon la revendication 16 ou 17, dans lequel ladite image numérique saisie présente une résolution donnée et lesdites images d’avant-plan et d’arrière-plan sont formées en réduisant ladite résolution par un facteur de réduction de résolution d’avant-pian et un facteur de réduction de résolution d’arrière-plan respectivement.
19. Produit programme informatique pouvant être directement chargé dans une mémoire d’un ordinateur, comprenant des parties de code logiciel permettant de réaliser les étapes de n'importe laquelle des revendications de 1 à 7 ou de 13 à 15 lorsque ledit produit est exécuté sur un ordinateur.
20. Produit programme informatique selon la revendication 19, sauvegardé sur un support utilisable sur ordinateur.
21. Produit programme informatique pouvant être directement chargé dans une mémoire d’un ordinateur, comprenant des parties de code logiciel permettant de réaliser les étapes de n'importe laquelle des revendications de8à12oude16à18 lorsque ledit produit est exécuté sur un ordinateur.
22. Produit programme informatique selon la revendication 21, sauvegardé sur un support utilisable sur ordinateur.
BE2008/0258A 2007-05-04 2008-05-05 Compression d'images numeriques de documents scannes. BE1017547A6 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/744,542 US8068684B2 (en) 2007-05-04 2007-05-04 Compression of digital images of scanned documents
US74454207 2007-05-04

Publications (1)

Publication Number Publication Date
BE1017547A6 true BE1017547A6 (fr) 2008-11-04

Family

ID=39888733

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2008/0258A BE1017547A6 (fr) 2007-05-04 2008-05-05 Compression d'images numeriques de documents scannes.

Country Status (5)

Country Link
US (4) US8068684B2 (fr)
EP (2) EP2143039B1 (fr)
JP (1) JP5501958B2 (fr)
BE (1) BE1017547A6 (fr)
WO (1) WO2008135440A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2184712A3 (fr) * 2008-11-06 2017-12-13 Seiko Epson Corporation Réduction du bruit pour images numériques

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8849031B2 (en) * 2005-10-20 2014-09-30 Xerox Corporation Document analysis systems and methods
US8068684B2 (en) 2007-05-04 2011-11-29 I.R.I.S. Compression of digital images of scanned documents
US8009928B1 (en) * 2008-01-23 2011-08-30 A9.Com, Inc. Method and system for detecting and recognizing text in images
JP4875649B2 (ja) * 2008-03-19 2012-02-15 株式会社リコー 画像処理装置、画像処理方法および画像処理プログラム
US8213735B2 (en) * 2008-10-10 2012-07-03 Accusoft Corporation Methods and apparatus for performing image binarization
TWI346595B (en) * 2009-01-13 2011-08-11 Univ Chung Yuan Christian System for positioning micro tool of micro machine and method thereof
JP5007316B2 (ja) * 2009-04-07 2012-08-22 株式会社沖データ 画像読取装置及び画像形成装置
JP4707751B2 (ja) * 2009-05-21 2011-06-22 シャープ株式会社 画像圧縮方法、画像圧縮装置、画像形成装置、コンピュータプログラム及び記録媒体
US9892585B2 (en) 2009-08-25 2018-02-13 Xerox Corporation Magnetic watermarking of a printed substrate by metameric rendering
JP5413080B2 (ja) * 2009-09-15 2014-02-12 株式会社リコー 画像処理装置及び画像処理方法
BE1018642A3 (fr) * 2010-02-09 2011-05-03 Iris Sa Scanner a defilement autonome.
JP5036844B2 (ja) * 2010-04-15 2012-09-26 シャープ株式会社 画像圧縮装置、画像出力装置、画像読取装置、画像圧縮方法、コンピュータプログラム及び記録媒体
US9047531B2 (en) 2010-05-21 2015-06-02 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US8600167B2 (en) 2010-05-21 2013-12-03 Hand Held Products, Inc. System for capturing a document in an image signal
US8947736B2 (en) 2010-11-15 2015-02-03 Konica Minolta Laboratory U.S.A., Inc. Method for binarizing scanned document images containing gray or light colored text printed with halftone pattern
US8600158B2 (en) 2010-11-16 2013-12-03 Hand Held Products, Inc. Method and system operative to process color image data
US8571307B2 (en) 2010-11-16 2013-10-29 Hand Held Products, Inc. Method and system operative to process monochrome image data
US8457426B1 (en) * 2011-05-18 2013-06-04 Adobe Systems Incorporated Method and apparatus for compressing a document using pixel variation information
US20130039589A1 (en) * 2011-08-11 2013-02-14 I. R. I. S. Pattern recognition process, computer program product and mobile terminal
US9319556B2 (en) * 2011-08-31 2016-04-19 Konica Minolta Laboratory U.S.A., Inc. Method and apparatus for authenticating printed documents that contains both dark and halftone text
JP5874497B2 (ja) * 2012-03-30 2016-03-02 ブラザー工業株式会社 画像処理装置および画像処理プログラム
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) * 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
CN104298982B (zh) * 2013-07-16 2019-03-08 深圳市腾讯计算机系统有限公司 一种文字识别方法及装置
US9552528B1 (en) 2014-03-03 2017-01-24 Accusoft Corporation Method and apparatus for image binarization
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US9430766B1 (en) 2014-12-09 2016-08-30 A9.Com, Inc. Gift card recognition using a camera
BE1022166B1 (fr) * 2014-12-23 2016-02-23 I.R.I.S. Procede de compression d'images
US9736330B2 (en) 2015-05-19 2017-08-15 Xerox Corporation Method and system for applying a content-variable watermark to a document
US9961230B2 (en) * 2015-05-26 2018-05-01 Xerox Corporation Method and system for applying a watermark to a document
US9563961B1 (en) * 2016-01-19 2017-02-07 Xerox Corporation Method and system for image processing
KR101753521B1 (ko) 2016-03-28 2017-07-05 금오공과대학교 산학협력단 베지어 커브를 이용한 전송 이미지 처리방법
US10275888B2 (en) * 2016-09-16 2019-04-30 Oracle International Corporation Algorithmic method for detection of documents in images
US10395393B2 (en) 2016-12-22 2019-08-27 I.R.I.S. Method for assessing the quality of an image of a document
US10438089B2 (en) * 2017-01-11 2019-10-08 Hendricks Corp. Pte. Ltd. Logo detection video analytics
US10142520B1 (en) * 2017-06-28 2018-11-27 Xerox Corporation Single color background mixed raster content (MRC)
CN109753953B (zh) * 2017-11-03 2022-10-11 腾讯科技(深圳)有限公司 图像中定位文本的方法、装置、电子设备和存储介质
US11501543B2 (en) * 2018-03-26 2022-11-15 Videonetics Technology Private Limited System and method for automatic real-time localization of license plate of vehicle from plurality of images of the vehicle
JP2021044803A (ja) * 2019-09-06 2021-03-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7543023B2 (ja) * 2020-08-05 2024-09-02 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
US20230094787A1 (en) * 2021-09-30 2023-03-30 Adobe Inc. Utilizing machine-learning based object detection to improve optical character recognition

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0225168A (ja) * 1988-07-14 1990-01-26 Chinon Ind Inc 撮像信号処理装置
JP3445394B2 (ja) * 1993-12-17 2003-09-08 ゼロックス・コーポレーション 少なくとも二つのイメージセクションの比較方法
US5751855A (en) * 1994-12-01 1998-05-12 Xerox Corporation Method and apparatus for detecting whether an electronic image has been faxed
US5818965A (en) * 1995-12-20 1998-10-06 Xerox Corporation Consolidation of equivalence classes of scanned symbols
US5999653A (en) 1996-01-19 1999-12-07 Xerox Corporation Fast techniques for searching images using the Hausdorff distance
US5835638A (en) * 1996-05-30 1998-11-10 Xerox Corporation Method and apparatus for comparing symbols extracted from binary images of text using topology preserved dilated representations of the symbols
US6094484A (en) * 1996-10-16 2000-07-25 Convey Corporation Isomorphic pattern recognition
US5778092A (en) * 1996-12-20 1998-07-07 Xerox Corporation Method and apparatus for compressing color or gray scale documents
JP3601658B2 (ja) * 1997-12-19 2004-12-15 富士通株式会社 文字列抽出装置及びパターン抽出装置
US6748115B1 (en) 1998-06-19 2004-06-08 Cvision Technologies Llc Perceptually lossless image compression
JP3753357B2 (ja) * 1999-01-19 2006-03-08 株式会社リコー 文字抽出方法および記録媒体
US6920250B1 (en) 1999-03-04 2005-07-19 Xerox Corporation Additive model for efficient representation of digital documents
US6396329B1 (en) * 1999-10-19 2002-05-28 Rambus, Inc Method and apparatus for receiving high speed signals with low latency
DE19958553A1 (de) * 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten
JP4366003B2 (ja) * 2000-08-25 2009-11-18 キヤノン株式会社 画像処理装置及び画像処理方法
US6941014B2 (en) * 2000-12-15 2005-09-06 Xerox Corporation Method and apparatus for segmenting an image using a combination of image segmentation techniques
US6690826B2 (en) * 2000-12-21 2004-02-10 Micron Technology, Inc. System and method for detecting text in mixed graphics data
JP2003087558A (ja) * 2001-09-14 2003-03-20 Fuji Xerox Co Ltd 画像処理装置および方法
JP4014865B2 (ja) * 2001-12-19 2007-11-28 日本テキサス・インスツルメンツ株式会社 駆動回路
US8103104B2 (en) * 2002-01-11 2012-01-24 Hewlett-Packard Development Company, L.P. Text extraction and its application to compound document image compression
US7024049B2 (en) * 2002-01-16 2006-04-04 Xerox Corporation Method and apparatus for improving image appearance
AU2003221894A1 (en) * 2002-04-09 2003-10-27 Digimarc Id Systems, Llc Image processing techniques for printing identification cards and documents
US7120297B2 (en) * 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US6941011B2 (en) * 2002-06-27 2005-09-06 Hewlett-Packard Development Company, Lp. Method and system for image processing including mixed resolution, multi-channel color compression, transmission and decompression
DE10228901A1 (de) * 2002-06-27 2004-01-15 Siemens Ag Verfahren und Vorrichtung zur Überprüfung der Formgenauigkeit von Objekten
JP3950777B2 (ja) * 2002-09-30 2007-08-01 キヤノン株式会社 画像処理方法、画像処理装置および画像処理プログラム
US20040096102A1 (en) * 2002-11-18 2004-05-20 Xerox Corporation Methodology for scanned color document segmentation
JP4250483B2 (ja) * 2003-08-25 2009-04-08 キヤノン株式会社 画像処理装置、画像処理方法ならびにプログラム、記憶媒体
EP1555804A3 (fr) * 2004-01-19 2006-08-16 Ricoh Company, Ltd. Appareil et programme de traitement d'images et support d'enregistrement
US7447365B2 (en) * 2004-02-06 2008-11-04 Sharp Laboratories Of America, Inc. Systems and methods for mixed raster conversion in direct printing
US7403661B2 (en) * 2004-02-12 2008-07-22 Xerox Corporation Systems and methods for generating high compression image data files having multiple foreground planes
US7343046B2 (en) * 2004-02-12 2008-03-11 Xerox Corporation Systems and methods for organizing image data into regions
JP4364809B2 (ja) * 2005-01-13 2009-11-18 株式会社リコー 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2007019673A (ja) * 2005-07-05 2007-01-25 Konica Minolta Business Technologies Inc 画像処理装置、画像圧縮方法、画像圧縮プログラムおよび圧縮画像のデータ構造
US8068684B2 (en) 2007-05-04 2011-11-29 I.R.I.S. Compression of digital images of scanned documents

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2184712A3 (fr) * 2008-11-06 2017-12-13 Seiko Epson Corporation Réduction du bruit pour images numériques

Also Published As

Publication number Publication date
US8068684B2 (en) 2011-11-29
WO2008135440A3 (fr) 2009-04-16
WO2008135440A2 (fr) 2008-11-13
EP2800028A1 (fr) 2014-11-05
US8666185B2 (en) 2014-03-04
EP2143039B1 (fr) 2017-03-15
US8331706B2 (en) 2012-12-11
JP2010527190A (ja) 2010-08-05
EP2800028B1 (fr) 2019-03-13
US20140177954A1 (en) 2014-06-26
JP5501958B2 (ja) 2014-05-28
US20120063686A1 (en) 2012-03-15
EP2143039A2 (fr) 2010-01-13
US8995780B2 (en) 2015-03-31
US20120093412A1 (en) 2012-04-19
WO2008135440A8 (fr) 2009-01-22
US20080273807A1 (en) 2008-11-06

Similar Documents

Publication Publication Date Title
BE1017547A6 (fr) Compression d&#39;images numeriques de documents scannes.
EP1298588B1 (fr) Procédé de traitement d&#39;images pour l&#39;extraction automatique d&#39;éléments sémantiques
EP0054598A1 (fr) Procédé d&#39;inspection et de tri automatique d&#39;objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
EP0115462A2 (fr) Procédé de reconnaissance automatique d&#39;une image, à partir d&#39;une image correspondante de référence
BE1026095B1 (fr) Dispositif de traitement d’images
WO1988002587A1 (fr) Quantification binaire d&#39;une image a multiples niveaux de gris
FR2905188A1 (fr) Procede et dispositif de conversion de densites d&#39;image
EP0274944B1 (fr) Procédé et dispositif de reconnaissance de caractères
FR2949889A1 (fr) Procede de detection de pages blanches et machine multifonction correspondante
FR2870969A1 (fr) Dispositif, procede et programme d&#39;elimination de pores
Mehrara et al. Novel edge detection using BP neural network based on threshold binarization
Jamil et al. Digital archiving of traditional songket motifs using image processing tool
EP1525553A2 (fr) Procede et systeme de localisation automatique de zones de texte dans une image
WO2008087316A2 (fr) Procede et systeme de binarisation d&#39;une image comprenant un texte
Vaghela et al. Automatic text detection using morphological operations and inpainting
FR2786011A1 (fr) Procede de comparaison d&#39;images enregistrees formees de pixels representant des equipotentielles d&#39;au moins une puce de circuit integre
Shetty et al. Automated Identity Document Recognition and Classification (AIDRAC)-A Review
EP0826960B1 (fr) Procédé de détection automatique de défauts dans des pièces mécaniques à géométrie complexe
EP1768049B1 (fr) Procédé et système de reproduction de documents par segmentation et amélioration sélective des images et des textes
FR3049094A1 (fr) Procede d&#39;identification d&#39;un ensemble de livres ranges pour etablir automatiquement leur liste
Singh et al. Crack filling of art by using image processing: A review
Ade et al. A Foreground Text Extraction Mechanism For Degraded Document Images Using Adaptive Binarization
Bergman et al. Dust and scratch removal in scanned images
SINGH DETECTION & RESTORATION OF CRACKS IN A ART–A REVIEW
Banerjee et al. Automatic Text Detection Usingmorphological Operations and Inpainting

Legal Events

Date Code Title Description
RE20 Patent expired

Owner name: S.A. *IRIS

Effective date: 20140505