BE1026039B1 - Procede de traitement d'image et systeme de traitement d'image - Google Patents

Procede de traitement d'image et systeme de traitement d'image Download PDF

Info

Publication number
BE1026039B1
BE1026039B1 BE20195125A BE201905125A BE1026039B1 BE 1026039 B1 BE1026039 B1 BE 1026039B1 BE 20195125 A BE20195125 A BE 20195125A BE 201905125 A BE201905125 A BE 201905125A BE 1026039 B1 BE1026039 B1 BE 1026039B1
Authority
BE
Belgium
Prior art keywords
region
characters
image
recognition
group
Prior art date
Application number
BE20195125A
Other languages
English (en)
Other versions
BE1026039A1 (fr
Inventor
Frédéric Collet
Jordi Hautot
Michel Dauw
Original Assignee
Iris Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iris Sa filed Critical Iris Sa
Publication of BE1026039A1 publication Critical patent/BE1026039A1/fr
Application granted granted Critical
Publication of BE1026039B1 publication Critical patent/BE1026039B1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • G06V30/133Evaluation of quality of the acquired characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/23Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on positionally close patterns or neighbourhood relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

Procédé de traitement d'image et système de traitement d'image pour la reconnaissance de caractères compris dans une image. Une première unité de reconnaissance de caractères effectue une reconnaissance d'un premier groupe de caractères correspondant à une première région de l'image. Une unité de mesure calcule une mesure de confiance du premier groupe de caractères. Une unité de détermination détermine si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance. Une unité de sélection sélectionne une deuxième région de l'image qui comprend la première région, s'il est déterminé qu’une reconnaissance supplémentaire doit être effectuée. Une deuxième unité de reconnaissance de caractères effectue une reconnaissance supplémentaire d'un deuxième groupe de caractères correspondant à la deuxième région de l'image.

Description

PROCEDE DE TRAITEMENT D'IMAGE ET SYSTÈME DE TRAITEMENT D'IMAGE [0001] Domaine technique [0002] La présente invention concerne un procédé de traitement d'image et un système de traitement d'image pour reconnaître les caractères compris dans une image. En particulier, la présente invention concerne la reconnaissance de caractères d'une image.
[0003] Etat de la technique [0004] La reconnaissance de caractères est effectuée pour convertir un texte compris dans une image en un texte codé par machine. Les images qui peuvent être analysées à l'aide d'un logiciel de reconnaissance de caractères comprennent un document numérisé, une photographie d'un document, une photographie d'une scène, un enregistrement vidéo et un texte qui a été superposé à un document. Le texte dans l'image qui peut être converti comprend un texte dactylographié, manuscrit et imprimé. Le texte codé par machine comprend toutes les normes de codage de caractères pour les communications électroniques, telles que ASCII, Unicode et emoji. Les applications de la reconnaissance de caractères comprennent :
- l'affichage à un utilisateur de caractères codés par machine qui correspondent au texte compris dans l'image ;
- la superposition de l’image avec les caractères codés par machine, de sorte que le texte peut être sélectionné par l'utilisateur ;
- la fourniture d’une fonction de recherche du texte compris dans l'image en permettant la recherche du texte codé par machine ;
- la lecture par machine où un dispositif informatique interprète le contexte du texte, y compris dans l'image ;
- la saisie des caractères codés par machine qui correspondent au texte compris dans l'image ;
BE2019/5125
- la reconnaissance automatique des plaques minéralogiques ; et
- la conversion de l'écriture manuscrite en temps réel, pour entrer du texte dans un dispositif informatique.
[0005] Les logiciels de reconnaissance de caractères sont configurés pour recevoir une image en entrée et sortir un texte codé par machine. De plus, les logiciels de reconnaissance de caractères peuvent effectuer une analyse d'erreur pour déterminer une mesure de confiance du texte codé par machine qui est sorti.
[0006] Le terme reconnaissance de caractères désigne l'identification et la reconnaissance de caractères individuels dans l'image. Cependant, le terme reconnaissance de caractères est également utilisé pour comprendre la reconnaissance de mots, où l'identification et la reconnaissance se produit un mot à la fois. La reconnaissance de caractères est illustrée par la reconnaissance optique de caractères, la reconnaissance optique de mots, la reconnaissance intelligente de caractères et la reconnaissance intelligente de mots.
[0007] La reconnaissance des caractères est adaptée sur la base du système d'écriture qui est compris dans le document, comme les caractères latins, cyrilliques, arabes, hébreux, indiens, bengalis, devanagari, tamouls, chinois, japonais, coréens, morse et braille. La reconnaissance de caractères est ensuite adaptée sur la base de la langue du texte compris dans l'image. Le système d'écriture et la langue du texte peuvent être identifiés par l'utilisateur, ou bien le système d'écriture et la langue du texte peuvent être identifiés par le logiciel de reconnaissance de caractères à partir du contexte des caractères et des mots qui sont reconnus. De plus, la reconnaissance de caractères peut être adaptée pour traiter des documents qui comprennent du texte dans plusieurs systèmes d'écriture ou langues.
BE2019/5125 [0008] La reconnaissance de caractères se produit en associant des caractères codés par machine à au moins un exemple d'un glyphe que l'on pourrait trouver dans une image. La précision de la reconnaissance de caractères est améliorée en augmentant le nombre de glyphes qui représentent un caractère codé par machine. Ceci est particulièrement utile pour améliorer la précision de la reconnaissance d'une variété de polices. La reconnaissance intelligente est obtenue en utilisant l'apprentissage machine pour former un système informatique qui utilise un réseau neuronal. La reconnaissance intelligente améliore la reconnaissance des caractères qui ne correspondent pas aux glyphes stockés comme exemples.
[0009] Le texte codé par machine contient souvent des erreurs. Les erreurs peuvent être corrigées par une relecture par l'utilisateur du texte codé par machine. Cela représente un inconvénient pour l’utilisateur, et des techniques sont donc disponibles pour améliorer la précision de la reconnaissance des caractères et pour améliorer la détection des erreurs. Par exemple, la précision de la reconnaissance de caractères peut être augmentée si la sortie est influencée par un lexique, qui est un dictionnaire des mots qui sont attendus dans un document. La détection des erreurs peut être améliorée en effectuant une vérification orthographique ou grammaticale, pour évaluer le contexte du texte codé par machine.
[0010] Une reconnaissance de caractères a été développée qui est spécialisée dans la détection dans des conditions particulières. La reconnaissance de caractères est particulièrement difficile si l'état de l'image est variable, auquel cas la technique de reconnaissance de caractères la plus appropriée doit être soigneusement sélectionnée. Par exemple :
- le logiciel de reconnaissance de caractères est généralement adapté pour lire les pages propres d'un document qui ont été numérisées par un
BE2019/5125 périphérique multifonction, auquel cas des erreurs peuvent se produire si l'image comprend un filigrane ;
- le logiciel de reconnaissance de caractères peut être adapté pour lire des documents de faible qualité, auquel cas les caractères sortis seront plus précis que des logiciels de reconnaissance de caractères adapté pour lire des documents de haute qualité ; et
- la reconnaissance automatique des plaques d'immatriculation est adaptée pour la lecture des plaques d'immatriculation des véhicules, qui est encore améliorée pour s'adapter aux différentes conditions météorologiques et aux différents types de plaques d'immatriculation des véhicules.
[0011] Les logiciels de reconnaissance de caractères sont spécialisés pour améliorer la précision. Cependant, les logiciels de reconnaissance de caractères consomment des ressources informatiques, comme la puissance de traitement. De plus, les ressources informatiques à utiliser affectent le temps d'exécution du logiciel de reconnaissance de caractères. Les ressources informatiques à consommer dépendent de la technique de reconnaissance de caractères choisie, et les ressources informatiques dépendent également de la qualité de l'image. Par conséquent, un compromis doit être trouvé entre les ressources informatiques disponibles et le niveau de précision souhaité.
[0012] Résumé de l’invention [0013] Les aspects de la présente invention sont définis par les revendications indépendantes.
[0014] Selon un premier aspect, il est prévu un procédé de traitement d'image pour reconnaître des caractères compris dans une image, le procédé de traitement d'image comprenant les étapes consistant à : effectuer une reconnaissance d’un premier groupe de caractères correspondant à une première région de l'image ; calculer une mesure de confiance du premier groupe de caractères ; déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance ; sélectionner une
BE2019/5125 deuxième région de l'image qui comprend la première région, s’il est déterminé que la reconnaissance supplémentaire doit être effectuée ; et effectuer la reconnaissance supplémentaire d'un deuxième groupe de caractères correspondant à la deuxième région de l'image.
[0015] Selon un deuxième aspect, il est prévu un système de traitement d'image pour reconnaître des caractères compris dans une image, le système de traitement d'image comprenant : une première unité de reconnaissance de caractères configurée pour effectuer une reconnaissance d'un premier groupe de caractères correspondant à une première région de l'image ; une unité de mesure configurée pour calculer une mesure de confiance du premier groupe de caractères ; une unité de détermination configurée pour déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance ; une unité de sélection configurée pour sélectionner une deuxième région de l'image qui comprend la première région, s’il est déterminé que la reconnaissance supplémentaire doit être effectuée ; et une deuxième unité de reconnaissance de caractères configurée pour effectuer la reconnaissance supplémentaire d'un deuxième groupe de caractères correspondant à la deuxième région de l'image. Les caractéristiques du système de traitement d'image peuvent être fournies par un ou plusieurs dispositifs.
[0016] Eventuellement, le système de traitement d'image comprend un dispositif de traitement d'image comprenant à la fois la première unité de reconnaissance de caractères et la deuxième unité de reconnaissance de caractères.
[0017] Eventuellement, le système de traitement d'image comprend : un premier dispositif de traitement d'image comprenant la première unité de reconnaissance de caractères ; et un deuxième dispositif de traitement d'image comprenant la deuxième unité de reconnaissance de caractères.
BE2019/5125 [0018] Selon un troisième aspect, un programme est fourni qui, lorsqu'il est mis en œuvre par un système de traitement d'image, amène le système de traitement d'image à effectuer un procédé selon le deuxième aspect.
[0019] Selon un quatrième aspect, il est fourni un support lisible par ordinateur qui stocke un programme selon le troisième aspect.
[0020] Avantageusement, la meilleure unité d'une pluralité d'unités de reconnaissance de caractères est utilisée pour reconnaître les caractères dans l'image. Par conséquent, la reconnaissance de caractères est effectuée à l'aide d’unités de reconnaissance de caractères qui sont adaptées en fonction de l'image. Si l'image comprend une pluralité de conditions, les unités de reconnaissance de caractères se voient attribuer des régions de l'image auxquelles elles sont adaptées. L'allocation des ressources est optimisée en prévoyant une reconnaissance de caractères à forte intensité de calcul sur une région de l'image identifiée comme étant de faible qualité.
[0021] Eventuellement, le procédé de traitement d'image effectué par le système de traitement d'image comprend en outre les étapes consistant à : effectuer une reconnaissance d'une pluralité de premiers groupes de caractères correspondant à une pluralité de premières régions de l'image ; calculer une mesure de confiance pour chacun des premiers groupes de caractères ; déterminer si une reconnaissance supplémentaire doit être effectuée pour chacun des premiers groupes de caractères sur la base de la mesure de confiance correspondante ; sélectionner une pluralité de deuxièmes régions de l'image qui comprennent chacune la première région correspondante s’il est déterminé qu’une reconnaissance supplémentaire doit être effectuée ; et effectuer la reconnaissance supplémentaire d’une pluralité de deuxièmes groupes de caractères correspondant à la pluralité de deuxièmes régions de l'image. Avantageusement, la reconnaissance supplémentaire est effectuée pour une pluralité de deuxièmes régions, et ainsi une pluralité d'erreurs sera corrigée.
BE2019/5125 [0022] Eventuellement, l’étape consistant à déterminer si une reconnaissance supplémentaire doit être effectuée comprend la sélection d'un nombre maximum de premiers groupes de caractères, sur la base de la mesure de confiance pour chacun des premiers groupes de caractères. Avantageusement, une reconnaissance supplémentaire est effectuée un maximum de fois, de sorte que les ressources informatiques disponibles sont allouées de manière appropriée.
[0023] Eventuellement, la reconnaissance du premier groupe de caractères comprend au moins une opération parmi : un appariement matriciel, dans lequel la première région est comparée à un glyphe ; et une extraction de caractéristiques, dans laquelle la première région est comparée à une pluralité de caractéristiques d'un glyphe. L'appariement matriciel et l'extraction de caractéristiques sont des techniques qui sont effectuées par la première unité de reconnaissance de caractères. L'appariement matriciel et l'extraction de caractéristiques peuvent être effectués individuellement ou en combinaison. Avantageusement, il existe une synergie entre la reconnaissance des premiers caractères et la reconnaissance supplémentaire des deuxièmes caractères, de sorte qu'une faible quantité de traitement est utilisée par la première unité de reconnaissance de caractères, de sorte que les ressources de calcul peuvent être affectées à la correction des erreurs.
[0024] Eventuellement, la mesure de confiance est basée sur une pondération moyenne pour tous les caractères du premier groupe de caractères. Avantageusement, un mot est identifié pour lequel la mesure de confiance est faible en moyenne sur tous les caractères du mot.
[0025] Eventuellement, la mesure de confiance est basée sur une pondération maximale pour tous les caractères du premier groupe de caractères. Avantageusement, un mot est identifié pour lequel la mesure de confiance est faible pour un caractère particulier du mot.
BE2019/5125 [0026] Eventuellement, il est déterminé qu'une reconnaissance supplémentaire doit être effectuée si la mesure de confiance est inférieure à une valeur seuil. Avantageusement, une évaluation de l'opportunité d'une reconnaissance supplémentaire est effectuée, de sorte que les ressources informatiques sont allouées de manière appropriée. Par conséquent, si une pluralité d'erreurs sont identifiées, ces erreurs peuvent être corrigées en effectuant une nouvelle reconnaissance par ordre de priorité.
[0027] Eventuellement, il est déterminé qu'une reconnaissance supplémentaire doit être effectuée si le premier groupe de caractères correspond au texte dans la première région qui est identifiée comme ayant un nombre de pixels inférieur à une valeur seuil. Avantageusement, un faible nombre de pixels indique qu'il est probable que la reconnaissance de caractères contiendra des erreurs.
[0028] Eventuellement, il est déterminé qu’une reconnaissance supplémentaire doit être effectuée si le premier groupe de caractères correspond au texte de la première région qui est identifiée comme ayant un nombre de pixels inférieur à une valeur seuil. Avantageusement, un faible nombre de pixels indique qu'il est probable que la reconnaissance de caractères contiendra des erreurs. En conséquence, la reconnaissance supplémentaire peut être adaptée pour l'analyse de documents contenant des caractères ayant un faible nombre de pixels.
[0029] Eventuellement, il est déterminé qu'une reconnaissance supplémentaire doit être effectuée si le premier groupe de caractères correspond au texte de la première région qui est identifiée comme ayant une hauteur inférieure à une valeur seuil. Avantageusement, une hauteur faible se traduit par des caractères ayant un faible nombre de pixels, ce qui indique qu'il est probable que la reconnaissance de caractères contiendra des erreurs. En conséquence, la reconnaissance supplémentaire peut être
BE2019/5125 adaptée pour l'analyse de documents contenant des textes de hauteur variable, tels que les couvertures de magazines et de journaux.
[0030] Eventuellement, la reconnaissance supplémentaire du deuxième groupe de caractères est adaptée pour une image qui est de faible qualité. Avantageusement, la précision de la reconnaissance de caractères s’est améliorée grâce à l'utilisation d’une deuxième unité de reconnaissance de caractères adaptée pour le type d'image sélectionné.
[0031] Eventuellement, la reconnaissance supplémentaire du deuxième groupe de caractères est adaptée à la deuxième région de l'image. Avantageusement, la précision de la reconnaissance de caractères s'est améliorée grâce à l'utilisation d'une deuxième unité de reconnaissance de caractères adaptée pour le type de deuxième région qui a été sélectionnée.
[0032] Eventuellement, la reconnaissance supplémentaire du deuxième groupe de caractères est spécialisée pour une région d'une image de faible qualité. Il est possible d'évaluer la deuxième région pour déterminer le niveau de qualité, avec une deuxième unité de reconnaissance de caractères sélectionnés qui résultera en un deuxième groupe de caractères sorti pour lequel la mesure de confiance sera élevée. Avantageusement, la précision de la reconnaissance de caractères est améliorée par l'utilisation d'une deuxième unité de reconnaissance de caractères qui est adaptée pour analyser les images de faible qualité.
[0033] Eventuellement, une reconnaissance supplémentaire du deuxième groupe de caractères utilise un réseau neuronal. Le réseau neuronal utilisé a été formé pour reconnaître une pluralité de chaînes de mots. Avantageusement, les chaînes de mots fournissent au réseau neuronal des informations contextuelles, de sorte que la deuxième unité de reconnaissance de caractères est adaptée pour reconnaître des mots difficiles à reconnaître isolément.
BE2019/5125 [0034] Eventuellement, la deuxième région comprend en outre des mots qui sont identifiés comme étant adjacents à la première région. Avantageusement, les mots adjacents fournissent le contexte à la première région, de sorte qu’il est attendu que la mesure de confiance soit améliorée, augmentant ainsi la probabilité que l'erreur soit corrigée.
[0035] Eventuellement, la deuxième région comprend en outre des mots qui sont identifiés comme étant sur la même ligne de texte que la première région. Avantageusement, le mot sur la même ligne de texte que la première région fournit un contexte à la première région, de sorte qu’il est attendu que la mesure de confiance soit améliorée, augmentant ainsi la probabilité que l'erreur soit corrigée.
[0036] Eventuellement, la deuxième région comprend en outre des mots qui sont identifiés comme fournissant un contexte à la première région. Avantageusement, une mesure du contexte est utilisée pour identifier activement une deuxième région qui fournira un contexte à la première région. Par conséquent, il est attendu que la mesure de confiance soit améliorée, ce qui augmentera la probabilité que l'erreur soit corrigée.
[0037] Brève description des figures [0038] Les modes de réalisations seront maintenant décrits, à titre d'exemple seulement, en référence aux dessins qui l'accompagnent, dans lesquels :
[0039] La FIG. 1 est un diagramme schématique qui illustre un système de traitement d'image pour reconnaître des caractères compris dans une image ;
[0040] La FIG. 2 est un organigramme illustrant une méthode de traitement d'image pour reconnaître des caractères compris dans une image ;
[0041] La FIG. 3A est un diagramme illustrant une première région pour laquelle la reconnaissance de caractères résulte en un premier groupe de
BE2019/5125 caractères, et une deuxième région pour laquelle la reconnaissance de caractères résulte en un deuxième groupe de caractères ;
[0042] La FIG. 3B est un diagramme illustrant une pluralité de premières régions pour lesquelles la reconnaissance de caractères résulte en une pluralité de premiers groupes de caractères, et une pluralité de deuxièmes régions pour lesquelles la reconnaissance de caractères résulte en une pluralité de deuxièmes groupes de caractères ;
[0043] La FIG. 4A donne un exemple d'un premier groupe de caractères dont il est déterminé qu’il contient une erreur basée sur une mesure de confiance ;
[0044] La FIG. 4B donne un exemple d'un groupe de caractères qui comprend le premier groupe de caractères ; et [0045] La FIG. 4C fournit un exemple d'un deuxième groupe de caractères pour lequel les erreurs ont été corrigées ;
[0046] La figure 5A fournit un exemple d'une première région pour laquelle il est déterminé qu'une reconnaissance supplémentaire doit être effectuée sur la base d'une mesure de confiance ;
[0047] La figure 5B donne un exemple d'une deuxième région sélectionnée par un système de traitement d'image, où la deuxième région comprend la première région ; et [0048] La FIG. 5C fournit un exemple de ligne de texte dans une image, qui identifie la première région et la deuxième région.
[0049] Description détaillée [0050] Divers exemple de réalisations, caractéristiques et aspects de l'invention seront décrits en détail ci-dessous en référence aux dessins.
BE2019/5125
Chaque mode de réalisation de la présente invention décrites ci-dessous peut être mise en œuvre indépendamment ou en tant que combinaison d'une pluralité de modes de réalisation ou de caractéristiques de ceux-ci si nécessaire ou lorsque la combinaison d'éléments ou de caractéristiques de modes de réalisations individuels dans un seul mode de réalisation est bénéfique.
[0051] La FIG. 1 est un diagramme schématique qui illustre un système de traitement d'image 100 pour identifier le texte compris dans une image. Le système de traitement d'images 100 comprend une entrée 101 et une sortie 102, une pluralité d’unités de reconnaissance de caractères 120, un processeur 130 et une mémoire 140. Le système de traitement d'image 100 est illustré par un seul dispositif de traitement d’image 100 qui comprend la pluralité d'unités de reconnaissance de caractères 120. Alternativement, le système de traitement d'image 100 pourrait comprendre une pluralité de dispositifs de traitement d'image, chacun ayant une unité de reconnaissance de caractères.
[0052] La pluralité d’unités de reconnaissance de caractères 120 comprend au moins une première unité de reconnaissance de caractères 121 et une deuxième unité de reconnaissance de caractères 122, et peut comprendre d'autres unités de reconnaissance de caractères. Chaque unité de reconnaissance de caractères 120 a pour fonction d'identifier les caractères dans une région d'une image et d'associer les caractères identifiés à un texte codé par machine. Les caractères de l'image sont identifiés et reconnus à partir de l'analyse des pixels de la région de l'image. Les caractères peuvent être reconnus dans une sélection de langues, dans une variété de polices.
[0053] Les différentes unités de reconnaissance de caractères 120 sont adaptées afin que la reconnaissance de caractères soit optimisée pour des conditions spécifiques. La qualité de l'image, la langue du texte, la police de caractères du texte, si le texte est dactylographié ou manuscrit, et les
BE2019/5125 ressources informatiques disponibles sont des exemples de conditions spécifiques.
[0054] La première unité de reconnaissance de caractères 121 est configurée pour reconnaître tout le texte de l'image, et en particulier un premier groupe de caractères correspondant à une première région de l'image. La première unité de reconnaissance de caractères 121 effectue la reconnaissance de caractères en utilisant des techniques conventionnelles pour reconnaître le texte dans l'image. La sur segmentation est utilisée pour identifier les caractères de l'image. Un caractère identifié dans l'image est comparé à une pluralité de glyphes de référence qui sont stockés dans une mémoire du système de traitement d'image 100. Un certain nombre de techniques sont disponibles pour comparer un caractère identifié dans l'image avec les glyphes de référence, comme l’appariement matriciel et l'extraction de caractéristiques. L'appariement matriciel implique la comparaison du motif des pixels du caractère identifié avec le motif des pixels des glyphes de référence. L'extraction de caractéristiques décompose le caractère d'entrée en caractéristiques telles que les lignes, les boucles fermées, la direction des lignes et les intersections de lignes, et ces caractéristiques extraites sont ensuite comparés aux caractéristiques correspondantes des glyphes de référence.
[0055] La première région de l’image est identifiée en rétrospective de la reconnaissance de caractères effectuée sur l'image entière, comme résultat de l’analyse du premier groupe de caractères. Alternativement, la première région peut également être identifiée avant ou pendant que la reconnaissance de caractères est effectuée. La première unité de reconnaissance 121 est rapide et fiable lors d’une analyse de texte brut qui n'a pas été masqué.
[0056] La deuxième unité de reconnaissance de caractères 122 est configurée pour reconnaître en outre un deuxième groupe de caractères correspondant à une deuxième région de l'image. La deuxième unité de
BE2019/5125 reconnaissance de caractères 122 effectue une reconnaissance supplémentaire du deuxième groupe de caractères en utilisant un réseau neuronal qui a été formé pour reconnaître une pluralité de chaînes de mots. La deuxième unité de reconnaissance de caractères 122 utilise les techniques conventionnelles disponibles pour reconnaître le texte dans une image en utilisant un réseau neuronal. Il existe une synergie entre la reconnaissance de l'ensemble du document par la première unité de reconnaissance optique de caractères 121, suivie de la reconnaissance supplémentaire de la deuxième région par la deuxième unité de reconnaissance optique de caractères 122, ce qui a pour effet technique que les ressources de calcul sont affectées à la correction des erreurs.
[0057] Les chaînes de mots fournissent au réseau neuronal des informations de contexte, de sorte que la deuxième unité de reconnaissance de caractères 122 est adaptée pour reconnaître des mots difficiles à reconnaître pris isolément. De plus, le réseau neuronal peut être formé de manière à ce que les images de faible qualité puissent être reconnues avec précision. L'apprentissage du réseau neuronal s’effectue par la saisie de représentations des caractères à reconnaître. La phase d'entraînement effectue une technique de descente en gradient de sorte que le réseau neuronal est optimisé en réduisant les erreurs de sortie. La sortie de texte codé par machine est basée sur une mesure de probabilité issue d'une comparaison avec les échantillons de texte qui sont entrés pendant la phase de formation. Le traitement par anticipation du réseau neuronal est effectué de sorte qu'il y ait convergence vers la mesure de probabilité. Le réseau neuronal est utilisé pour adapter la deuxième unité de reconnaissance de caractères afin qu'elle puisse effectuer la reconnaissance de caractères de caractères qui n’ont pas été rencontrés lors de la formation du réseau de neurones.
[0058] La deuxième unité de reconnaissance de caractères 122 fournit une meilleure reconnaissance du texte qui a été masqué, bien qu'elle soit moins précise que la première unité de reconnaissance 121 pour ce qui est
BE2019/5125 de la reconnaissance du texte brut qui n'a pas été masqué. La deuxième unité de reconnaissance de caractères 122 améliore la précision lors de la reconnaissance de texte dans une image de faible qualité. Cependant, les réalisations de la deuxième unité de reconnaissance de caractères 122 sont intensives d’un point de vue de calcul, ce qui fait que le traitement de l'image est lent et consomme plus de ressources de traitement.
[0059] Par conséquent, il est nécessaire de trouver un équilibre entre le niveau de précision souhaité et l'allocation des ressources. Pour ce faire, on effectue la reconnaissance d'images sur l'ensemble du document à l'aide de la première unité de reconnaissance de caractères 121 et, s'il est déterminé qu'une reconnaissance de caractères supplémentaire doit être effectuée, on effectue une reconnaissance de caractères supplémentaire à l'aide de la deuxième unité de reconnaissance de caractères 122.
[0060] Le processeur 130 fonctionne comme une unité de mesure 131, une unité de détermination 132 et une unité de sélection 133. L'unité de mesure 131 est configurée pour calculer une mesure de confiance du premier groupe de caractères. L'unité de détermination 132 est configurée pour déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance. L'unité de sélection 133 est configurée pour sélectionner la deuxième région de l'image, la deuxième région comprenant la première région. En conséquence, le processeur 130 est configuré pour identifier comment améliorer la précision et allouer efficacement les ressources, en utilisant la reconnaissance de caractères fournie par la pluralité d'unités de reconnaissance de caractères 120.
[0061] L'analyse de la première unité de reconnaissance de caractères 121 sur l'ensemble de l'image résulte en une chaîne de caractères codés par machine correspondant à tout le texte qui a été identifié dans l'image. L'unité de mesure 131 fournit une valeur de confiance, de sorte que l'unité de détermination 132 peut déterminer si la chaîne de caractères codés par machine contient des erreurs. L'identification des erreurs peut être utilisée
BE2019/5125 rétrospectivement par l'unité de sélection 133 pour identifier une première région de l'image pour laquelle une reconnaissance supplémentaire doit être effectuée. Une fois qu'il a été déterminé qu'une reconnaissance supplémentaire doit être effectuée, l'unité de sélection 133 identifie une deuxième région de l'image qui comprend la première région, fournissant ainsi des informations supplémentaires qui seront utiles pour évaluer davantage la première région.
[0062] Comme alternative, la première région pourrait être sélectionnée avant que la première unité de reconnaissance de caractères 121 n’effectue une reconnaissance de caractères sur l'ensemble du document. Ceci permet de déterminer à l'avance la première région comme faisant partie de l'image pour laquelle le premier groupe de caractères doit être vérifié. Ceci permet de donner la priorité à certaines parties de l'image, par exemple, si l'utilisateur a identifié que cette partie de l'image est particulièrement importante, ou s'il a été déterminé que la première région de l'image est de faible qualité.
[0063] L’entrée 101 et la sortie 102 sont configurées pour recevoir et transmettre des données électroniques. L'entrée 101 est configurée pour recevoir l'image à analyser, par exemple d’un réseau local, d'Internet ou d'une mémoire externe. De plus, l’entrée 101 est configurée pour recevoir des instructions d'un utilisateur via, par exemple, une souris ou un clavier. La sortie 102 est configurée pour sortir le texte qui a été identifié. La sortie 102 comprend un afficheur permettant d'identifier le texte à l’utilisateur. La sortie 102 comprend une connexion réseau pour communiquer sur Internet.
[0064] Les caractéristiques du dispositif de traitement d'image 100 peuvent être organisées différemment. Par exemple, chacune des unités de reconnaissance de caractères 120 peut comprendre un processeur 130 qui est configuré pour servir d'unité de mesure 131, d’unité de détermination 132 et d’unité de sélection 133. La pluralité d'unités de reconnaissance de
BE2019/5125 caractères 120 peut faire partie du même dispositif ou alternativement être distribuée comme système sur une pluralité de dispositifs.
[0065] Le dispositif de traitement d'image 100 peut faire partie d'un ordinateur personnel. Alternativement, le dispositif de traitement d'image 100 peut faire partie d'un périphérique multifonction, comprenant en outre un scanner, un copieur, un télécopieur et une imprimante.
[0066] La FIG. 2 est un organigramme illustrant un procédé de traitement d'image S200 pour identifier le texte compris dans une image 300. Le procédé de traitement d’image S200 est implémenté par le système de traitement d'image 100. Un programme qui, lorsqu'il est implémenté par le système de traitement d'image 100, amène le système de traitement d'image à exécuter le procédé de traitement d’image S200. Un support lisible par ordinateur stocke le programme.
[0067] A l'étape S210, la première unité de reconnaissance de caractères 121 effectue la fonction de reconnaissance d’un premier groupe de caractères 111 correspondant à une première région de l'image 300.
[0068] La première unité de reconnaissance de caractères 121 effectue la segmentation sur l'image, qui identifie les caractères dans l'image. L'image est segmentée en morceaux, puis chaque morceau est reconnu. Les morceaux sont assemblés et l'information contextuelle est utilisée pour prendre une décision dans les cas ambigus. La sur segmentation identifie les mots du document, chaque mot comprenant un groupe de caractères. La sur segmentation identifie les lignes de texte comprises dans le document, chaque ligne de texte comprenant un groupe de mots. Les mots et les lignes peuvent être utilisés pour fournir un contexte pour la reconnaissance des caractères dans l'image.
[0069] La première unité de reconnaissance de caractères 121 effectue la reconnaissance de caractères pour l'ensemble du document, de sorte que
BE2019/5125 tout le texte de l'image sera analysé. Avantageusement, cela s'effectue rapidement et fournit une première technique pour identifier le texte dans le document.
[0070] La sur segmentation est utilisée pour identifier les mots et les caractères du texte extrait de l'image. Un premier groupe de caractères correspond à un mot identifié dans le texte. Le premier groupe de caractères est un sous-ensemble du texte extrait de l'image. La première région est une partie de l'image qui comprend le premier groupe de caractères. La précision du texte peut être améliorée en identifiant les premières régions pour lesquelles la reconnaissance de caractères par la première unité de reconnaissance de caractères 121 est de faible qualité.
[0071] Dans certains cas, le texte comprend une pluralité de groupes de caractères pour lesquels la reconnaissance de caractères par la première unité de reconnaissance de caractères 121 est de faible qualité. Dans ce cas, une pluralité de premières régions de l'image sont identifiées, chacune des premières régions correspondant à un premier groupe de caractères différent. Avantageusement, la précision du texte peut être améliorée en identifiant une pluralité d'erreurs qui doivent être corrigées.
[0072] Chaque première région est associée au premier groupe correspondant de caractères qui ont été reconnus. Il est donc possible de mapper l'image d'entrée avec le texte de sortie. L'association de la première région au premier groupe de caractères est utile si la précision du premier groupe de caractères doit être examinée plus en détail en effectuant à nouveau la reconnaissance de caractères pour le premier groupe de caractères. De plus, il est utile d'avoir un mappage entre l'image d'entrée et le texte de sortie lors de l'ajout d'une couche à l’image pour fournir un texte lisible par machine sélectionnable qui recouvre l’image originale du document.
[0073] A l'étape S220, l'unité de mesure 131 effectue la fonction de calcul d'une mesure de confiance du premier groupe de caractères 111.
BE2019/5125 [0074] La mesure de confiance identifie le niveau de confiance pour chacun des caractères qui est détecté par une unité de reconnaissance de caractères 120. Avantageusement, le niveau de confiance permet d'identifier et d'éliminer les erreurs dans le texte sorti de la première unité de reconnaissance de caractères 121.
[0075] Des erreurs se produisent généralement si l'image comprend un style qui n'a jamais été rencontré auparavant, comme une police de caractère différente ou un texte qui a été masqué. Il peut y avoir des erreurs de reconnaissance de la ponctuation, ce qui rend difficile la reconnaissance des caractères. De plus, les défauts de l'image peuvent masquer le texte. La qualité de l'image influe sur les erreurs rencontrées lors de la reconnaissance du texte, car cela introduit des ambiguïtés. Il est difficile de reconnaître les caractères s'il n'y a pas assez de pixels, car une faible résolution réduit la précision du mappage sur un ensemble de caractères stocké en mémoire. Il est particulièrement difficile d'identifier un texte de faible hauteur, car il en résulte des caractères qui ont un faible nombre de pixels.
[0076] Une mesure de confiance faible indique que la reconnaissance par l'unité de reconnaissance de caractères 120 comprend des erreurs. Diverses techniques sont disponibles pour identifier les erreurs, par exemple :
- attribuer une pondération, W, à chaque caractère qui identifie une probabilité que le caractère reconnu représente précisément le caractère identifié dans l'image ;
- attribuer une pondération, moyenne (W), à chaque mot qui représente une pondération moyenne pour tous les caractères du mot ;
- attribuer une pondération, maximale (W), à chaque mot qui représente la pondération maximale pour un caractère particulier du mot ;
BE2019/5125
- attribuer une pondération à chaque ligne qui représente une pondération moyenne ou une pondération maximale pour tous les caractères de la ligne
J
- effectuer une vérification orthographique pour déterminer si les mots détectés sont compris dans un dictionnaire ;
- déterminer si les mots détectés comportent des caractéristiques incohérents, tels que la présence de ponctuation ;
- comparer les différents mots qui ont été reconnus pour évaluer s'ils ont un contexte approprié, comme par exemple vérifier la grammaire ;
- déterminer le nombre de pixels qui composent le caractère dans l'image, car cela indique la résolution de la première région qui a été utilisée pour obtenir le premier groupe de caractères ;
- déterminer la hauteur des caractères dans l'image, parce qu'une faible hauteur de caractères entraîne un faible nombre de pixels composant le caractère ; et
- toute combinaison des techniques ci-dessus, telles que la combinaison des mesures moyenne (W) et maximale (W).
[0077] En plus de l'association entre la première région et le premier groupe de caractères, ces deux éléments sont également associés à la mesure de confiance. Pour la situation dans laquelle une pluralité de premières régions a été identifiée correspondant à une pluralité de premiers groupes de caractères, une pluralité de mesures de confiance est calculée. Il est possible que l'identification de la première région se fasse rétrospectivement, une fois que le premier groupe de caractères est identifié comme ayant une faible valeur de confiance.
[0078] Dans l'étape S230, l'unité de détermination 132 effectue une fonction consistant à déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance. Si la mesure de confiance est faible, cela indique que le premier groupe de caractères peut contenir une erreur. Par conséquent, si la mesure de confiance est inférieure à un seuil, cela signifie qu'un traitement supplémentaire doit être effectué. Dans
BE2019/5125 le cas où une pluralité de premiers caractères sont identifiés comme ayant une mesure de confiance faible, des ressources informatiques sont affectées à la reconnaissance supplémentaire pour les mesures de confiance les plus faibles, en sélectionnant un nombre maximum de premiers groupes de caractères pour lesquels une reconnaissance supplémentaire doit être effectuée.
[0079] La mesure de confiance correspond au premier groupe de caractères. Ainsi, la mesure de confiance correspond à la première région. Un mappage entre le texte codé par machine et l'image pourrait se produire après le calcul de la mesure de confiance, de sorte que le premier groupe de caractères est associé à la première région. Alternativement, le mappage entre la première région et le premier groupe de caractères pourrait être établie avant le calcul de la mesure de confiance.
[0080] Si aucune autre reconnaissance n'est nécessaire, le procédé S200 se termine, ce qui correspond à la situation dans laquelle aucune erreur n'a été identifiée dans le texte codé par machine qui a été sorti par la première unité de reconnaissance 121. Toutefois, si une reconnaissance supplémentaire doit être effectuée, le procédé S200 passe à l'étape S240. Dans le cas où une pluralité de premières régions ont été identifiées, le procédé S200 passe à l'étape S240 pour les premières régions pour lesquelles il est déterminé qu'une reconnaissance supplémentaire doit être effectuée. Par conséquent, s'il n'est pas nécessaire d'effectuer une reconnaissance supplémentaire, cela permet d'économiser des ressources et d'accélérer les performances de la reconnaissance de caractères.
[0081] La détermination de la nécessité d’effectuer une reconnaissance supplémentaire est basée sur la mesure de confiance. Si la mesure du seuil est inférieure à une valeur seuil, cela indique que la qualité de la première reconnaissance de caractères est faible et qu'une reconnaissance supplémentaire doit donc être effectuée. En particulier, il est tenu compte des valeurs pondérales qui constituent la mesure de
BE2019/5125 confiance. De plus, il est possible de tenir compte du nombre de pixels composant les caractères, par exemple en déterminant la hauteur des caractères.
[0082] Pour la situation dans laquelle une pluralité de premières régions a été identifiée, chacune des premières régions est triée sur la base de la mesure de confiance. Avantageusement, les premières régions qui ont le plus besoin d'une reconnaissance supplémentaire se voient accorder la priorité dans l'allocation des ressources. La quantité disponible de traitement pour une reconnaissance supplémentaire est limitée et, par conséquent, un nombre maximum de premières régions peuvent être analysées plus en détail. Ce nombre maximum peut être sélectionné par l'utilisateur, déterminé en fonction de la taille du document image, ou déterminé en évaluant la pluralité de mesures de confiance qui ont été calculées. Alternativement, le tri de la pluralité de premières régions permet d'effectuer la reconnaissance supplémentaire jusqu'à ce que les ressources disponibles aient été épuisées, par exemple s'il y a une quantité limitée de traitement disponible pour une reconnaissance supplémentaire, ou une minuterie indiquant qu'aucun délai supplémentaire n’est disponible pour le traitement de la reconnaissance supplémentaire.
[0083] A l'étape S240, l'unité de sélection 133 exécute la fonction de sélection d'une deuxième région de l'image 300 qui comprend la première région, s'il est déterminé qu'une reconnaissance supplémentaire doit être effectuée pour la première région.
[0084] La première région correspond à un groupe de caractères formant un ou plusieurs mots. La deuxième région comprend la première région, car une étape de reconnaissance supplémentaire doit être effectuée pour cette première région. Cependant, la deuxième région est plus grande que la première région parce que la deuxième région comprend des parties de l'image qui fourniront un contexte à la première région. La deuxième région
BE2019/5125 comprend des informations supplémentaires à la première région, telles que :
- des mots qui sont adjacents à la première région ;
- toute la ligne de texte qui comprend la première région ; et
- les parties de l'image qui ont été identifiées comme fournissant un contexte à la première région.
[0085] A l'étape S250, la deuxième unité de reconnaissance de caractères effectue la fonction de reconnaissance supplémentaire d'un deuxième groupe de caractères 222 correspondant à la deuxième région de l'image 300.
[0086] La deuxième région est un sous-ensemble de l'image. Ainsi, alors que la première unité de reconnaissance de caractères 121 effectue la reconnaissance de caractères sur le document complet, la deuxième unité de reconnaissance de caractères 122 effectue la reconnaissance de caractères sur une partie beaucoup plus petite de l'image. Par conséquent, la deuxième unité de reconnaissance de caractères 122 est axée sur la deuxième région, qui a été identifiée comme incluant une erreur dans la première région. De plus, la deuxième unité de reconnaissance de caractères 122 utilise l'information supplémentaire qui est identifiée comme fournissant un contexte à la première région.
[0087] La sortie de la deuxième unité de reconnaissance de caractères 122 devrait être plus précise que celle de la première unité de reconnaissance de caractères 121. Par conséquent, la partie correspondante du texte qui est sortie par la première unité de reconnaissance de caractères 121 est remplacée par la sortie de la deuxième unité de reconnaissance de caractères 122. Avantageusement, la précision de la reconnaissance de caractères est améliorée par l'utilisation d'une pluralité d'unités de reconnaissance de caractères 120 qui sont adaptées à l'image analysée, tout en équilibrant l'allocation des ressources informatiques.
BE2019/5125 [0088] Comme alternative, la pluralité d'unités de reconnaissance de caractères 120 peut comprendre d'autres unités de reconnaissance de caractères qui sont spécialisées pour corriger les erreurs dans la reconnaissance de caractères. La deuxième unité de caractères 122 est adaptée pour effectuer la reconnaissance de caractères pour un type d'image spécifique, tel qu'un balayage de faible qualité. Ainsi, la deuxième unité de caractères 122 est sélectionnée en fonction du fait que la deuxième région est identifiée comme étant de faible qualité. En conséquence, le procédé de traitement d'image S200 est effectué pour l'image en utilisant l'unité de reconnaissance de caractères 120 appropriée. Avantageusement, la deuxième unité de reconnaissance de caractères 122 la plus appropriée est sélectionnée pour effectuer la reconnaissance supplémentaire.
[0089] La FIG. 3A est un diagramme illustrant comment le procédé de traitement d'image S200 identifie le texte compris dans l'image 300.
[0090] Dans l'étape S210, la reconnaissance de caractères est effectuée par la première unité de reconnaissance de caractères 121 sur la première région 1, obtenant ainsi le premier groupe de caractères 111. Les étapes S220-S240 sont effectuées pour déterminer si une reconnaissance supplémentaire de la première région 1 doit être effectuée.
[0091] Dans l'étape S250, la reconnaissance de caractères est effectuée par la deuxième unité de reconnaissance de caractères 122 sur la deuxième région 2, obtenant ainsi le deuxième groupe de caractères 222.
[0092] La FIG. 3A illustre la deuxième région 2 correspondant à une ligne de texte. Une ligne de texte est sélectionnée parce qu'elle est considérée comme susceptible de fournir un contexte pour l'analyse de la première région 1. Avantageusement, la deuxième unité de reconnaissance de caractères 122 est adaptée pour analyser des images de faible qualité et,
BE2019/5125 par conséquent, le deuxième groupe de caractères devrait avoir une mesure de confiance plus élevée que la faible mesure de confiance qui a été déterminée lors de la réalisation de la reconnaissance de caractères de la première région 1 avec la première unité de reconnaissance de caractères 121.
[0093] La FIG. 3B est un diagramme illustrant comment le procédé de traitement d'image S200 identifie le texte compris dans l'image 300.
[0094] Dans l'étape S210, la reconnaissance de caractères est effectuée par la première unité de reconnaissance de caractères 121 sur la pluralité des premières régions 1A-C, obtenant ainsi la pluralité des premiers groupes de caractères 111A-C. Eventuellement, la première unité de reconnaissance de caractères 121 est configurée pour analyser l'ensemble du document, bien qu’alternativement, la première unité de reconnaissance de caractères 121 est configurée pour analyser une partie du document. Les étapes S220-S240 sont effectuées pour déterminer si une reconnaissance supplémentaire doit être effectuée pour chacune des premières régions 1A-1C.
[0095] Dans l'étape S250, la reconnaissance de caractères est effectuée par la deuxième unité de reconnaissance de caractères 122 sur la pluralité des deuxièmes régions 2A-C, obtenant ainsi la pluralité des deuxièmes groupes de caractères 222A-C.
[0096] La FIG. 3B illustre la deuxième région 2A-C correspondant aux mots qui sont adjacents à la première région 1A-C. Un ou plusieurs mots adjacents à la première région 1A-C peuvent être utilisés. Le nombre de mots à inclure dans la deuxième région 2A-C est spécifié à l'avance. Alternativement, le nombre de mots peut être déterminé en établissant s'il y a suffisamment de mots pour fournir un contexte. Si la première région 1A est un premier mot, il n’y aura pas de mots avant la première région 1A, donc la deuxième région 2A sera composée de mots adjacents qui
BE2019/5125 apparaissent après la première région 1A. De même, si la première région est un dernier mot, il n'y aura pas de mots après la première région 1A, de sorte que la deuxième région 2A sera composée de mots adjacents qui apparaissent avant la première région 1A.
[0097] Les FIGs. 3A et 3B illustrent des exemples du procédé de traitement d'image S200 effectué par le système de traitement d'image 100, qui peut être fourni séparément ou en combinaison. L'unité de sélection 133 sélectionne en conséquence la deuxième région en fonction des réglages qui ont été sélectionnés à l'avance pour savoir si une ligne doit être sélectionnée selon la figure 3A ou si les mots adjacents doivent être sélectionnés selon la figure 3B. Il est également possible d'évaluer si la deuxième région fournit le contexte qui doit être utilisé par la deuxième unité de reconnaissance de caractères 122.
[0098] Les FIGs. 4A-C et 5A-C illustrent des exemples de la façon dont la première région 111 et la deuxième région 222 peuvent être identifiées. Comme alternative, les exemples des FIGs. 4A-C et 5A-C peuvent être fournis en combinaison pour identifier la première région 111 et la deuxième région 222. En outre, les FIG. 4A-C et 5A-C servent à illustrer comment le contexte fourni par la deuxième région 222 peut être utilisé pour effectuer la reconnaissance de la première région 111.
[0099] Les FIGs. 4A-C fournissent un exemple de reconnaissance de caractères qui utilise le contexte, pour lequel la valeur de confiance associée à un premier groupe de caractères 41 est utilisée pour déterminer que la reconnaissance supplémentaire doit être effectuée pour la première région 111 par la deuxième unité de reconnaissance de caractères 122.
[00100] La FIG. 4A fournit un exemple d'un premier groupe de caractères 41 qui est déterminé comme contenant une erreur basée sur la mesure de confiance.
BE2019/5125 [00101] Le contexte est très important lors de la lecture d’une ligne de texte. Par exemple, que lisez-vous ?
M4K35 [00102] L'unité de mesure calcule une valeur de confiance, qui est faible car le premier groupe de caractères 41 comprend à la fois des lettres et des chiffres. En conséquence, l'unité de détermination 132 établit qu'une reconnaissance supplémentaire doit être effectuée.
[00103] Le premier groupe de caractères 41 correspond à la première région 111.
[00104] La FIG. 4B donne un exemple d'un groupe de caractères 42 qui inclut le premier groupe de caractères 41.
[00105] Essayez de lire cette ligne :
EXAMPLE OF A LINE WHERE CONTEXT M4K35 A DIFFERENCE.
(en français : « EXAMPLE D’UNE LIGNE OÙ LE CONTEXTE M4K35 UNE DIFFÉRENCE. »).
[00106] L'unité de sélection 133 identifie les caractères 42 sortis de la première unité de reconnaissance de caractères 121 qui sont candidats pour fournir un contexte au premier groupe de caractères 41.
[00107] La mise en contexte peut être active ou passive. Comme premier exemple de contexte passif fourni, les caractères 42 peuvent être identifiés comme étant sur la même ligne de texte que le premier groupe de caractères 41. Comme deuxième exemple de contexte passif, les caractères 42 peuvent être identifiés comme étant des mots adjacents au premier groupe de caractères 41. Un exemple de contexte actif étant fourni, une mesure de contexte peut identifier positivement que le groupe de caractères 42 fournira le contexte au premier groupe de caractères 41.
BE2019/5125 [00108] L'unité de sélection 133 utilise le groupe de caractères 42 pour identifier la deuxième région 222 qui sera utile pour fournir la reconnaissance supplémentaire.
[00109] La FIG. 4C fournit un exemple d'un deuxième groupe de caractères 43 pour lequel les erreurs ont été corrigées.
[00110] Le deuxième groupe de caractères 43 est sorti par la deuxième unité de reconnaissance de caractères 122 qui effectue la reconnaissance de caractères de la deuxième région 222 de l'image.
[00111] En conséquence, le texte est corrigé comme suit :
EXAMPLE OF A LINE WHERE CONTEXT MAKES A DIFFERENCE. (en français : « EXAMPLE D’UNE LIGNE OÙ LE CONTEXTE FAIT UNE DIFFÉRENCE. »).
[00112] Pour le deuxième groupe de caractères 43 sorti par la deuxième unité de reconnaissance de caractères 121, l'unité de mesure 131 calcule un niveau de confiance supérieur au groupe de caractères 42 sorti par la première unité de reconnaissance de caractères 122.
[00113] Les erreurs introduites par la première unité de reconnaissance de caractères 121 ont été corrigées par la deuxième unité de reconnaissance de caractères 122. Par conséquent, les caractères 42 qui ont été sortis par la première unité de reconnaissance de caractères 121 sont remplacés par le deuxième groupe de caractères 43 qui ont été sortis par la deuxième unité de reconnaissance de caractères.
[00114] Les FIGs. 5A-C fournissent un autre exemple de reconnaissance de caractères qui utilise le contexte, pour lequel la valeur de confiance associée à une première région 51 est utilisée pour
BE2019/5125 déterminer que la reconnaissance supplémentaire doit être effectuée par la deuxième unité de reconnaissance de caractères 122.
[00115] La FIG. 5A fournit un exemple d'une première région 51 détectée par le système de traitement d'image 100.
[00116] La première unité de reconnaissance de caractères 121 effectue la reconnaissance de caractères sur l'image complète. Considère la situation dans laquelle un premier groupe de caractères 111 est identifié comprenant deux ou trois caractères qui forment un seul mot. En outre, le premier groupe de caractères 111 est reconnu comme étant les caractères codés par machine LO. Le premier groupe de caractères 111 est associé à la première région 51. L'unité de mesure 131 calcule une valeur de confiance faible, ce qui peut s'expliquer par :
- le nombre de pixels de la région 51 est faible ;
- les pixels ne mappent pas précisément avec aucun des caractères codés par machine stockés par la première unité de reconnaissance de caractères 121 ; et
- la vérification orthographique du mot LO indique qu'il est probable qu'il y ait une erreur.
[00117] Il est difficile d'identifier visuellement les lettres correspondant à l'image montrée dans la FIG. 5A, car la qualité de l’image est faible et il n'y a pas de contexte pour déterminer la signification des pixels détectés.
[00118] La FIG. 5B fournit un exemple d'une deuxième région 52 sélectionnée par le système de traitement d'image 100.
[00119] La première région 51 est comprise dans la deuxième région 52. La deuxième région 52 fournit le contexte de la première région 51 en incluant certains des mots qui sont adjacents à la première région 51.
BE2019/5125 [00120] La deuxième unité de reconnaissance de caractères 122 est effectuée sur la deuxième région, ce qui donne le deuxième groupe de caractères :
describes in greater detail, (en français : décrit plus en détail).
[00121] La FIG. 5C fournit un exemple de ligne de texte 53. La première région 51 de la ligne 53 correspond à la première région 51 représentée sur la figure 5A. La deuxième région 52 de la ligne 53 correspond à la deuxième région 52 représentée sur la figure 5B.
[00122] Le contexte fourni à la première région 51 par les mots adjacents qui sont inclus dans la deuxième région 52 résulte en une mesure de confiance accrue. En conséquence, le deuxième groupe de caractères 222 remplace les caractères correspondants qui ont été reconnus par la première unité de reconnaissance de caractères 111.
[00123] En conséquence, la ligne du texte 53 est reconnue comme suit :
The next section describes in greater detail, (en français : La section suivante décrit plus en détail).
[00124] Les exemples ci-dessus peuvent également être réalisés par un ordinateur d'un système ou d'un dispositif (ou de dispositifs tels qu'un CPU ou MPU) qui lit et exécute un programme enregistré sur un dispositif de mémoire pour effectuer les fonctions des exemples décrits ci-dessus, et par un procédé dont les étapes sont effectuées par un ordinateur d'un système ou dispositif, par exemple, la lecture et l'exécution d'un programme enregistré sur un dispositif de mémoire pour effectuer les fonctions des exemples décrits ci-dessus. A cette fin, le programme est
BE2019/5125 fourni à l'ordinateur, par exemple, par l'intermédiaire d'un réseau ou d'un support d'enregistrement de divers types servant de dispositif de mémoire (par exemple, un support lisible par ordinateur comme un support non transitoire lisible par ordinateur).
[00125] Bien que la présente invention ait été décrite en référence à des modes de réalisation, il faut comprendre que l'invention ne se limite pas aux modes de réalisations divulguées. La présente invention peut être mise en œuvre sous diverses formes sans s'écarter des principales 10 caractéristiques de la présente invention. La portée des revendications suivantes doit être interprétée au sens le plus large afin d'englober toutes ces modifications et les structures et fonctions équivalentes.

Claims (18)

1. Procédé de traitement d'image pour reconnaître des caractères compris dans une image, le procédé de traitement d'image comprenant les étapes consistant à :
effectuer une reconnaissance dans une première région de l'image, par une première unité de reconnaissance de caractères, d'un premier groupe de caractères correspondant à la première région de l'image ;
calculer une mesure de confiance du premier groupe de caractères ;
déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance ;
sélectionner une deuxième région de l'image qui comprend la première région, s'il est déterminé qu'une reconnaissance supplémentaire doit être effectuée ; et effectuer une reconnaissance supplémentaire dans la deuxième région de l'image, par une deuxième unité de reconnaissance de caractères, d'un deuxième groupe de caractères correspondant à la deuxième région de l'image.
2. Procédé selon la revendication précédente, comprenant en outre les étapes consistant à :
effectuer une reconnaissance dans une pluralité des premières régions de l'image, par la première unité de reconnaissance de caractères, d'une pluralité de premiers groupes de caractères correspondant à la pluralité de premières régions de l'image ;
calculer une mesure de confiance pour chacun des premiers groupes de caractères ;
déterminer si une reconnaissance supplémentaire doit être effectuée pour chacun des premiers groupes de caractères, sur la base de la mesure de confiance correspondante ;
sélectionner une pluralité de deuxièmes régions de l'image qui comprennent chacune la première région correspondante, s'il est déterminé que la reconnaissance supplémentaire doit être effectuée ; et
BE2019/5125 effectuer la reconnaissance supplémentaire dans une pluralité des deuxièmes régions de l'image, par la deuxième unité de reconnaissance de caractères, d'une pluralité de deuxièmes groupes de caractères correspondant à la pluralité de deuxièmes régions de l'image.
3. Procédé selon la revendication 2, dans lequel l'étape consistant à déterminer si une reconnaissance supplémentaire par la deuxième unité de reconnaissance de caractères doit être effectuée comprend la sélection d'un nombre maximum de premiers groupes de caractères, sur la base de la mesure de confiance pour chacun des premiers groupes de caractères, dans lequel les premiers groupes de caractères correspondent à un nombre maximum de mesures de confiance qui sont les plus basses.
4. Procédé selon l'une quelconque des revendications précédentes, dans lequel la reconnaissance du premier groupe de caractères comprend au moins une opération parmi :
un appariement matriciel, dans lequel la première région est comparée à un glyphe ; et une extraction de caractéristiques, dans laquelle la première région est comparée à une pluralité de caractéristiques d'un glyphe.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel la mesure de confiance est basée sur au moins un élément parmi :
une pondération moyenne pour tous les caractères du premier groupe de caractères ; et une pondération maximale pour tous les caractères du premier groupe de caractères.
6. Procédé selon l'une quelconque des revendications précédentes, dans lequel il est déterminé qu'une reconnaissance supplémentaire doit être effectuée si la mesure de confiance est inférieure à une valeur seuil.
BE2019/5125
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel il est déterminé qu'une reconnaissance supplémentaire doit être effectuée si le premier groupe de caractères correspond au texte dans la première région qui est identifiée comme ayant au moins un élément parmi:
un nombre de pixels inférieur à une valeur seuil ; et une hauteur inférieure à une valeur seuil.
8. Procédé selon l'une quelconque des revendications précédentes, dans lequel la reconnaissance supplémentaire du deuxième groupe de caractères est adaptée pour au moins un élément parmi :
la deuxième région de l'image ; et une image de faible qualité.
9. Procédé selon l'une quelconque des revendications précédentes, dans lequel la reconnaissance supplémentaire du deuxième groupe de caractères utilise un réseau neuronal qui a été formé pour reconnaître une pluralité de chaînes de mots.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel la deuxième région comprend en outre des mots qui sont identifiés comme étant adjacents à la première région.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel la deuxième région comprend en outre des mots qui sont identifiés comme étant sur la même ligne de texte que la première région.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel la deuxième région comprend en outre des mots qui sont identifiés comme fournissant un contexte à la première région.
13. Système de traitement d'image pour reconnaître des caractères compris dans une image, le système de traitement d'image comprenant :
BE2019/5125 une première unité de reconnaissance de caractères configurée pour effectuer une reconnaissance dans une première région de l'image, d'un premier groupe de caractères correspondant à la première région de l'image ;
une unité de mesure configurée pour calculer une mesure de confiance du premier groupe de caractères ;
une unité de détermination configurée pour déterminer si une reconnaissance supplémentaire doit être effectuée sur la base de la mesure de confiance ;
une unité de sélection configurée pour sélectionner une deuxième région de l'image qui comprend la première région, s'il est déterminé que la reconnaissance supplémentaire doit être effectuée ; et une deuxième unité de reconnaissance de caractères configurée pour effectuer la reconnaissance supplémentaire dans la deuxième région de l'image, d'un deuxième groupe de caractères correspondant à la deuxième région de l'image.
14. Système de traitement d'image selon la revendication 13, dans lequel la première unité de reconnaissance de caractères est configurée pour effectuer au moins une opération parmi :
un appariement matriciel, dans lequel la première région est comparée à un glyphe ; et une extraction de caractéristiques, dans laquelle la première région est comparée à une pluralité de caractéristiques d'un glyphe.
15. Système de traitement d'image selon la revendication 13 ou la revendication 14, dans lequel la deuxième unité de reconnaissance de caractères effectue une reconnaissance supplémentaire du deuxième groupe de caractères qui est adapté pour au moins un élément parmi :
la deuxième région de l'image ; et une région d'une image qui est de faible qualité.
BE2019/5125
16. Système de traitement d'image selon l'une quelconque des revendications 13 à 15, dans lequel la deuxième unité de reconnaissance de caractères effectue une reconnaissance supplémentaire du deuxième groupe de caractères en utilisant un réseau neuronal qui a été formé pour
5 reconnaître une pluralité de chaînes de mots.
17. Programme qui, lorsqu'il est mis en œuvre par un système de traitement d'image, amène le système de traitement d'image à effectuer un procédé selon l'une quelconque des revendications 1 à 12.
18. Support lisible par ordinateur qui stocke un programme selon la revendication 17.
BE20195125A 2018-02-28 2019-02-28 Procede de traitement d'image et systeme de traitement d'image BE1026039B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB1803262.3A GB2571530B (en) 2018-02-28 2018-02-28 An image processing method and an image processing system

Publications (2)

Publication Number Publication Date
BE1026039A1 BE1026039A1 (fr) 2019-09-18
BE1026039B1 true BE1026039B1 (fr) 2019-12-13

Family

ID=61903107

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20195125A BE1026039B1 (fr) 2018-02-28 2019-02-28 Procede de traitement d'image et systeme de traitement d'image

Country Status (8)

Country Link
US (1) US11170265B2 (fr)
EP (1) EP3759647A1 (fr)
JP (1) JP7038988B2 (fr)
KR (1) KR102504635B1 (fr)
CN (1) CN111630521A (fr)
BE (1) BE1026039B1 (fr)
GB (1) GB2571530B (fr)
WO (1) WO2019166301A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200311411A1 (en) * 2019-03-28 2020-10-01 Konica Minolta Laboratory U.S.A., Inc. Method for text matching and correction
US11461988B2 (en) * 2020-07-23 2022-10-04 Suresh Babu Revoled Konti Method of transferring data between unconnected computing devices
CN112084947A (zh) * 2020-09-09 2020-12-15 上海肇观电子科技有限公司 光学字符识别结果的处理方法、电路、设备及存储介质
CN112287898B (zh) * 2020-11-26 2024-07-05 深源恒际科技有限公司 一种图像的文本检测质量评价方法及系统
CN112818976B (zh) * 2021-01-29 2024-03-26 北京秒针人工智能科技有限公司 一种字符的确定方法、装置、电子设备和可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040037470A1 (en) * 2002-08-23 2004-02-26 Simske Steven J. Systems and methods for processing text-based electronic documents
US20140212039A1 (en) * 2013-01-28 2014-07-31 International Business Machines Corporation Efficient Verification or Disambiguation of Character Recognition Results

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5635276A (en) * 1979-08-30 1981-04-07 Toshiba Corp Rejected character processing system for optical character reading device
US5251268A (en) * 1991-08-09 1993-10-05 Electric Power Research Institute, Inc. Integrated method and apparatus for character and symbol recognition
US5442715A (en) * 1992-04-06 1995-08-15 Eastman Kodak Company Method and apparatus for cursive script recognition
JP3260979B2 (ja) * 1994-07-15 2002-02-25 株式会社リコー 文字認識方法
US5764799A (en) * 1995-06-26 1998-06-09 Research Foundation Of State Of State Of New York OCR method and apparatus using image equivalents
US5835633A (en) * 1995-11-20 1998-11-10 International Business Machines Corporation Concurrent two-stage multi-network optical character recognition system
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
US5933531A (en) * 1996-08-23 1999-08-03 International Business Machines Corporation Verification and correction method and system for optical character recognition
US6473517B1 (en) * 1999-09-15 2002-10-29 Siemens Corporate Research, Inc. Character segmentation method for vehicle license plate recognition
US8428332B1 (en) * 2001-09-27 2013-04-23 Cummins-Allison Corp. Apparatus and system for imaging currency bills and financial documents and method for using the same
JP3919617B2 (ja) * 2002-07-09 2007-05-30 キヤノン株式会社 文字認識装置および文字認識方法、プログラムおよび記憶媒体
DE50305344D1 (de) * 2003-01-29 2006-11-23 Harman Becker Automotive Sys Verfahren und Vorrichtung zur Einschränkung des Suchumfangs in einem Lexikon für Spracherkennung
US8156116B2 (en) * 2006-07-31 2012-04-10 Ricoh Co., Ltd Dynamic presentation of targeted information in a mixed media reality recognition system
US8868555B2 (en) * 2006-07-31 2014-10-21 Ricoh Co., Ltd. Computation of a recongnizability score (quality predictor) for image retrieval
US8510283B2 (en) * 2006-07-31 2013-08-13 Ricoh Co., Ltd. Automatic adaption of an image recognition system to image capture devices
US8825682B2 (en) * 2006-07-31 2014-09-02 Ricoh Co., Ltd. Architecture for mixed media reality retrieval of locations and registration of images
US20080008383A1 (en) * 2006-07-07 2008-01-10 Lockheed Martin Corporation Detection and identification of postal metermarks
US8489987B2 (en) * 2006-07-31 2013-07-16 Ricoh Co., Ltd. Monitoring and analyzing creation and usage of visual content using image and hotspot interaction
US9176984B2 (en) * 2006-07-31 2015-11-03 Ricoh Co., Ltd Mixed media reality retrieval of differentially-weighted links
US8155444B2 (en) * 2007-01-15 2012-04-10 Microsoft Corporation Image text to character information conversion
US8417017B1 (en) * 2007-03-09 2013-04-09 Cummins-Allison Corp. Apparatus and system for imaging currency bills and financial documents and method for using the same
GB2466597B (en) * 2007-09-20 2013-02-20 Kyos Systems Inc Method and apparatus for editing large quantities of data extracted from documents
US8755604B1 (en) * 2008-06-05 2014-06-17 CVISION Technologies, Inc. Using shape similarity methods to improve OCR speed and accuracy
JP2010217996A (ja) * 2009-03-13 2010-09-30 Omron Corp 文字認識装置、文字認識プログラム、および文字認識方法
US8391583B1 (en) * 2009-04-15 2013-03-05 Cummins-Allison Corp. Apparatus and system for imaging currency bills and financial documents and method for using the same
US8929640B1 (en) * 2009-04-15 2015-01-06 Cummins-Allison Corp. Apparatus and system for imaging currency bills and financial documents and method for using the same
US8620078B1 (en) * 2009-07-14 2013-12-31 Matrox Electronic Systems, Ltd. Determining a class associated with an image
JP4985724B2 (ja) * 2009-07-30 2012-07-25 富士通株式会社 単語認識プログラム、単語認識方法、単語認識装置
US8401293B2 (en) * 2010-05-03 2013-03-19 Microsoft Corporation Word recognition of text undergoing an OCR process
US9141877B2 (en) * 2012-01-25 2015-09-22 The United States Of America As Represented By The Secretary Of The Air Force Method for context aware text recognition
US9262699B2 (en) * 2012-07-19 2016-02-16 Qualcomm Incorporated Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR
CN103577818B (zh) * 2012-08-07 2018-09-04 北京百度网讯科技有限公司 一种图像文字识别的方法和装置
US8947745B2 (en) * 2013-07-03 2015-02-03 Symbol Technologies, Inc. Apparatus and method for scanning and decoding information in an identified location in a document
US9171224B2 (en) * 2013-07-04 2015-10-27 Qualcomm Incorporated Method of improving contrast for text extraction and recognition applications
US20150227787A1 (en) * 2014-02-12 2015-08-13 Bank Of America Corporation Photograph billpay tagging
CN104951741A (zh) * 2014-03-31 2015-09-30 阿里巴巴集团控股有限公司 一种文字识别方法及装置
US9798943B2 (en) * 2014-06-09 2017-10-24 I.R.I.S. Optical character recognition method
US9619702B2 (en) * 2014-08-29 2017-04-11 Ancestry.Com Operations Inc. System and method for transcribing handwritten records using word grouping with assigned centroids
CN105631450A (zh) * 2015-12-28 2016-06-01 小米科技有限责任公司 字符识别方法及装置
JP6531738B2 (ja) * 2016-08-08 2019-06-19 京セラドキュメントソリューションズ株式会社 画像処理装置
US10135999B2 (en) * 2016-10-18 2018-11-20 Conduent Business Services, Llc Method and system for digitization of document
CN106845478B (zh) * 2016-12-30 2019-09-10 同观科技(深圳)有限公司 一种字符置信度的二次车牌识别方法及装置
JP2018112839A (ja) * 2017-01-10 2018-07-19 富士通株式会社 画像処理プログラム、画像認識プログラム、画像処理装置、画像認識装置、画像認識方法、及び画像処理方法
US10885531B2 (en) * 2018-01-29 2021-01-05 Accenture Global Solutions Limited Artificial intelligence counterfeit detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040037470A1 (en) * 2002-08-23 2004-02-26 Simske Steven J. Systems and methods for processing text-based electronic documents
US20140212039A1 (en) * 2013-01-28 2014-07-31 International Business Machines Corporation Efficient Verification or Disambiguation of Character Recognition Results

Also Published As

Publication number Publication date
JP7038988B2 (ja) 2022-03-22
GB201803262D0 (en) 2018-04-11
BE1026039A1 (fr) 2019-09-18
US20190266447A1 (en) 2019-08-29
GB2571530A (en) 2019-09-04
GB2571530B (en) 2020-09-23
KR20200128089A (ko) 2020-11-11
US11170265B2 (en) 2021-11-09
KR102504635B1 (ko) 2023-02-27
JP2021502628A (ja) 2021-01-28
CN111630521A (zh) 2020-09-04
EP3759647A1 (fr) 2021-01-06
WO2019166301A1 (fr) 2019-09-06

Similar Documents

Publication Publication Date Title
BE1026039B1 (fr) Procede de traitement d'image et systeme de traitement d'image
CN111046784B (zh) 文档版面分析识别方法、装置、电子设备和存储介质
CN102982330B (zh) 文字图像中字符识别方法和识别装置
CN111353497B (zh) 一种身份证信息的识别方法和装置
US8947736B2 (en) Method for binarizing scanned document images containing gray or light colored text printed with halftone pattern
US9319556B2 (en) Method and apparatus for authenticating printed documents that contains both dark and halftone text
BE1022562A9 (fr) Procédé de reconnaissance optique de caractères
BE1025503B1 (fr) Procede de segmentation de ligne
BE1024194B1 (fr) Procédé d'indentification d'un caractère dans une image numérique
BE1026159B1 (fr) Système de traitement d’image et procede de traitement d’image
CN108734159B (zh) 一种图像中敏感信息的检测方法及系统
RU2581786C1 (ru) Определение преобразований изображения для повышения качества оптического распознавания символов
CN109189965A (zh) 图像文字检索方法及系统
US20130314755A1 (en) Image capture device for extracting textual information
CN110991303A (zh) 一种图像中文本定位方法、装置及电子设备
WO2013177240A1 (fr) Procédé d'extraction d'informations textuelles à l'aide d'images multiples
CN115147852A (zh) 一种古籍识别方法、装置、存储介质及设备
CN116563869B (zh) 页面图像文字处理方法、装置、终端设备和可读存储介质
KR102646428B1 (ko) 인공지능 학습 모델을 이용한 유사 글자 추출 방법 및 장치
US20210248402A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
Aljiffry et al. Arabic Historical Documents Layout Analysis using Mask RCNN
Yuadi et al. Evaluation for Optical Character Recognition of Mobile Application
Sharma et al. Script Identification for Devanagari and Gurumukhi using OCR
BE1020588A5 (fr) Procede de reconnaissance de formes, produit de programme d'ordinateur et terminal mobile.
CN115761777A (zh) 一种体检报告识别方法、装置和电子设备

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20191213