WO1991010208A1 - Systeme de reconnaissance d'un caractere grave sur un support - Google Patents

Systeme de reconnaissance d'un caractere grave sur un support Download PDF

Info

Publication number
WO1991010208A1
WO1991010208A1 PCT/FR1990/000950 FR9000950W WO9110208A1 WO 1991010208 A1 WO1991010208 A1 WO 1991010208A1 FR 9000950 W FR9000950 W FR 9000950W WO 9110208 A1 WO9110208 A1 WO 9110208A1
Authority
WO
WIPO (PCT)
Prior art keywords
segments
pixels
cameras
segment
type
Prior art date
Application number
PCT/FR1990/000950
Other languages
English (en)
Inventor
Pascal Adam
Jean-Pierre Guerin
Ghislain Hubert
Didier Juvin
Sheng Biao Tan
Original Assignee
Commissariat A L'energie Atomique
Institut De Recherches De La Siderurgie Française (Irsid)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat A L'energie Atomique, Institut De Recherches De La Siderurgie Française (Irsid) filed Critical Commissariat A L'energie Atomique
Publication of WO1991010208A1 publication Critical patent/WO1991010208A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the invention relates to a system for recognizing characters engraved on a support and, more particularly, a system for recognizing a character composed of segments aligned in two directions, engraved on a support Slightly quick challenge.
  • the system according to the invention is of the type of those in which a character is read by an input means, then processed before being recognized by comparison with character models contained in a library. It applies in particular in the steel industry for product recognition, which puts a challenge on a roller track and each carries an engraved alphanumeric code.
  • the character input means is a video camera.
  • Such an input means can be adapted to the input of fixed characters, but has disadvantages for the input of the defiant character under the camera.
  • the speed of recognition of a character depends on the input method used, but also and above all of the processing carried out on the image delivered by this capture means.
  • This method consists in using a Linear camera allowing to obtain an image of the engraved characters and to carry out an image processing to extract the left and right profiles of these characters.
  • profiles are defined as being a set formed by the left end of the first segment encountered on this line (for the left profile) and that of the right end of the last segment encountered on this line (for the right profile).
  • These profiles can be schematized by a series of line segments.
  • the left and right profiles, possibly segmented, are finally compared to profile models contained in a library, which completes Character recognition.
  • the depositor had the idea of marking the supports with characters composed of segments aligned in two directions and of using an image acquisition device different from those used up to 'Now, and more precisely to use a device comprising two sources of grazing lighting, oriented in two substantially perpendicular directions, a linear exploration camera being provided to capture the image illuminated by each source.
  • a more particular subject of the present invention is a system for recognizing engraved characters composed of segments aligned substantially in two directions on a support spanning relative to said system in one of these directions, said system comprising: a) means used to enter characters in:
  • the means for processing the signals obtained comprise: a) means making it possible to analyze the signals obtained by:
  • a first type of segment when one or more sampling lines comprises (s) a number, greater than one first threshold, of contiguous dark pixels and / or that the following line (s) comprises (s) a number greater than this threshold of contiguous illuminated pixels,
  • a second type of segment When several successive sampling lines comprise a number greater than a second threshold of contiguous pixels which are substantially lit in the same place on these lines; b) means making it possible to correlate the signals from the two cameras with their position on the support, taking into account the delay consecutive to the separation of the illuminated areas; c) means making it possible to recognize the characters from the detected segments and from a chosen font.
  • the subject of the invention is also a system which comprises means making it possible, in addition, to recognize the characters by:
  • the system includes an incremental encoder delivering a cali ⁇ bred pulse when the support moves by a step of determined length and a synchronization system associated with each camera making it possible to match a video line from this camera to each pulse of the incremental encoder.
  • the system means are capable of performing a preprocessing consisting of: detecting empty zones corresponding to several consecutive lines in which no segment of the first or second type has been detected, establish a table by type of segment containing the numbers of the non-empty lines, establish a table by type of segment containing the numbers of the pixels corresponding to a start of framing, establish a table by type of segment containing the pixel numbers corresponding to an end of illumination.
  • the correlation means make it possible to correlate the signals of the cameras with their position on the support by: synchronizing the video signals coming from the cameras on the pulses coming from the encoder, numbering the sampled lines coming from the cameras, locating the pixels lit and non-lit pixels, - memorizing the information collected, grouping together the information relating to the vertical segments and the horizontal segments in a single processing unit.
  • the detection of the segments of the first type consists in:
  • - constitute a set of tables by type of segment containing the numbers of the Lines and The numbers of the pixels where there are likely to be segments of the first type belonging to a potential character.
  • the sampling lines explored by the two cameras are transverse to the direction of travel and parallel to the other direction.
  • FIG. 1 represents the diagram of the system as a whole
  • FIG. 2 represents the succession of essential steps implemented by the system according to the invention
  • FIG. 3 represents a block diagram in the form of a functional block of the system according to the invention
  • FIG. 4 represents a diagram illustrating the detection of the segments of the first type (vertical)
  • FIG. 5 represents a diagram illustrating the detection of the segments of the second type (horizontal)
  • FIG. 6 represents a diagram illustrating the character characters
  • FIG. 7 represents a diagram illustrating the different localization cases for a segment of the first type (vertical),
  • FIG. 8 represents a diagram illustrating a position for locating a letter relative to a single vertical segment detected
  • FIG. 9 represents a diagram illustrating the mask representing defined zones
  • FIG. 10 represents a diagram representing a potential character in the form of a binary field
  • FIG. 11 shows a validation diagram of the video line pulses of the camera.
  • FIG. 1 shows the general diagram of the system according to the invention.
  • the direction of travel is arbitrarily qualified as being the horizontal direction and the other direction as being the vertical direction.
  • the system comprises a first set of elements constituted by mechanical parts.
  • One of the first pieces is made up of the SP medium to be checked from the automatic recognition of the characters engraved on it.
  • the engraved characters have segments oriented in two directions. According to the example described, these directions are orthogonal and one of these directions coincides with the direction of deflection of the support.
  • the first set also includes means for driving the support SP in defile.
  • These drive means comprise a motor M, a motor roller RM and carrier rollers RP, as can be seen in the figure.
  • the first set finally comprises an incremental encoder C delivering a calibrated pulse when the support moves by a determined length step and a presence detector of the support IFSP consisting of a contact closed by the arrival of the support SP.
  • the system also comprises a second set of elements intended for the acquisition of images and for the processing of these images in order to carry out a recognition in real time of the characters engraved on the support.
  • the support is in motion.
  • the drive means cause the support and therefore characters engraved thereon to scroll in front of the acquisition means.
  • the second set further comprises means providing lighting.
  • the lighting is a grazing lighting in the first and second directions.
  • these means consist of a source SV emitting a grazing light beam directed in the first direction qualified as vertical direction and another source SH emitting a grazing light beam directed in the second direction qualified as horizontal.
  • ALS supply means are provided for the sources.
  • the second set also includes two CAH, CAV linear array cameras with sampling. Each camera is arranged so that it can aim at the area illuminated by one of the sources and explore a line orthogonal to the direction of movement.
  • Each camera is connected to TH, TV processing means and to ALC supply means.
  • the processing means are connected by a conventional interconnection system I, to two display devices V1, V2, each being provided for the signal from a camera.
  • the TH and TV processing means are divided into two sub-assemblies.
  • a first subset emb The TV is intended to process signals from the camera targeting the segments of the first type qualified as vertical segments.
  • This subset Le is hereinafter called the vertical processing assembly.
  • a second subset TH is provided for processing the signals from the camera targeting the second type of segments which are termed horizontal segments.
  • This subset is subsequently called the horizontal processing set.
  • a dialogue is established between the two systems in order to match the information processed by the two TH and TV systems. Recognition is based on the analysis of this information.
  • the first step I consists in entering characters and that on the one hand by proceeding to the lighting of a first zone by one of the sources SV for example, and to the lighting of a second zone by the ⁇ be SH source for example and, on the other hand, to capture the video signals of the first zone by the CAH camera and the video signals of the second zone by the CAV camera taking into account the delay consecutive to the separation of the cameras and corresponding lit areas.
  • the second step II consists in analyzing the signals obtained by these cameras.
  • the analysis includes a procedure for detecting a first type of segment V and a procedure for detecting a second type of segment H, these two procedures being simultaneous.
  • a third step III consists in performing a correlation between the signals of the cameras and their position on the support while taking account of the delay consecutive to the separation of the two illuminated zones.
  • a fourth step IV consists in carrying out character recognition by comparison with a chosen font.
  • the input of the characters is obtained by the lighting of two zones 1 and 2 spaced from the support SP in challenge Lement, by the two sources SV and SH of grazing lighting.
  • Each light beam is directed substantially in the two orthogonal directions H and V.
  • video signals are obtained by the linear sampling cameras.
  • the signals correspond to sample lines made up of pixels.
  • the numbers of the pixels where a light / dark or light dark transition takes place are arranged in tables in order to know the illuminated pixels composing a line as well as the number of the corresponding line. Analysis of this information makes it possible to detect, for each camera, a particular type of segment.
  • the so-called vertical camera makes it possible to obtain the segments of the first type qualified as vertical
  • the so-called horizontal camera makes it possible to obtain the segments of the second type qualified as horizontal.
  • the vertical segments are detected when the following condition is met:
  • one or more sample lines comprises (s) a number greater than a preset threshold of dark contiguous pixels and / or one or more following lines comprises (s) a number greater than this threshold of contiguous lit pixels (in the application given is used, for example, only the pixels (La i res).
  • the horizontal segments are detected when the following condition is met, that is to say when several successive sampling lines have a number greater than a second threshold, of contiguous pixels ec La i res sens ib Lement at the same place on the line.
  • the correlation between the signals from the two cameras consists in: synchronizing the video signals coming from the cameras on the pulses coming from the encoder, - numbering the sampled lines coming from the cameras,
  • the recognition of the characters which consists in comparing these characters obtained by grouping of detected segments with characters of chosen font comprises the following steps: a first step consists in carrying out a rough localization by means of the detection of the segments vertical and a grouping of the segments likely to constitute a potential character of the chosen font, a second step consists in carrying out a fine localization by means of the detection of the horizontal segments; it is divided into a first half-step which consists in establishing a matrix mask made up of contiguous areas and a second half-step which consists in evaluating the number of pixels lit in each of the areas of the mask in relation to the positioning on the mask the vertical segment detected (we can refer to Figure 9),
  • a third step consists in comparing the potential character obtained in relation to the characters of the chosen font constituting a dictionary
  • a fourth step consists in identifying characters at the end of the comparison.
  • the recognition phase also includes a pre-processing step.
  • This step saves time and memory for processing, and this by detecting empty areas (consecutive lines in which no vertical segments have been detected).
  • the TH processing unit allows a dialogue with an outside operator (block B1) and performs the launch of acquisitions (block B2).
  • the launching of the acquisitions allows the triggering of the acquisitions at the level of the TV processing unit.
  • the card C1 then receives the signals from the CAH and CAV cameras as well as the order of launching of the acquisitions. This card also receives the information * of presence of the support of the IFSP sensor and the advance information of the support of the encoder C.
  • the logic and analog card C1 which is part of the horizontal processing sub-assembly TH makes it possible on the one hand, to amplify the video signals which it receives from the two cameras and, on the other hand, to synchronize the acquisitions of 'images with advance media.
  • This card is packaged by a central processing unit referenced CPU1 in FIG. 1.
  • This card also more precisely comprises a conventional convolver in itself intended to amplify the differences in brightness of the shaded areas and of the highly illuminated areas at the level horizontal segments and to be eliminated The continuous component of the signal.
  • the processing of the vertical video signal is also entrusted to this Logic card C1 which for this includes an amplifier which eliminates the DC component of this signal.
  • the card C1 also comprises two clock circuits which are programmed to generate two signals identical to the presence of the support, but delayed to take account of the distances between the presence sensor of the support and each camera.
  • Clock circuits are classic logic circuits made up of counters, AND / OR gates and integrated circuits placed on this Logic board C1.
  • a circuit per camera using these signals and the pulses coming from the incremental encoder, validates for each camera the first video signal which follows a pulse advancing from the support. There are thus as many lines acquired for each camera as there are encoder steps.
  • the logic board C2 belongs to the TH processing sub-assembly. It comprises a circuit which counts the pixels of the video signal H coming from the card C1. It also includes a circuit which compares the video signal with a threshold.
  • the result of this comparison corresponds to a transition to light or to dark.
  • the number of the pixel where this transition occurred is stored in a FIFO stack (first in / first out) with the indication of the nature of this transition to light or to dark. It also makes it possible to store each end of line in La pi the FIFO with an end of line indication.
  • the central processing unit CPU1 makes it possible to count the number of end of lines and thus locate the lines where these transitions took place.
  • the logic card C3 which belongs to the second TV sub-assembly is identical to the card C2 and allows the video signal to be stored in the same way.
  • the logic cards C2 and C3 are connected to the card C1 and respectively to the central processing unit CPU1 carrying out the processing of the horizontal signals and to the processing unit CPU2 carrying out the processing of the vertical signals.
  • the central processing unit CPU2 only performs vertical acquisitions (vertical segments) while the central processing unit CPU1 runs the logic board C1, performs horizontal acquisitions (horizontal segments), retrieves the values relating to the vertical tables and performs the recognition.
  • the acquisition of horizontal segments allows the development of horizontal tables (block B4) as well as the acquisition of vertical segments allows the development of vertical tables (block B5).
  • the TH processing sub-assembly which already has the horizontal tables receives the vertical tables from the TV sub-assembly (blocks B6 and B7), this TH sub-assembly then allows the analysis of the segments (block B8) and character recognition (block B9).
  • the card C1 sends the synchronizations Lines validated to the C2 (or C3) card which starts to operate:
  • the FIFO stack fills, the C2 (or C3) card then sends interrupt orders to the CPU1 (or CPU2) unit to allow it to Read the part. FIFO.
  • This phase consists in waiting for the processing unit CPU2 to finish, so that the two units CPU1 and CPU2 are synchronous so that the unit CPU2 transmits its vertical segment tables to the unit CPU1.
  • the CPU2 unit then waits for an operator command (dialogue) while the CPU1 unit continues to analyze the segments and recognize the characters.
  • the method of storing the illuminated zones takes place in the following manner: the unit CPU1 (or CPU2) receives an order from the operator to begin this storing.
  • the effective start only takes place when the start of the line passes in front of the camera. This unit allows you to store: in a table 1, the line number,
  • Tables 2 and 3 contain several numbers for the same Line if it contains several illuminated elementary segments.
  • By "elementary segment” we hear strings of contiguous illuminated pixels. In the case where a Line does not contain illuminated segments, this Line is not found in table 1.
  • Table 1 contains as many times the line number as there are elementary segments in this Line.
  • Figure 4 illustrates the formation of the image of the vertical segments while Figure 5 illustrates the formation of the image of the horizontal segments.
  • a segment results in a series of contiguous dark pixels on one or more exploration lines, followed by a series of contiguous pixels lit on one or more exploration lines . Others pixels are dimly lit by the light scattered by the surface of the object.
  • a segment results in a few dark pixels followed by a few lit pixels and this throughout the segmentation.
  • the other pixels are dimly lit by the light scattered by the surface of the object.
  • the reference S corresponds to non-illuminated pixels
  • the reference E corresponds to highly illuminated pixels
  • the reference L corresponds to The Illuminated Letter. Character recognition is based on a chosen font.
  • FIG. 6 gri lles listing all of the horizontal H and vertical V segments which may belong to the font of characters chosen.
  • a character is described in the form of a 14-bit binary field, each bit corresponding to the presence or not of a segment. Five types of horizontal segments are listed:
  • DICT dictionary (C a , C ⁇ * , C z , CQ,, Cç).
  • the identification of a character is carried out by a calculation of distance with respect to all the elements of the dictionary.
  • a first operation consists in performing a position correlation between the vertical and horizontal segments. It is divided into:
  • a first step consisting in carrying out a rough localization by means of the detection of the elementary vertical segments and a grouping of the segment capable of constituting a potential character of the chosen font
  • a second step consisting in performing a fine localization by means of the detection of the horizontal segments, which is itself divided into a first half-step which consists in applying a matrix mask made up of contiguous zones and in a second half-step which consists in evaluating the number of illuminated pixels in each of the zones of the mask (represented in FIG. 9) in relation to the positioning on this mask of the vertical segment detected,
  • a third step consisting in comparing the potential characters obtained in relation to the characters of the chosen font constituting the dictionary
  • a fourth step consisting in identifying the characters at the end of the comparison. From the table containing the lines having a vertical elementary segment, the pixels are grouped in order to obtain packets of one, two or three segments constituting a potential character, knowing that in a character The vertical segments are separated by ten or about twenty pixels, as can be seen in the diagram in Figure 7.
  • the horizontal segments are then used. Indeed, as can be seen in the diagram in Figure 9, we use a mask consisting of n x n zones, or in practice sixteen zones, which we center on the vertical segment. The presence of a horizontal transition in each of the zones is tested from this mask.
  • P3, P4 the total number of pixels validated in these subsets.
  • the position of the character is to the left of the vertical segment noted if P1, P2 are selected, in the center in the case of P2, P3 and to the right in the case of P3, P4.
  • the use of a mask on the potential character is systematically made in all the cases listed previously: (a), (a, b), (a, c) and (a, b, c) in order to validate or not the zones corresponding to horizontal segments. This allows the identification of the segments making up the character.
  • An area is only validated if the number of pixels detected is greater than a second predetermined and fixed threshold. At this stage again, a validated area could be called into question by the subsequent steps, rejection then depending on a second dynamic threshold depending on the context.
  • the potential character is now in the form of a 14-bit binary field corresponding to the validation or not of the zones making up the mask (cf. FIG. 10).
  • each character of the chosen font is described by a binary word Ca, Cb,, C0, C1,, C9 and the set of these words constitutes the library.
  • This dictionary presents great flexibility; several dictionaries can form a collection which can be used in the case of the choice of several fonts.
  • the final identification of a character is then carried out by a distance calculation for all the elements of the dictionary. This calculation corresponds schematically at the evaluation of the XOR "exclusive OR" function between Cj nc and Cj, Cj representing each word of the dictionary.
  • the distance is 0 if the representation of the unknown character corresponds exactly to that of a dictionary character; in this case, the identification is unequivocal.
  • the character is rejected if there is no candidate Cj having a distance equal to 1: if there is only one candidate, the latter is retained.
  • FIG. 11 is shown in order to illustrate the validation of the video line pulses of a camera and to better understand the synchronization between the cameras carried out from the rail advance pulses given by the encoder C.
  • CCD Charge transfer circuits
  • cameras must always receive a constant amount of light, this is why CCDs operate at frequency constant.
  • the maximum speed of the support is chosen by way of example equal to 2 m / s.
  • the encoder C emits a pulse every 0.4 mm to take account of the width of the engraved segments which is 1 mm. This corresponds to a minimum period of the coder C of 200 * s, the period of the CCDs having to be less than that of the coder.
  • the number of pixels p-j belonging to a vertical segment of a line i results from an addition and can be expressed by the following relation
  • n is The number of segments detected in line i
  • Xk i is the first pixel of a segment k, of a line i
  • the minimum m between the gradients and the minimum is determined. This minimum is detected to detect lines where there is a vertical segment belonging to a character.
  • a noisy area generally results in gradients G-j and almost zero, except on the edges where only one of the two values will be high.
  • the step ⁇ i considered will then be rejected by the threshold L lage.
  • the invention encompasses embodiments in which the linear cameras would be replaced by matri c i el Les cameras, the exploration being done there i nally.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

L'invention concerne un système de reconnaissance de caractères gravés composés de segments alignés selon deux directions perpendiculaires sur un support en défilement. Au moyen des caméras (CAV, CAH) du type CCD, associées à chacune des deux sources d'éclairage (SH, SV) permettant de faire ressortir les deux types de segment de chaque caractère gravé, le système recueille les signaux issus des deux caméras, procède à la détection des premier et deuxième types de segment, au moyen des signaux issus de chacune des caméras, puis par une localisation grossière effectuée avec l'un des types de segment, et une localisation plus fine au moyen de l'autre type de segment, et par comparaison ensuite avec une police de caractères choisie; le système effectue une identification du caractère détecté. Application à la reconnaissance de caractères gravés sur des supports pour l'identification et le contrôle de ces supports.

Description

SYSTEME DE RECONNAISSANCE D'UN CARACTERE GRAVE SUR UN SUPPORT
L'invention concerne un système de reconnais- sance de caractères gravés sur un support et, pLus pa rt i cuL i è rement, un système de reconnaissance d'un caractère composé de segments aLignés selon deux direc¬ tions, gravés sur un support à défi Lement rapide.
Le système seLon L'invention est du type de ceux dans Lequel un caractère est Lu par un moyen de saisie, puis traité avant d'être reconnu par compa¬ raison à des modèles de caractères contenus dans une bibliothèque. IL s'applique en particulier en sidérur¬ gie pour La reconnaissance de produits met a L Lu rgi ques défi lant sur un chemin à rouleaux et portant chacun un code alphanumérique gravé.
De nombreux procédés ont déjà été proposés pour reconnaître des caractères, et en particulier des caractères alphanumériques. Dans La plupart des procédés, le moyen de saisie du caractère est une caméra vidéo. Un tel moyen de saisie peut être adapté à La saisie des caractères fixes, mais présente des inconvénients pour La saisie du caractère défi lant sous La caméra. En effet, on constate sous éclairage continu un phénomène de traînée et de flou dû à la vitesse du produit défi lant, par ai lleurs i l faut alors sélec¬ tionner Les images délivrées par La caméra vidéo pour en trouver une qui contienne entièrement Le caractère.
Cette analyse préliminaire est coûteuse en temps et ne permet pas de faire de La reconnaissance de caractères en temps réel.
La rapidité de reconnaissance d'un caractère dépend du moyen de saisie utilisé, mais aussi et surtout du traitement effectué sur L'image délivrée par ce moyen de saisie.
De manière générale, dans Les systèmes de reconnaissance de L'art antérieur. Le traitement est effectué sur L'image complète, c'est-à-dire sur un signal bidimensionnel . Parmi les procédés de traite¬ ment connus, on peut citer La sque Lettisat ion d'un caractère ou Le suivi de contour du caractère. Ces procédés de traitement peuvent être utilisés indépen¬ damment ou peuvent être combinés.
Ces traitements exigent des temps de calcul élevés car ils s'appliquent à l'image complète, c'est- à-dire à un signal bidimensionneL . IL n'est donc pas- possible d'utiliser de tels traitements connus pour faire de la reconnaissance de caractères en temps réel sur des systèmes simples, des m croprocesseurs bas de gamme par exemple.
Une autre méthode connue est décrite dans La demande de brevet publiée sous le numéro 2 590 703 et permet d'effectuer une reconnaissance de caractères et notamment de caractères gravés sur un support en défi lement.
Cette méthode consiste à utiliser une caméra Linéaire permettant d'obtenir une image des caractères gravés et d'effectuer un traitement de l'image pour extraire les profils gauche et droit de ces caractères.
Ces profils sont définis comme étant un ensemble constitué par l'extrémité gauche du premier segment rencontré sur cette ligne (pour le profil gauche) et celui de l'extrémité droite du dernier seg¬ ment rencontré sur cette ligne (pour Le profil droit). Ces profils peuvent être schématisés par une suite de segments de droite. Les profils gauche et droit, éventuellement segmentés, sont enfin comparés à des modèles de profils contenus dans une bibliothèque, ce qui achève La reconnaissance du caractère.
Cependant, l'ensemble de ces méthodes connues ne sont pas entièrement satisfaisantes Lorsqu'i l s'agit de Lire et de reconnaître des caractères gravés sur un support en défi lement rapide. Elles Le sont d'autant moins dans Le cas où la vitesse de défi lement n'est pas constante.
A La suite de travaux d'étude importants le déposant a eu l 'idée de marquer les supports à L'aide de caractères composés de segments alignés selon deux directions et d'employer un dispositif d'acquisition d'images différent de ceux employés jusqu'à présent, et plus précisément d'uti liser un dispositif comportant deux sources d'éclairage rasant, orientées selon deux directions sensiblement perpendiculaires, une caméra à exploration linéaire étant prévue pour saisir l'image éclairée par chaque source.
Le système selon l'invention repose sur ces nouvelles conceptions. La présente invention a plus particulièrement pour objet un système de reconnaissance de caractères gravés composés de segments alignés sensiblement selon deux directions sur un support en défi lement relatif par rapport audit système selon l'une de ces directions, ledit système comportant : a) des moyens permettant de saisir les caractères en :
- éclairant deux zones du support en défi le¬ ment par deux sources espacées d'éclairage émettant un faisceau lumineux, chacun dirigé selon L'une de ces directions, recueillant des signaux vidéo issus de deux caméras à échanti llonnage à exploration li¬ néaire, l'une de ces caméras visant une" zone éclairée, l'autre visant L'autre zone éclairée, ces signaux correspondant à des Lignes d'échantillonnage constituées de pixels, explorées par les deux caméras, ces Lignes étant transversales à la direction de défilement ; b) des moyens permettant de traiter Les signaux obtenus. De préférence, les moyens de traitement des signaux obtenus comportent : a) des moyens permettant d'analyser les signaux obtenus en :
- détectant à partir des signaux vidéo issus d'une première caméra associée à L'éclairage dans la direction du défilement, un premier type de segment lorsqu'une ou plusieurs Lignes d'échan¬ tillonnage comporte(nt) un nombre, supérieur à un premier seui l, de pixels contigus sombres et/ou que La ou Les lignes suivantes comporte(nt) un nombre supérieur à ce seuil de pixels contigus éclairés,
- détectant à partir des signaux issus de la deuxième caméra associée à l'éclairage dans L'autre direction, un deuxième type de segment Lorsque pLusieurs Lignes d'échantillonnage succes¬ sives comportent un nombre supérieur à un deuxième seui l de pixels contigus éclairés sensiblement au même endroit sur ces lignes ; b) des moyens permettant de corréler les signaux issus des deux caméras avec leur position sur le support en tenant compte du retard consécutif à l'écartement des zones éclairées ; c) des moyens permettant de reconnaître Les caractères à partir des segments détectés et d'une police de caractères choisie.
L'invention a également pour objet un système qui comporte des moyens permettant, en outre, de recon¬ naître Les caractères en :
- effectuant une localisation grossière au moyen de La détection du premier type de segment et un regroupement des segments susceptibles de cons¬ tituer un caractère potentiel de la police de carac¬ tères choisie,
- réalisant une localisation fine au moyen de La détection du deuxième type de segment , grâce à L'établissement d'un masque matriciel constitué de zones jointives et L'évaluation du nombre de pixels éclairés dans chacune des zones du masque par rapport au positionnement sur le masque des segments détectés, " comparant le caractère potentiel obtenu par rapport au caractère de la police choisie consti¬ tuant Le dictionnaire,
- identifiant le caractère en fonction des résultats de comparaison. Dans le but d'assurer une reconnaissance à vitesse de défi lement variable, le système comporte un codeur incrémental délivrant une impulsion cali¬ brée lorsque le support se déplace d'un pas de Longueur déterminée et un système de synchronisation associé à chaque caméra permettant de faire correspondre à chaque impulsion du codeur incrémental une ligne vidéo de cette caméra.
Dans le but de permettre un gain de temps et de mémoire notable, les moyens du système sont aptes à effectuer un pré-traitement consistant à : détecter des zones vides correspondant à plusieurs lignes consécutives dans lesquelles aucun segment du premier ou du deuxième type n'a été détecté, établir une table par type de segment contenant les numéros des lignes non vides, établir une table par type de segment contenant les numéros des pixels correspondant à un début d ' éc Lai rement, établir une table par type de segment contenant les numéros des pixels correspondant à une fin d'éclai rement . Selon l'invention, Les moyens de corrélation permettent de corréler Les s gnaux des caméras avec leur position sur Le support en : synchronisant Les signaux vidéo venant des caméras sur Les impulsions venant du codeur, numérotant les lignes échantillonnées venant des caméras, localisant les pixels éclairés et Les pixels non éclairés, - mémorisant les informations recueillies, regroupant les informations relatives aux segments verticaux et aux segments horizontaux dans un seul organe de traitement.
Selon un mode de réalisation, La détection des segments du premier type consiste à :
- compter Le nombre de pixels pour chaque Ligne, caLculer le gradient G-j entre une ligne i et i+ 5i et le gradient G'-j entre une ligne i et i- Si,
- seui ller le minimum de ces deux gradients,
- constituer un ensemble de tables par type de segment contenant les numéros des Lignes et Les numéros des pixels où sont susceptibles de se trouver des segments du premier type appartenant à un caractère potenti el .
Selon une autre caractéristique de L'invention, Les lignes d'échantillonnage explorées par Les deux caméras sont transversales à La direction de défilement et parallèles à l'autre direction.
D'autres caractéristiques et avantages de l'invention ressortiront mieux de la description qui va suivre, donnée à titre illustrâtif et non Limitatif et en regard des figures annexées dans lesquelles : - la figure 1 représente le schéma du système dans son ensemble,
- La figure 2 représente La succession des étapes essentielles mises en oeuvre par Le système selon l ' i nvent ion,
- la figure 3 représente un synoptique sous forme de bloc fonctionnel du système selon l'invention,
- la figure 4 représente un schéma i llustrant la détec¬ tion des segments du premier type (verticaux), " La figure 5 représente un schéma i llustrant la détec¬ tion des segments du deuxième type (horizontaux),
- la figure 6 représente un schéma i llustrant les gri lles de caractères,
- la figure 7 représente un schéma i llustrant les diffé- rents cas de localisation pour un segment du premier type (vertical),
- la figure 8 représente un schéma i llustrant une pos¬ sibi lité de localisation d'une Lettre par rapport à un seul segment vertical détecté, - la figure 9 représente un schéma i llustrant le masque représentant des zones définies,
- la figure 10 représente un schéma représentant un caractère potentiel sous La forme d'un champ binaire,
- La figure 11 représente un schéma de validation des impulsions lignes vidéo de la caméra.
On a représenté sur la figure 1 le schéma général du système conforme à l'invention. Sur ce schéma on a qualifié d'une façon arbitraire la direction de défilement comme étant la direction horizontale et L'autre direction comme étant la direction verticale.
De façon plus précise le système comprend un premier ensemble d'éléments constitués par des pièces mécaniques. L'une des premières pièces est constituée par Le support SP à contrôler à partir de La reconnais- sance automatique des caractères qui y sont gravés. Les caractères gravés comportent des segments orientés selon deux directions. Selon l'exemple décrit, ces directions sont orthogonales et l'une de ces directions coïncide avec La direction de défi lement du support.
Le premier ensemble comporte en outre des moyens permettant d'entraîner Le support SP en défile¬ ment. Ces moyens d'entraînement comportent un moteur M, un rouleau moteur RM et des rouleaux porteurs RP, comme on peut le voir sur la figure.
Le premier ensemble comporte enfin un codeur incrémental C délivrant une impulsion calibrée lorsque le support se déplace d'un pas de Longueur déterminé et un détecteur de présence du support IFSP constitué d'un contact fermé par l'arrivée du support SP.
Le système comprend également un deuxième ensemble d'éléments destiné à L'acquisition d'images et au traitement de ces images afin d'effectuer une reconnaissance en temps réel des caractères gravés sur le support. Lors de cette opération, le support est en mouvement. Les moyens d'entraînement provoquent un défilement du support et donc des caractères gravés sur celui-ci devant Les moyens d'acquisition.
Le deuxième ensemble comprend en outre des moyens fournissant un éclairage. Selon le mode de réalisation décrit, l'éclairage est un éclairage rasant selon les première et deuxième directions.
Plus précisément, ces moyens sont constitués d'une source SV émettant un faisceau Lumineux rasant dirigé selon la première direction qualifiée de direc¬ tion verticale et d'une autre source SH émettant un faisceau lumineux rasant dirigé selon La deuxième direc¬ tion qualifiée d'horizontale. Des moyens d'alimentation ALS sont prévus pour Les sources. Le deuxième ensemble comporte également deux caméras CAH, CAV à réseau linéaire à échanti llon¬ nage. Chaque caméra est disposée de sorte qu'elle puisse viser la zone éclairée par l'une des sources et explorer une ligne orthogonale à la direction de défi lement .
Chaque caméra est reliée à des moyens de traitement TH, TV et à des moyens d'alimentation ALC.
Les moyens de traitement sont reliés par un système d'interconnexion I classique, à deux disposi¬ tifs de visualisation V1, V2, chacun étant prévu pour Le signal issu d'une caméra.
Les moyens de traitement TH et TV sont divi¬ sés en deux sous-ensemb Les. Un premier sous-ens emb Le TV est prévu pour traiter des signaux issus de La caméra visant les seg¬ ments du premier type qualifiés de segments verticaux. Ce sous-ensemb Le est par la suite appelé ensemble de traitement vertical. Un deuxième sous-ensemble TH est prévu pour traiter Les signaux issus de la caméra visant les seg¬ ments de deuxième type que L'on qualifie de segments horizontaux.
Ce sous-ensemble est par la suite appelé ensemble de traitement horizontal.
Ces sous-ensembles sont détai llés plus loin dans la description.
Un dialogue s'établit entre Les deux systèmes afin de mettre en correspondance Les informations trai- tées par Les deux systèmes TH et TV . La reconnaissance s'effectue à partir de l'analyse de ces informations.
Les étapes essentielles de mise en oeuvre par le système vont être maintenant énoncées en regard de La figure 2 sur Laquelle elles apparaissent sous forme de blocs successifs tel un organigramme. La première étape I consiste à saisir des caractères et cela d'une part en procédant aux éclaira¬ ges d'une première zone par l'une des sources SV par exemple, et à l'éclairage d'une deuxième zone par l'au¬ tre source SH par exemple et, d'autre part, à capter Les signaux vidéo de la première zone par la caméra CAH et les signaux vidéo de La deuxième zone par La caméra CAV en tenant compte du retard consécutif à L'écartement des caméras et des zones éclairées corres¬ pondantes .
La deuxième étape II consiste à analyser les signaux obtenus par ces caméras. L'analyse comporte une procédure de détection d'un premier type de segment V et une procédure de détection d'un deuxième type de segment H, ces deux procédures étant simultanées.
Une troisième étape III consiste à effectuer une corrélation entre Les signaux des caméras et Leur position sur Le support tout en tenant compte du retard consécutif à L'écartement des deux zones éclairées.
Une quatrième étape IV consiste à effectuer une reconnaissance des caractères par comparaison avec une police de caractères choisie.
De manière plus précise, La saisie des carac¬ tères s'obtient par L'éclairage de deux zones 1 et 2 espacées du support SP en défi Lement, par les deux sources SV et SH d'éclairage rasant. Chaque faisceau Lumineux est dirigé sensiblement selon les deux direc¬ tions orthogonales H et V.
Lorsque Les caractères gravés se trouvent dans Le champ des deux sources, des signaux vidéo sont obtenus par les caméras linéaires à échantillonnage. Les signaux correspondent à des lignes d'échanti llonnage constituées de pixels. Les numéros des pixels où a lieu une transi¬ tion lumière/obscurité ou obscurité lumière sont rangés dans des tables afin de connaître les pixels éclairés composant une ligne ainsi que le numéro de La ligne correspondante. L'analyse de ces informations permet de détecter, pour chaque caméra, un type de segment particulier. Ainsi La caméra dite verticale permet d'obtenir les segments de premier type qualifiés de verticaux et la caméra dite horizontale permet d'obtenir les segments du deuxième type qualifiés d'horizontaux.
La détection des segments verticaux a lieu lorsque la condition suivante est réalisée :
- une ou plusieurs lignes d'échanti llonnage comporte(nt) un nombre supérieur à un seui l préétabli de pixels contigus sombres et/ou une ou plusieurs lignes suivantes comporte(nt) un nombre supérieur à ce seui l de pixels contigus éclairés (dans l'application qui est donnée on n'uti lise, à titre d'exemple, que les pixels éc La i rés) . La détection des segments horizontaux a lieu lorsque la cond tion suivante est réalisée, c'est-à-dire lorsque plusieurs lignes d'échanti llonnage successives comportent un nombre supérieur à un deuxième seui l, de pixels contigus éc La i rés sens i b Lement au même endroit de la ligne.
La corrélation entre les signaux issus des deux caméras consiste à : synchroniser Les signaux vidéo venant des caméras sur les impulsions venant du codeur, - numéroter les lignes échanti llonnées venant des caméras,
- localiser les pixels éclairés et les pixels non éclairés,
- mémoriser Les informations recuei llies, - regrouper Les informations relatives aux segments verticaux et aux segments horizontaux dans un seul organe de traitement.
De manière plus précise, la reconnaissance des caractères qui consiste à comparer ces caractères obtenus par regroupement de segments détectés à des caractères de police choisie comporte Les étapes suivan¬ tes : une première étape consiste à effectuer une localisation grossière au moyen de la détection des segments verticaux et un regroupement des segments susceptibles de constituer un caractère potentiel de la police de caractères choisie, une deuxième étape consiste à effectuer une localisation fine au moyen de La détection des segments horizontaux ; elle se divise en une première demi-étape qui consiste à établir un masque matriciel constitué de zones jointives et une deuxième demi-étape qui consiste à évaluer le nombre de pixels éclairés dans chacune des zones du masque par rapport au posi- tionnement sur Le masque du segment vertical détecté (on peut se référer à la figure 9),
- une troisième étape consiste à comparer Le caractère potentiel obtenu par rapport aux caractères de la police choisie constituant un dictionnaire, - une quatrième étape consiste à identifier des caractères à l'issue de La comparaison.
La phase de reconnaissance comporte en outre une étape de pré-traitement.
Cette étape permet d'obtenir un gain de temps et de mémoire pour Le traitement et cela en procé¬ dant à la détection de zones vides (Lignes consécutives dans lesquelles on n'a pas relevé de segments verti¬ caux) .
Après une description détai llée des étapes essentielles de mise en oeuvre par Le système, une description des différentes fonctions réalisées par les éléments constituant le système est faite en regard du synoptique représenté sur la figure 3.
L'ensemble de traitement TH permet un dialo¬ gue avec un opérateur extérieur (bloc B1) et réalise Le lancement des acquisitions (bloc B2).
Le lancement des acquisitions permet le déclenchement des acquisitions au niveau de L'ensemble de traitement TV, La carte C1 reçoit alors Les signaux issus des caméras CAH et CAV ainsi que l'ordre de Lance¬ ment des acquisitions. Cette carte reçoit également l' nformation* de présence du support du capteur IFSP et l'information d'avance du support du codeur C.
La carte logique et analogique C1 qui fait partie du sous-ensemble de traitement horizontal TH permet d'une part, d'amplifier Les signaux vidéo qu'elle reçoit des deux caméras et, d'autre part, de synchro¬ niser les acquisitions d'images avec l'avance du support. Cette carte est pi lotée par une unité centrale de traitement référencée CPU1 sur la figure 1. Cette carte comporte aussi de façon plus précise un convolueur classique en soi destiné à amplifier Les différences de luminosité des zones d'ombre et des zones fortement éclairées au niveau des segments horizontaux et à élimi¬ ner La composante continue du signal.
Le traitement du signal vidéo vertical est confié également à cette carte Logique C1 qui comporte pour cela un amplificateur qui élimine la composante continue de ce signal.
La carte C1 comporte en outre deux circuits d'horloge qui sont programmés pour générer deux signaux identiques à la présence du support, mais retardés pour tenir compte des distances entre le capteur de présence du support et chaque caméra. Les circuits d'horloge sont des circuits logiques classiques constitués de compteurs, de portes ET/OU et de circuits intégrés placés sur cette carte Logique C1. Un circuit par caméra, uti lisant ces signaux et les impulsions provenant du codeur incrémental, valide pour chaque caméra le premier signal vidéo qui suit une impulsion avance du support. Il y a ainsi autant de lignes acquises pour chaque caméra que de pas codeurs. La carte logique C2 appartient au sous- ensemble de traitement TH. Elle comporte un circuit qui compte les pixels du signal vidéo H provenant de la carte C1. Elle comporte aussi un circuit qui compare le signal vidéo avec un seui l. Le résultat de cette comparaison correspond à une transition vers la lumière ou vers l'obscurité. Le numéro du pixel où s'est produit cette transition est mémorisé dans une pile FIFO (first in/first out) avec l'indication de la nature de cette transition vers La lumière ou vers l'obscurité. Elle permet également de mémoriser chaque fin de ligne dans La pi le FIFO avec une indication fin de ligne.
L'unité centrale de traitement CPU1 permet d'effectuer un comptage du nombre de fin de ligne et de Localiser ainsi Les Lignes où ont eu lieu ces transitions.
La carte logique C3 qui appartient au deu¬ xième sous-ensemble TV est identique à la carte C2 et permet de La même manière la mise en mémoire du signal vidéo. Les cartes logiques C2 et C3 sont reliées à la carte C1 et respectivement à L'unité centrale de traitement CPU1 effectuant le traitement des signaux horizontaux et à L'unité de traitement CPU2 effectuant le traitement des signaux verticaux. L'unité centrale de traitement CPU2 n'effec¬ tue que Les acquisitions verticales (segments verticaux) alors que l'unité centrale de traitement CPU1 pi lote la carte logique C1, effectue les acquisitions horizon- taies (segments horizontaux), récupère les valeurs afférentes aux tables verticales et effectue la recon¬ naissance.
L'acquisition des segments horizontaux permet l'élaboration de tables horizontales (bloc B4) de même que l'acquisition de segments verticaux permet l'élaboration de tables verticales (bloc B5) . Le sous-ensemble de traitement TH qui possède déjà les tables horizontales reçoit du sous-ensemble TV les tables verticales (blocs B6 et B7), ce sous-ensemble TH permet ensuite l'analyse des segments (bloc B8) et une reconnaissance des caractères (bloc B9) .
Des détai ls sur Le fonctionnement des acqui¬ sitions et des retards entre la détection du début du support et la caméra, et entre La détection de la "fin du support et la caméra sont donnés dans ce qui suit : le dialogue avec l'opérateur et le CPU1 permet d'entrer les distances en nombre de pas codeurs de La position du détecteur du support (IFSP) à chaque caméra.
Le nombre de pas est pratiquement la distance en mi llimètre divisée par le pas codeur (NH = DH/0,4 et NV = DV/0,4). Ces nombres, au début de l'ordre d'acquisition donné par l'opérateur, sont rentrés dans deux ensembles de deux compteurs situés dans La carte Logique C1 constituant Les circuits d'horloge évoqués plus haut (page 13 , ligne l ). On ne va décrire qu'un seul ensemble. Le deuxième fonctionnant de La même façon mais avec un nombre différent. Le moteur est mis en marche et fait avancer le rail. Lorsque le rai l se présente devant Le capteur IFSP une impulsion commence. Elle dure jusqu'à la fin du rail. A ce moment Le premier compteur est décrémen¬ té par chaque impulsion venant du codeur C. Lorsqu'i l arrive à zéro cela signifie que La caméra voit passer le début du rai l, alors la carte C1 envoie les synchro¬ nisations Lignes validées à la carte C2 (ou C3) qui se met à fonctionner : La pile FIFO se remplit, la carte C2 (ou C3) envoie alors des ordre d'interruption à l'unité CPU1 (ou CPU2) pour Lui permettre de Lire la pi le FIFO.
Quand la fin du rai l passe devant Le capteur IFSP l'impulsion correspondante se termine et cela provoque La décrémentation du deuxième compteur par chaque impulsion venant du codeur C. Lorsque ce compteur arrive à zéro, cela veut dire que la caméra voit passer La fin du rai l. Alors la carte C1 n'envoie plus les synchronisations des Lignes validées à la carte C2 (ou C3) et positionne un registre indiquant que le rai l est terminé. L'unité de traitement CPU1 teste périodiquement ce registre qui Lui indique La fin du rail. Quand ce registre est positionné, comme indiqué ci-dessus. L'unité CPU1 continue si nécessaire à vider La pi le FIFO, puis entame La phase de traitement sui vant .
Cette phase consiste à attendre que l'unité de traitement CPU2 ait terminé, de manière à ce que Les deux unités CPU1 et CPU2 soient synchrones pour que l'unité CPU2 transmette ses tables de segments verticaux à L'unité CPU1. L'unité CPU2 attend alors un ordre opérateur (dialogue) alors que l'unité CPU1 poursuit l'analyse des segments et la reconnaissance des caractères. La méthode de mise en mémoire des zones éclairées se déroule de la manière suivante : l'unité CPU1 (ou CPU2) reçoit un ordre de L'opérateur pour débuter cette mise en mémoire. Le début effectif n'a lieu que lorsque le début du rai l passe devant la caméra. Cette unité permet de ranger : dans une table 1, le numéro de ligne,
- dans une tabLe 2, le numéro des premiers pixels éclairés dans la Ligne de chaque segment élémen- taire,
- dans une table 3, Le numéro des derniers pixels éclairés de chaque segment élémentaire dans la ligne (Les tables 2 et 3 contiennent plusieurs nu¬ méros pour une même Ligne si elle contient plusieurs segments élémentaires éclairés. Par "segment élémen¬ taire" on entend des suites de pixels contigus éclairés. Dans Le cas où une Ligne ne contient pas de segments éclairés, cette Ligne ne se trouve pas dans la table 1. La table 1 contient autant de fois Le numéro de ligne qu'i l y a de segments élémentaires dans cette Ligne.
On va maintenant décrire l'étape de recon¬ naissance à proprement parler, mais i l est préférable tout d'abord de se reporter aux figures 4 et 5 afin de mieux comprendre la formation de l'image des segments verticaux et horizontaux.
En effet, la figure 4 i llustre La formation de l'image des segments verticaux alors que La figure 5 i llustre la formation de L'image des segments hori zontaux .
Sur La caméra CAV captant les segments verti¬ caux, un segment se traduit par une suite de pixels contigus sombres sur une ou plusieurs Lignes d'explo¬ ration, suivie d'une suite de pixels contigus éclairés sur une ou plusieurs lignes d'exploration. Les autres pixels sont faiblement écLairés par La Lumière diffusée par La surface de l'objet.
Sur la caméra CAH captant Les segments hori¬ zontaux, un segment se traduit par quelques pixels sombres suivis de quelques pixels écLairés et ceci durant tout Le défi lement du segment. Les autres pixels sont faiblement éclairés par La Lumière diffusée par La surface de L'objet.
C'est ce mode d'éclairage, associé à ce mode d'exploration linéaire, paral Le Lement à la direction des segments verticaux, qui constitue La caractéristique fondamentale de l'invention.
Sur Les figures 4 et 5 la référence S correspond à des pixels non écLairés, la référence E correspond à des pixels fortement écLairés. La réfé¬ rence L correspond à La Lettre éclairée. La reconnais¬ sance des caractères se fait à partir d'une police choi s i e.
On a représenté sur la figure 6 des gri lles répertoriant L'ensemble des segments horizontaux H et verticaux V pouvant appartenir à La police de carac¬ tères choisie.
Un caractère est décrit sous la forme d'un champ binaire de 14 bits, chaque bit correspondant à la présence ou non d'un segment. Cinq types de seg¬ ments horizontaux sont répertoriés :
H1*, H1, H2, H3, H4.
Neuf types de segments verticaux sont réper¬ toriés : VG1, VG2, VG3, VM1, VM2, VM3, VD1, VD2, VD3 Un caractère sera décrit par un mot C-jnc=b1, b2, b3, ,b14. De la même façon, chaque caractère de police choisie se présente sous la même forme dans un dictionnaire DICT=(Ca, C ^* , Cz, CQ, , Cç) . Comme cela va être décrit, L'identification d'un caractère est réalisée par un calcul de distance par rapport à tous les éléments du dictionnaire.
On compare Les caractères obtenus par regrou¬ pement des segments détectés aux caractères de La police choisie, cela de la manière suivante : une première opération consiste à effectuer une corrélation de position entre les segments verticaux et horizontaux. Elle se divise en :
- une première étape consistant à effectuer une localisation grossière au moyen de La détection des segments élémentaires verticaux et un regroupement du segment susceptible de constituer un caractère potentiel de la police de caractères choisie,
- une deuxième étape consistant à effectuer une localisation fine au moyen de La détection des segments horizontaux, qui se divise elle-même en une première demi-étape qui consiste à appliquer un masque matriciel constitué de zones jointives et en une deuxième demi-étape qui consiste à évaluer le nombre de pixels écLairés dans chacune des zones du masque (représentées à la figure 9) par rapport au positionnement sur ce masque du segment vertical détecté,
- une troisième étape consistant à comparer Les caractères potentiels obtenus par rapport aux caractères de police choisie constituant le diction- nai re, une quatrième étape consistant à identifier les caractères à l'issue de la comparaison. A partir de la table contenant les lignes possédant un segment élémentaire vertical, on effectue un regroupement des pixels afin d'obtenir des paquets de un, deux ou trois segments constituant un caractère potentiel, sachant que dans un caractère Les segments verticaux sont séparés de dix ou de vingt pixels environ, comme on peut Le voir sur Le schéma de la figure 7.
On obtient ainsi quatre types de possibili- tés. Les paquets (a), (a,b), (a,c) et (a,b,c).
Seuls les paquets (a,c) et (a,b,c) permettent une Localisation précise du caractère.
En revanche. Les paquets (a) et (a,b) lais¬ sent respectivement trois et deux possibilités de Loca- lisation, comme on peut Le voir sur la figure 8, cas (a).
Afin d'obtenir un positionnement correct du caractère par rapport à un unique segment vertical détecté, on utilise ensuite Les segments horizontaux. En effet, comme on peut Le voir sur le schéma de la figure 9, on utilise un masque constitué de n x n zones, soit en pratique seize zones, que l'on centre sur le segment vertical. On teste à partir de ce masque la présence de transition horizontale dans chacune des zones.
Les ensembles des zones (Z1, Z5, Z9, Z13),
(Z2, Z6, Z10, Z14), (Z3, Z7, Z11, Z15) et (Z4, Z8,
Z12, Z16) sont analysés globalement. On nomme P1 , P2,
P3, P4 le nombre total de pixels validés dans ces sous- ensembles.
On retient les deux sous-ensemb Les voisins ayant Le plus grand nombre de pixels.
La position du caractère est à gauche du segment vertical relevé si P1 , P2 sont retenus, au centre dans le cas de P2, P3 et à droite dans Le cas de P3, P4. L'utilisation d'un masque sur le caractère potentiel est faite systématiquement dans tous Les cas de figures répertoriés précédemment : (a), (a,b), (a,c) et (a, b, c) afin de valider ou non les zones correspondant à des segments horizontaux. Ceci permet l'identification des segments composant Le caractère.
A ce stade de la localisation, on possède toutes les informations nécessaires à L'analyse.
Cependant, si lors de la détection dans Les zones du masque L'on s'aperçoit d'une anomalie flagrante, alors le caractère potentiel est rejeté.
Une zone n'est validée que si Le nombre de pixels relevés est supérieur à un deuxième seui l prédéterminé et figé. A ce stade encore, une zone vali¬ dée pourra être remise en cause par Les étapes ultérieu¬ res, Le rejet dépendant alors d'un deuxième seui l dynamique fonction du contexte.
Ainsi, Le caractère potentiel est à présent sous la forme d'un champ binaire de 14 bits correspon¬ dant à la validation ou non des zones composant Le masque (cf. Fig. 10).
Comme cela a déjà été mentionné, on appelle
nc=b1, b3, b14, La représentation binaire du caractère inconnu.
De La même façon, chaque caractère de La police choisie est décrit par un mot binaire Ca, Cb, , C0, C1, , C9 et L'ensemble de ces mots constitue La bibliothèque.
Ce dictionnaire présente une grande souples¬ se ; plusieurs dictionnaires peuvent former une collec¬ tion utilisable dans le cas du choix de plusieurs polices de caractères.
L'identification finale d'un caractère est ensuite réalisée par un calcul de distance pour tous Les éléments du dictionnaire. Ce calcul correspond schématiquement à L'évaluation de la fonction XOR "OU exclusif" entre C-jnc et Cj, Cj représentant chaque mot du dictionnaire.
La distance vaut 0 si La représentation du caractère inconnu correspond exactement à ce.lle d'un caractère du dictionnaire ; dans ce cas, l'identi¬ fication est sans équivoque.
Dans le cas contraire, L'on rejette Le caractère s'i l n'y a aucun candidat Cj ayant une distance égale à 1 : s'i l n'existe qu'un seul candidat, celui-ci est retenu. L'on retient ensuite le candidat de la bibliothèque, s'i l existe et s'i l est unique, qui possède un segment n'existant pas chez le caractère inconnu car l'on peut accepter qu'un segment gravé ne soit pas correctement détecté.
A ce stade, i l est encore possible de revenir en arrière, car s'i l manque un segment au caractère inconnu pour valider une identification, l'on balaye La zone du masque concerné en abaissant Le seui L de validation.
Une autre possibi lité consiste à pondérer Le calcul de La fonction XOR en affectant des poids plus ou moins importants aux différentes zones en fonc¬ tion de Leur importance (longueur) . On a représenté la figure 11 afin d'i llustrer la validation des impulsions lignes vidéo d'une caméra et de mieux comprendre la synchronisation entre les caméras réalisée à partir des impulsions d'avance du rail données par le codeur C. Pour obtenir une reconnaissance de caractère à vitesse de défilement variable, Les circuits à transfert de charge (CCD, Charge coupled device en terminologie ang Losaxonne) , des caméras doivent toujours recuei llir une quantité de lumière constante, c'est pourquoi le fonctionnement des CCD se fait à fréquence constante . La vitesse maximale du support est choisie à titre d'exemple égaLe à 2m/s. Le codeur C émet une impulsion chaque 0,4 mm pour tenir compte de La Largeur des segments gravés qui est de 1 mm. Cela correspond à une période minimale du codeur C de 200 *s, La période des CCD devant être inférieure à celle du codeur.
D'autre part on va préciser dans ce qui suit, à titre d'exemple, comment se déroule La détection de segments verticaux :
Le nombre de pixels p-j appartenant à un segment vertical d'une ligne i résulte d'une addition et peut s'exprimer par la relation suivante
d .
Pi= k=1 (xki " xkι
n est Le nombre de segments détectés dans la ligne i,
Xk i est le premier pixel d'un segment k, d'une ligne i , et
f Xki est le dernier pixel de ce segment.
Ces valeurs sont données directement par La carte Logique C3 et stockées Lors de la phase d'ac¬ quisition.
On calcule ensuite le gradient G-j pour une zone i+ δi, et le gradient G ' -j pour une zone i- δi . Le calcul des gradients se fait en pratique sur deux lignes de part et d'autre de La ligne i. G-j est calculé à partir de la relation sui - vante
+ Pi+1 - P
Si = i+1+δι
et G par la relation
Figure imgf000026_0001
On détermine le minimum m entre les gradients et L'on seuille ce minimum pour détecter des lignes où se trouve un segment vertical appartenant à un carac¬ tère.
En effet, une zone bruitée se traduit généra¬ lement par des gradients G-j et quasi-nuls, sauf sur les bords où L'une seulement des deux valeurs sera élevée. Le pas δi considéré sera alors rejeté par le seui L lage.
De même, La présence des segments horizontaux dans les tables de segments verticaux sera rejetée (les segments horizontaux se présentent sous la forme de suites de petites transitions sur un grand nombre de lignes). C'est donc à l'issue de cette phase, que l'on obtient La table contenant les numéros de lignes où peuvent se trouver les segments verticaux appartenant à un caractère potentiel.
La description précédente a été faite à titre explicatif et nullement limitatif. On ne sortirait pas du cadre de L'invention en utilisant deux types de segment non orthogonaux, et même dans le cas où l'orientation du deuxième type de segment ne coïncide¬ rait pas avec la direction de défi lement, Les pixels contigus écLairés n'étant plus alors au même endroit sur toutes les lignes mais se décalant d'une ligne à l • aut re.
Enfin, L'invention englobe des réalisations où Les caméras linéaires seraient remplacées par des caméras mat ri c i el Les, l'exploration en étant faite l i néa i rement .

Claims

REVENDICATIONS
1. Système de reconnaissance de caractères gravés composés de segments alignés sensiblement selon deux directions sur un support en défilement relatif par rapport audit système selon L'une de ces directions, caractérisé en ce qu'il comporte : a) des moyens (SV, SH, CAV, CAH) permettant de saisir Les caractères en :
- éclairant deux zones de L'objet en défile¬ ment par deux sources espacées d'éclairage, émettant un faisceau lumineux, chacun dirigé selon L'une des directions, recueillant des signaux issus de deux caméras à échanti L Lonnage à exploration linéaire. L'une de ces caméras visant une zone éclairée. L'autre visant l'autre zone éclairée, ces signaux correspondant à des Lignes d ' échant i L Lonnage constituées de pixels, explorées par les deux caméras, ces Lignes étant transversales à la direction de défilement, b) des moyens (TH, TV) permettant de traiter Les signaux obtenus pour La reconnaissance desdits caractères.
2. Système de reconnaissance selon La reven¬ dication 1, caractérisé en ce que Les moyens de traitement des signaux obtenus comportent : a) des moyens permettant d'analyser les signaux obtenus en :
- détectant à partir des signaux issus d'une première caméra associée à l'éclairage dans la direction du défilement, un premier type de segment Lorsqu'une ou plusieurs Lignes d ' échant i L Lonnage comporte(nt) un nombre, supérieur à un premier seuil, de pixels contigus sombres et/ou que La ou Les Lignes suivantes comporte(nt) un nombre supérieur à ce seuil de pixels contigus écLairés, - détectant à partir des signaux issus de La deuxième caméra associée à L'éclairage dans L'autre direction, un deuxième type de segment Lorsque plusieurs lignes d'échanti llonnage successives comportent un nombre, supérieur à - un deuxième seui L, de pixels contigus éclairés sensiblement au même endroit sur ces Lignes ; b) des moyens (TH, TV) permettant de corréler des signaux issus des deux caméras avec leur position sur le support en tenant compte du retard consé¬ cutif à l'écartement des zones éclairées ; c) des moyens permettant de reconnaître les caractères à partir des segments détectés et d'une police de caractères choisie.
3. Système de reconnaissance selon la reven¬ dication 2, caractérisé en ce que Les moyens permettant de reconnaître Les caractères sont aptes à : effectuer une Localisation grossière au moyen de La détection du premier type de segments et un regroupement des segments susceptibles de constituer un caractère potentiel de la police de caractère choi¬ si e, réaliser une localisation fine au moyen de La détection du deuxième type de segments, grâce à L'établissement d'un masque matriciel constitué de zones jointives et L* évaluation du nombre de pixels éclairés dans chacune des zones du masque par rapport au positionnement sur le masque des segments détectés, comparer le caractère potentiel obtenu par rapport au caractère de police choisie constituant le di et ionnai re, identifier le caractère en fonction des résultats de comparaison.
4. Système de reconnaissance selon la reven- dication 2 ou 3, caractérisé en ce qu'i l comporte un codeur incrémental délivrant une impulsion calibrée lorsque le support se déplace d'un pas de longueur déterminée et un système de synchronisation associé à chaque caméra permettant de faire correspondre à chaque impulsion du codeur incrémental une Ligne vidéo de cette caméra.
5. Système de reconnaissance selon l'une quelconque des revendications 1 à 4, caractérisé en ce que les moyens de traitement sont aptes à effectuer un pré-traitement consistant à : détecter des zones vides correspondant à plusieurs lignes consécutives dans lesquelles aucun segment du premier ou du deuxième type n'a été détecté, établir une table par type de segment contenant les numéros des lignes non vides, établir une table par type de segment contenant les numéros de pixels correspondant à un début d' éc lai rement, établir une table par type de segment contenant le numéro de pixels correspondant à une fin d ' éclai rement .
6. Système de reconnaissance selon L'une quelconque des revendications 4 et 5, caractérisé en ce que les moyens de corrélation permettent de corréler les signaux des caméras avec leur position sur le sup¬ port en : synchronisant les signaux vidéo venant des caméras sur les impulsions venant du codeur, numérotant les lignes échanti llonnées des caméras, localisant les pixels éclairés et les pixels non éclairés,
- mémorisant les informations recueillies, regroupant les informations relatives aux segments de chaque type dans un seul organe de traitement.
7. Système de reconnaissance selon l'une quelconque des revendications 2 à 6, caractérisé en ce que la détection des segments du premier type consis- te à :
- calculer le nombre de pixels pour chaque ligne,
- calculer le gradient G-j entre une ligne i et i + δi et le gradient G ' -j entre une ligne i et i - δi,
- seui ller le minimum de ces deux gradients,
- constituer une table contenant des numéros de Lignes où sont susceptibles de se trouver des seg¬ ments du premier type appartenant à un caractère poten- tiel.
8. Système de reconnaissance selon la revendication 1, caractérisé en ce que Les lignes d'échanti llonnage explorées par les deux caméras sont transversales à La direction de défi lement et parallèles à L'autre direction.
PCT/FR1990/000950 1989-12-28 1990-12-27 Systeme de reconnaissance d'un caractere grave sur un support WO1991010208A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR89/17328 1989-12-28
FR8917328A FR2656709B1 (fr) 1989-12-28 1989-12-28 Systeme de reconnaissance d'un caractere grave sur un support.

Publications (1)

Publication Number Publication Date
WO1991010208A1 true WO1991010208A1 (fr) 1991-07-11

Family

ID=9389072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1990/000950 WO1991010208A1 (fr) 1989-12-28 1990-12-27 Systeme de reconnaissance d'un caractere grave sur un support

Country Status (3)

Country Link
FR (1) FR2656709B1 (fr)
PT (1) PT96377A (fr)
WO (1) WO1991010208A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4142614A1 (de) * 1991-10-14 1993-04-15 Tropf Hermann Dr Ing Vorrichtung und verfahren zum erkennen von objekten, wie unregelmaessigkeiten in oberflaechen oder dergleichen
CN111401142A (zh) * 2020-02-25 2020-07-10 杭州测质成科技有限公司 基于深度学习的航空发动机叶片金属表面蚀刻字符识别方法
CN113334978A (zh) * 2021-07-07 2021-09-03 东莞市昂图智能科技有限公司 应用于cnc雕刻机的图像采集系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2884006B1 (fr) * 2005-04-04 2007-05-25 Air Liquide Methode de gestion et de tracabilite de bouteilles de gaz

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3242463A (en) * 1962-11-23 1966-03-22 Ibm Character recognition employing plural directional scanning
US3836958A (en) * 1972-07-03 1974-09-17 Ibm Optical character recognition scanning apparatus
EP0226938A2 (fr) * 1985-12-23 1987-07-01 Messerschmitt-Bölkow-Blohm Gesellschaft mit beschränkter Haftung Procédé et dispositif de reconnaissance de composantes
FR2607288A1 (fr) * 1986-11-20 1988-05-27 Oki Electric Ind Co Ltd Procede et dispositif pour le traitement de cartes imprimees en relief

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3242463A (en) * 1962-11-23 1966-03-22 Ibm Character recognition employing plural directional scanning
US3836958A (en) * 1972-07-03 1974-09-17 Ibm Optical character recognition scanning apparatus
EP0226938A2 (fr) * 1985-12-23 1987-07-01 Messerschmitt-Bölkow-Blohm Gesellschaft mit beschränkter Haftung Procédé et dispositif de reconnaissance de composantes
FR2607288A1 (fr) * 1986-11-20 1988-05-27 Oki Electric Ind Co Ltd Procede et dispositif pour le traitement de cartes imprimees en relief

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4142614A1 (de) * 1991-10-14 1993-04-15 Tropf Hermann Dr Ing Vorrichtung und verfahren zum erkennen von objekten, wie unregelmaessigkeiten in oberflaechen oder dergleichen
CN111401142A (zh) * 2020-02-25 2020-07-10 杭州测质成科技有限公司 基于深度学习的航空发动机叶片金属表面蚀刻字符识别方法
CN113334978A (zh) * 2021-07-07 2021-09-03 东莞市昂图智能科技有限公司 应用于cnc雕刻机的图像采集系统
CN113334978B (zh) * 2021-07-07 2021-12-14 东莞市昂图智能科技有限公司 应用于cnc雕刻机的图像采集系统

Also Published As

Publication number Publication date
FR2656709B1 (fr) 1992-03-27
FR2656709A1 (fr) 1991-07-05
PT96377A (pt) 1991-10-15

Similar Documents

Publication Publication Date Title
EP0054596B1 (fr) Procédé d'inspection et de tri automatique d'objets présentant des configurations avec des tolérances dimensionnelles et des critères de rejet variables selon l'emplacement, équipement et circuits de mise en oeuvre
EP0115462B1 (fr) Procédé de reconnaissance automatique d'une image, à partir d'une image correspondante de référence
EP0054598B1 (fr) Procédé d'inspection et de tri automatique d'objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
US6728593B2 (en) System for analysis of fabric surface
EP0745866A1 (fr) Procédé et dispositif pour détecter le mouvement d'une cible et leurs applications
FR2656684A1 (fr) Systeme d'inspection des munitions des armes portatives.
CA2284895C (fr) Procede d'inspection de surface d'une bande en defilement par segmentation d'image en zones suspectes
EP2199973A3 (fr) Appareil et procédé de traitement d'images, et dispositif et procédé d'évaluation d'images
WO1991010208A1 (fr) Systeme de reconnaissance d'un caractere grave sur un support
JPH10221166A (ja) ターゲット光源の存在を決定する方法とそのための装置
EP0769760A1 (fr) Procédé de détection automatique des zones expertisables dans des images de pièces mécaniques
FR2494874A1 (fr) Appareil universel d'authentification de documents
JPH058963B2 (fr)
EP0209422A1 (fr) Amélioration aux procédés et dispositifs de digitalisation automatique d'une scène comportant des éléments significatifs discrets
WO2020094441A1 (fr) Capteur d'image pour la reconnaissance optique de code(s)
Howe et al. An assessment of the feasibility of developing and implementing an automated pavement distress survey system incorporating digital image processing
EP0542623A1 (fr) Procédé et dispositif d'acquisition et de traitement d'images radioscopiques
EP2320404B1 (fr) Procédé et dispositif pour la mesure de la trajectoire d'objets mobiles passifs
FR2543457A1 (fr) Procede et dispositif pour le triage d'objets en fonction de leur aspect externe, en particulier pour un tirage colorimetrique d'objets
EP0550101A1 (fr) Procédé de recalage d'images
EP2409276B1 (fr) Procede de traitement d'image pour l'analyse de circuits integres, et systeme de mise en oeuvre du procede
EP0597762A1 (fr) Procédé de réalisation d'une image de référence synthétisée pour l'inspection d'objets
EP1129432A1 (fr) Procede de comparaison d'images enregistrees formees de pixels representant des equipotentielles d'au moins une puce de circuit integre
Kesiman et al. Benchmarking A New Dataset for Coffee Bean Defects Classification Based on SNI 01-2907-2008
BE1021013B1 (fr) Procede et systeme pour ameliorer la qualite d'images en couleur.

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IT LU NL SE

NENP Non-entry into the national phase

Ref country code: CA