FR2618581A1 - Appareil de reconnaissance d'image - Google Patents

Appareil de reconnaissance d'image Download PDF

Info

Publication number
FR2618581A1
FR2618581A1 FR8809978A FR8809978A FR2618581A1 FR 2618581 A1 FR2618581 A1 FR 2618581A1 FR 8809978 A FR8809978 A FR 8809978A FR 8809978 A FR8809978 A FR 8809978A FR 2618581 A1 FR2618581 A1 FR 2618581A1
Authority
FR
France
Prior art keywords
image
points
decision
candidate
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8809978A
Other languages
English (en)
Other versions
FR2618581B1 (fr
Inventor
Kazuhito Hori
Yasuyuki Nagata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP62183019A external-priority patent/JPS6426276A/ja
Priority claimed from JP62200503A external-priority patent/JPS6442779A/ja
Priority claimed from JP62202539A external-priority patent/JPS6446164A/ja
Priority claimed from JP62202778A external-priority patent/JPS6446165A/ja
Application filed by Sony Corp filed Critical Sony Corp
Publication of FR2618581A1 publication Critical patent/FR2618581A1/fr
Application granted granted Critical
Publication of FR2618581B1 publication Critical patent/FR2618581B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne les techniques de reconnaissance automatique d'image. Un appareil de reconnaissance d'image rapide comprend une première mémoire 13 qui enregistre une image de référence à deux niveaux, des moyens de sélection 22, 23, 25, 11 permettant de désigner manuellement un ensemble de points sélectionnés de l'image, un détecteur de niveaux de signal à chacun des points sélectionnés, une seconde mémoire 32 qui enregistre les niveaux de signal que fournit le détecteur, et un comparateur qui compare les niveaux de signal détectés aux points sélectionnés de l'image de référence, avec des niveaux de signal aux mêmes points d'une image d'un article qui est un candidat pour la reconnaissance. Application aux systèmes automatiques de manipulation d'objets.

Description

La présente invention concerne un système de reconnaissance d'image
destiné à reconnaître une image par un traitement d'image à deux niveaux. L'invention
porte plus particulièrement sur un système de reconnais-
sance d'image dans lequel il est possible de reconnaître la présence, la forme, l'orientation, etc., d'un article,
en réalisant le système d'une manière telle que des don-
nées de référence consistant en points désignés par un opérateur, soient enregistrées dans le système dans le
but d'apprendre au système des caractéristiques importan-
tes de l'article, et que des données d'un article candi-
dat soient comparées avec les données de référence au
cours de l'exécution d'un algorithme de reconnaissance.
Dans la fabrication de certains produits, par exemple des appareils électroniques, des composants sont quelquefois disposés en une rangée sur une palette et
sont acheminés sur un convoyeur à bande en vue de l'as-
semblage. Il arrive occasionnellement que certains des
composants manquent sur la palette, à cause d'un fonc-
tionnement défectueux d'une machine destinée à mettre en
place de tels composants, ou pour une autre raison quel-
conque.
Pour faire face à ce problème, il a été propo-
sé un système dans lequel une camera vidéo capte une image de composants sur une palette, et les signaux vidéo
résultants sont traités dans le but de détecter si cer-
tains composants sont absents. Pour cette fonction, il n'est pas nécessaire de discerner de petits détails de structure; il est seulement nécessaire de déterminer si tous les composants exigés sont présents ou non. De tels
signaux vidéo peuvent donc être des signaux à deux ni-
veaux comprenant un niveau noir et un niveau blanc, et le traitement d'une image peut être effectué sur la base de
tels signaux à deux niveaux.
Cependant, dans la plupart des systèmes classi-
ques du type mentionné, l'utilisateur ne peut pas fixer les conditions de décision; de tels systèmes manquent donc de.souplesse et sont difficiles à utiliser. A titre
d'exemple, du fait que le niveau de référence pour la dis-
crimination entre le noir et le blanc d'un article candi- dat ne peut pas être fixé par l'utilisateur, il n'est pas
possible de définir une tolérance appropriée pour des va-
riations de coloration et d'éclairage d'un article candi-
dat. La fiabilité de décision est donc si faible que des
erreurs se produisent fréquemment.
En outre, la comparaison de configurations pour
la reconnaissance de la forme d'un article s'effectue cou-
ramment par un procédé de comparaison avec un gabarit. Ce-
pendant, du fait que dans le procédé de comparaison avec un gabarit, une configuration de référence enregistrée à l'avance est déplacée de façon à balayer la totalité de
la surface d'un plan d'image de télévision, pour recher-
cher une configuration qui coïncide, il est nécessaire, par exemple dans le cas de la reconnaissance de caractères,
de faire défiler le plan d'image caractère par caractère.
La reconnaissance exige donc beaucoup de temps.
Il existe en outre une limite pratique sur le
nombre de tailles et de formes différentes de configura-
tions de référence. Les systèmes classiques manquent donc
de souplesse et ne peuvent pas être utilisés aisément.
Un but de l'invention est de procurer un système de reconnaissance d'image de type original qui présente
une grande vitesse de réponse.
Un autre but de l'invention est de procurer un système de reconnaissance d'image qui fonctionne sous la
dépendance d'un signal d'image numérisé sous forme binaire.
Dans un système de reconnaissance de configura-
tion d'image conforme à l'invention, des marques sont ap-
pliquées sur une configuration de référence, et on compare
une configuration à examiner avec la configuration de ré-
férence portant les marques, dans le but de déterminer la
présence, la forme, l'orientation, etc., de la configura-
tion à examiner.
Plus précisément, l'invention procure un appa-
reil de reconnaissance d'image destiné à reconnaître une
condition d'un article candidat en relation avec une con-
dition de référence, cet appareil comprenant: des pre-
miers moyens de mémoire destinés à enregistrer une image de référence à deux niveaux; des moyens de visualisation connectés aux premiers moyens de mémoire pour visualiser l'image de référence; des moyens de sélection connectés
aux premiers moyens de mémoire et aux moyens de visuali-
sation, pour désigner manuellement un ensemble de points de référence sélectionnés de l'image de référence; des moyens de détection connectés aux moyens de sélection pour détecter des niveaux de signal à chacun des points de référence; des seconds moyens de mémoire connectés aux
moyens de détection pour enregistrer les niveaux de si-
gnal détectés; et des moyens de comparaison qui sont con-
nectés aux seconds moyens de mémoire pour effectuer une comparaison entre les niveaux de signal détectés et des signaux à deux niveaux, à des points qui correspondent aux points de référence mais sont propres à une image
candidate à deux niveaux qui correspond à un article can-
- didat; la comparaison indiquant une condition de l'arti-
cle candidat par rapport à une condition correspondante de l'image de référence, et les moyens de visualisation
visualisant les résultats de la comparaison.
Un système de reconnaissance d'image construit conformément à l'invention permet d'atteindre les buts de
l'invention, qui ont été indiqués précédemment.
Le système de reconnaissance d'image de l'inven-
tion peut faire l'objet de diverses applications compre-
nant la détection de l'absence ou d'une erreur de posi-
tionnement d'un composant ou d'un élément parmi des com-
posants ou des éléments disposés d'une manière prédétermi-
née, et d'autres applications décrites ci-après.
D'autres caractéristiques et avantages de l'in-
vention seront mieux compris à la lecture de la descrip-
tion qui va suivre de modes de réalisation, et en se réfé- rant aux dessins annexés sur lesquels: la figure 1 est un schéma synoptique montrant la
structure du matériel de base d'un système de reconnais-
sance d'image conforme à l'invention; la figure 2 est une mappe d'une mémoire vive (MEV) du système de reconnaissance d'image de la figure 1; les figures 3 et 4 sont des organigrammes qui montrent le fonctionnement du système de reconnaissance
d'image de la figure 1, dans un premier mode de réalisa-
tion préféré de l'invention; les figures 5A à 5D sont des représentations schématiques qui illustrent un procédé de décision entre le blanc et le noir, par le système de reconnaissance d'image du premier mode de réalisation; les figures 6 à 10 sont des représentations schématiques qui montrent des plans d'image lorsque le
système de reconnaissance d'image du premier mode de réa-
lisation détermine la présence de composants exigés; les figures 11 et 12 sont des représentations schématiques qui montrent des plans d'image lorsque le
système de reconnaissance d'image du premier mode de réa-
lisation détermine la présence de perforations dans un composant; les figures 13 et 14 sont des organigrammes qui montrent le fonctionnement du système de reconnaissance d'image de la figure 1 dans un second mode de réalisation préféré de l'invention; les figures 15 à 20 sont des représentations schématiques qui montrent des plans d'image lorsque le
système de reconnaissance d'image du second mode de réa-
lisation effectue une discrimination entre des nombres qui sont affichés par un dispositif de visualisation à sept segments; les figures 21 et 22 sont des organigrammes qui montrent le fonctionnement du système de reconnaissance
d'image de la figure 1 dans un troisième mode de réalisa-
tion préféré de la présente invention; les figures 23 à 27 sont des représentations schématiques qui montrent des plans d'image lorsque le système de reconnaissance d'image du troisième mode de réalisation effectue une discrimination portant sur la forme particulière d'un article; les figures 28 et 29 sont des organigrammes qui montrent le fonctionnement du système de reconnaissance
d'image de la figure 1 dans un quatrième mode de réalisa-
tion préféré de l'invention; les figures 30 à 35 sont des représentations schématiques qui montrent des images dans le cas o le système de reconnaissance d'image du quatrième mode de réalisation détecte l'orientation d'un article; les figures 36 et 37 sont des représentations schématiques qui montrent des images dans le cas o le système de reconnaissance d'image du quatrième mode de réalisation détecte l'orientation d'un article différent; et les figures 38 et 39 sont des représentations schématiques qui montrent des images dans le cas o le système de reconnaissance d'image du quatrième mode de réalisation détecte la position angulaire d'une aiguille
indicatrice d'un instrument de mesure.
La figure 1 montre la structure du matériel de base d'un système de reconnaissance d'image conforme à l'invention. Le système de reconnaissance d'image qui est représenté comprend une unité centrale de traitement (UC) à 16 bits, 11, destinée à commander le fonctionnement de
l'ensemble du système, une mémoire morte (MEM) 12 dans la-
quelle un système d'entrée/sortie en Basic (ou BIOS) et certaines autres informations sont enregistrés de façon
permanente, et une mémoire vive (MEV) 13 dans laquelle di-
vers programmes et données sont enregistrés de façon à pouvoir être changés. La MEV 13 peut être divisée par exemple en une zone de programme de traitement 45 (figure
2), dans laquelle est enregistré un programme de traite-
ment pour la prise de décisions, une zone de données de référence 46 dans laquelle sont enregistrées des données
de référence, une zone de données de candidat 47 dans la-
quelle des données concernant un candidat pour la recon-
naissance, etc., sont enregistrées pendant l'exécution de
l'algorithme de reconnaissance, une zone de données tempo-
raires 48 dans laquelle sont enregistrées des données tem-
poraires telles que des données de position, et une zone de travail 49 pour l'UC 11. Les mémoires 12 et 13 sont
connectées à l'UC 11 par un bus de système 19 (figure 1).
Le système de reconnaissance d'image comprend en outre une unité de disquettes 21 qui est connectée au bus de système 19 par l'intermédiaire d'un contrôleur d'unité de disquettes 24, et un clavier 22 et un manche à balai 23
qui sont connectés au bus 19 par l'intermédiaire d'une in-
terface 25. Des programmes tels que les programmes 100 et 200 représentés respectivement sur les organigrammes des
figures 3 et 4, et qui font partie du programme de traite-
ment de prise de décision précité, sont conservés sur une disquette 19 à partir de laquelle les programmes sont lus
au moyenëb l'unité de disquettes 21.
Le système de reconnaissance d'image comprend en outre une caméra vidéo 41 qui est destinée à capter une
image d'un article de référence et d'un article candidat.
La caméra 41 produit un signal de luminosité Sy et elle l'applique à un circuit de numérisation sous forme binaire 31 qui convertit ce signal en un signal à deux niveaux Sb qui présente un niveau "0" (niveau du blanc) lorsque le signal de luminosité Sy est décalé vers le côté du niveau du blanc, par rapport à un niveau de seuil prédéterminé, et qui présente un niveau 1" (niveau du noir) lorsque le signal de luminosité Sy est décalé du côté du niveau du
noir par rapport au niveau de seuil prédéterminé. Le si-
gnal à deux niveaux Sb est appliqué à une mémoire d'image 32.
La mémoire d'image 32 est destinée en enregis-
trer de tels signaux Sb pour une image complète, avec une
résolution de 512 éléments d'image x 512 éléments d'image.
Ces signaux Sb sont chargés dans la mémoire 32 par trans-
mission par accès direct en mémoire (DMA), en synchronisme
avec les signaux de synchronisation horizontale et verti-
cale des signaux Sb, au moyen d'un contrôleur de DMA 33.
Le système de reconnaissance d'image comprend en outre une mémoire de caractères 34 et un générateur de caractères 35. La mémoire 34 a une structure correspondant à ce qu'on appelle une mémoire vive vidéo et elle permet de visualiser une lettre, un nombre ou un symbole sur un
récepteur d'image ou moniteur 42, lorsqu'un code de ca-
ractère correspondant est chargé dans la mémoire 34 à
partir du générateur de caractères 35. Le système de re-
connaissance d'image comprend en outre un générateur de curseurs36 qui est destiné à former un signal devant être visualisé sous la forme d'un curseur, et un contrôleur de
tube cathodique 37 qui est destiné à commander les cir-
cuits 32 et 34 à 36, et à combiner les signaux de sortie de ces circuits pour produire des signaux de visualisation qui sont appliqués au récepteur d'image ou moniteur 42 et
sont visualisés par ce dernier.
Lorsque le système de reconnaissance d'image d'un premier mode de réalisation de l'invention est mis en fonction, les programmes 100 et 200 (figures 3 et 4) qui sont conservés sur la disquette 29 (figure 1) sont chargés dans la MEV 13 (figures 1 et 2), et le système
passe ensuite dans une condition d'attente d'ordres.
Si un mode d'enseignement est ensuite appelé au moyen du clavier 22 (opération (1)), le programme 100 est exécuté.
Plus précisément, après le démarrage du pro-
gramme 100, l'UC 11 (figure 1) passe tout d'abord à une étape 101 (figure 3) dans laquelle elle entre dans une condition o elle attend l'entrée d'une instruction pour autoriser la mémoire d'image 32 à prélever des signaux à deux niveaux Sb. Des opérations préparatoires sont donc effectuées ici pour capter une image d'un ou plusieurs composants qui sont disposés de façon à être scrutés par
la caméra vidéo 41.
Ensuite, si une instruction de prélèvement est appliquée en tant que signal d'entrée au moyen du clavier
22 (opération (2)), le programme de l'UC 11 passe à l'éta-
pe 102 à laquelle le prélèvement de signaux Sb est autori-
sé, de façon que des signaux Sb pour une seule image soient chargés successivement dans la mémoire d'image 32 par transmission par accès direct en mémoire. Les signaux Sb ainsi prélevés sont ensuite rappelés à partir de la mémoire d'image 32 par le contrôleur de tube cathodique 37, et ils sont appliqués au récepteur d'image ou moniteur 42, sur lequel une image de référence est visualisée comme
représenté sur la figure 6.
Ensuite, le programme de l'UC 11 passe à l'étape
103 à laquelle un point de décision est fixé. Plus préci-
sément, des signaux provenant du générateur de curseurs36
et du générateur de caractères 35 sont appliqués au récep-
teur d'image ou moniteur 42, sur lequel un curseur et un
certain nombre de points de décision sont visualisés.
L'utilisateur du système peut changer à volonté la posi-
tion du curseur dans le plan d'image du moniteur 42, en
manoeuvrant le manche à balai 23 (opération (3)).
Lorsqu'un point de décision est sélectionné, il
est fourni en tant que signal d'entrée, au moyen du cla-
vier 22 (opération (4)). Le programme passe ensuite à l'étape 104, à laquelle il détermine si la fixation de tous les points de décision nécessaires a été effectuée ou non. Si l'information d'entrée qui est fournie au moyen du clavier 22 indique que la fixation de tous les
points de décision n'a pas encore été effectuée, le pro-
gramme retourne à l'étape 103 à laquelle la fixation d'un autre point de décision est effectuée (opération (5)). Au contraire, dans le cas o l'information d'entrée qui est fournie à l'étape 104 indique que la fixation de tous les points de décision a été effectuée (opération (6)), le programme passe à l'étape 105 à laquelle il calcule une valeur d'évaluation Ev pour chacun des points de décision fixés, et il la compare avec un niveau de seuil ETH, pour former des données de référence qui indiquent que le point de décision est blanc ou noir. Ensuite, à l'étape 106, des signaux conformes aux résultats de l'étape 105 sont prélevés dans le générateur de caractères 35 et sont
appliqués au moniteur 42, sur lequel les données de réfé-
rence sont ainsi visualisées de la manière représentée
sur la figure 8.
Le programme passe ensuite à l'étape 107 à la-
quelle la visualisation demande à l'opérateur du système
si les données de référence qui sont visualisées sont ac-
ceptables ou non. Si l'opérateur introduit au moyen du
clavier 22 un signal qui indique que les données de réfé-
rence sont acceptables (opération (7-A)), le programme passe à l'étape 108 à laquelle les données de référence, les données de position des points de décision, les poids d'éléments d'image individuels des points de décision et
le niveau de seuil ETH sont enregistrés dans la MEV 13.
Le programme 100 est ainsi terminé et l'UC 11 retourne à
la condition d'attente d'ordres.
Si au contraire à l'étape 107 l'opérateur in-
troduit au moyen du clavier 22 un signal qui indique que les données de référence qui sont visualisées ne sont pas acceptables (opération (7-B)), le programme passe à l'étape 111 à laquelle il est demandé à l'opérateur si la
répartition des poids qui sont affectés aux points de dé-
cision doit être changée. Dans le cas o l'opérateur in-
troduit au moyen du clavier 22 un signal qui indique que la répartition doit être changée, le programme passe à
l'étape 112, et ensuite si de nouveaux poids sont intro-
duits au moyen du clavier 22, le programme retourne à l'étape 105. De nouvelles valeurs d'évaluation Ev et de nouvelles données de référence sont ainsi formées ensuite
successivement conformément aux nouveaux poids, respecti-
vement aux étapes 105 et 106, après quoi la confirmation des nouvelles données de référence est demandée à l'étape 107. Si l'information qui est introduite à l'étape 111 indique que la répartition des poids ne doit pas être changée, le programme passe à l'étape 113 à laquelle il est demandé à l'opérateur si le niveau de seuil ETH doit
être changé ou non. Si la réponse est affirmative, le pro-
gramme passe à l'étape 114. Si un nouveau niveau de seuil ETH est introduit au moyen du clavier 22 à l'étape 114, le
programme retourne à l'étape 105. Par conséquent, de nou-
velles données de référence sont ensuite formées conformé-
ment au nouveau niveau de seuil ETH, et ensuite la confir-
mation des nouvelles données de référence est demandée à
nouveau à l'étape 107.
Si le signal qui est introduit à l'étape 113 in-
dique que le niveau de seuil ETH ne doit pas être changé, le programme retourne à l'étape 103 pour exécuter ensuite
la fixation d'un nouveau point de décision.
De cette manière, conformément au programme 100, on peut fixer arbitrairement des points de décision, et on 1 1 peut former des données de référence avec une répartion
de poids arbitraire et avec un niveau de seuil ETH arbi-
traire pour les points de décision qui sont ainsi fixés.
Lorsqu'un mode d'exécution de décision est éta-
bli au moyen du clavier 22 (opération (11)), le programme
est exécuté pour chacun des différents types de compo-
sants candidats, de façon à prendre une décision pour cha-
que composant candidat.
Plus précisément, après le démarrage du program-
me 200, le prélèvement de signaux à deux niveaux Sb cor-
respondant à un ou plusieurs composants candidats est au-
torisé à l'étape 201 (cette opération est similaire à cel-
le de l'étape 102). Par conséquent, des signaux Sb pour une image complète sont prélevés dans la mémoire 32 par
transmission par DMA. Les signaux Sb qui sont ainsi préle-
vés sont pris en charge par le contrôleur de tube cathodi-
que 37 et sont appliqués au moniteur 42, sur lequel une image des composants candidats est visualisée comme le
montre la fiqure 6.
- Ensuite, le programme de l'UC 11 passe à l'étape 202, à laquelle les données de position et les poids des points de décision et le niveau de seuil ETH sont prélevés dans la MEV 13, et une valeur d'évaluation Ev est calculée comme à l'étape 105, pour chacun des points de décision
qui sont désignés à l'étape 103, et cette valeur est com-
parée avec le niveau de seuil ETH pour former des données de candidat indiquant que le point de décision est blanc ou noir. Ensuite, à l'étape 203, les données de référence qui sont produites à l'étape 105 sont comparées avec les
données de candidat qui sont produites à l'étape 202.
Dans le caes o on trouve à l'étape 203 que les données de référence coincident complètement avec les données de candidat, le programme passe à l'étape 204, à laquelle un caractère "1" représentatif d'une condition normale est prélevé dans le générateur de caractères 35 et est appliqué au moniteur 42. Le moniteur 42 visualise la valeur "1" représentative d'une condition normale sur la seconde ligne du plan d'image (figure 9). Il visualise en outre des numéros de points de décision "1" à "8", et il visualise sur la cinquième ligne du plan d'image des
chiffres de valeur "1" qui indiquent que le point de dé-
cision est blanc.
Au contraire, dans le cas o il existe une cer-
taine différence entre les données de référence et les données de candidat à l'étape 203, le programme passe à l'étape 205, à laquelle un caractère "0", représentatif d'une condition anormale est prélevé dans le générateur
de caractères 35 et est appliqué au moniteur 42. Le moni-
teur 42 visualise la valeur "0" représentative d'une con-
dition anormale sur la seconde ligne de l'écran (figure
). Il visualise en outre des numéros de points de déci-
sion "1" à "8", et il visualise sur la cinquième ligne de l'écran des chiffres ayant les valeurs respectives "0" et "1", chacun d'eux représentant le fait que le point de
décision est blanc ou noir.
La décision est ainsi prise pour des composants particuliers, et ensuite chaque fois que des composants sont présentés à l'examen, le programme 200 est exécuté
pour prendre les décisions nécessaires.
Le système de reconnaissance d'image fonctionne de la manière décrite cidessus. On récapitulera ci-après
ce fonctionnement en relation avec une description du
fonctionnement manuel du système, représenté sur les fi-
gures 6 à 12, qui montrent des images en noir et blanc, numérisées sous forme binaire, qui sont visualisées sur
le moniteur 42.
Opération (1): Un ordre est tout d'abord in-
troduit au moyen du clavier pour placer le système dans
le mode'd'enseignement.
Opération (2): Ensuite, un autre ordre est in-
troduit au moyen du clavier, et des composants qui sont disposés de façon à constituer une référence sont scrutés par la caméra vidéo, de façon à être visualisés sur le
moniteur, comme représenté sur la figure 6.
Surla figure 6, des circuits intégrés comple- xes (ou circuits LSI), en un nombre allant jusqu'à 8,
sont disposés sur une palette en 2 rangées et 4 colonnes.
Opération (3): L'opérateur manoeuvre ensuite manuellement le manche à balai pour déplacer le curseur en forme de croix, afin de l'amener à la position d'une marque sur le premier circuit LSI dans la première rangée
de la première colonne.
La position du curseur établit alors un point de décision auquel on doit prendre une décision concernant la présence ou l'absence d'un composant. Du fait qu'il
s'agit du premier point de décision qui est fixé, un numé-
ro de décision (numéro de curseur) "1" est visualisé près
du curseur.
Opération (4): Si un point de décision est sé-
lectionné, cette information est introduite au moyen du clavier. Opération (5): Ensuite les opérations (3) et (4) décrites ci-dessus sont répétées pour les circuits LSI allant du second au huitième, jusqu'à ce que des points de décision soient fixés pour tous les circuits LSI. Opération (6): Du fait que la fixation des points de décision pour tous les circuits LSI est ainsi terminée, cette information est introduite au moyen du
* clavier. Les données de référence pour les points de déci-
sion sont ensuite visualisées comme le montre la figure 8. Les chiffres "1" à "8" sur la quatrième ligne de la visualisation représentent les numéros des points de décision. Le chiffre "1" qui est visualisé audessous de l'un quelconque des chiffres (sur la cinquième ligne de
la visualisation) indique que le point de décision cor-
respondant est noir; lorsque le point de décision corres-
pondant est blanc, le chiffre "0" est visualisé à la pla-
ce du chiffre "1".
Opération (7-A): Lorsque les données de réfé-
rence sont acceptables, cette information est introduite
au moyen du clavier, ce qui met fin au mode d'enseigne-
ment. Opération (7-B): Dans le cas o les données de référence qui sont visualisées ne sont pas acceptables cette information est introduite au moyen du clavier, et ensuite les poids ou le niveau de seuil pour la décision entre le blanc et le noir sont fixés à nouveau. Ensuite, la séquence d'opérations qui commence par l'opération
(3) est exécutée à nouveau.
Le mode d'enseignement est ainsi terminé et le
système dispose des données de référence.
D'autre part, lorsqu'une décision portant sur le caractère acceptable d'articles candidats tels que des circuits LSI doit être prise, les opérations suivantes sont accomplies:
Opération (11): Un ordre est tout d'abord in-
troduit au moyen du clavier pour placer le système dans
un mode de prise de décision.
Opération (12): Ensuite, chaque fois que la caméra vidéo capte une image d'articles candidats tels que des LSI, l'image des résultats de la décision qui est prise est visualisée comme le montrent les figures 9
ou 10.
La figure 9 représente des circuits LSI candi-
dats disposés d'une manière régulière ou normale, et la valeur "1" indiquant qu'il n'y a pas de circuits LSI
manquants (c'est-à-dire que les données qui sont présen-
tées pour la décision coincident avec les données de ré-
férence), est visualisée à la seconde ligne de la visuali-
sation. La valeur "1" indiquant que le point de décision
est. noir est visualisée (sur la cinquième ligne de la vi-
sualisation) au-dessous de chacun des numéros de points de décision "1" à "8", sur la quatrième ligne de la visua- lisation. La figure 10 représente des circuits LSI candi-
dats dans un cas dans lequel le septième circuit LSI est manquant. La valeur "0" indiquant une absence de circuits
LSI (c'est-à-dire que les données présentées pour la déci-
sion ne coincident pas avec les données de référence) est visualisée sur la seconde ligne de la visualisation, la valeur "1" indiquant que le point de décision est noir est visualisée (sur la cinquième ligne de la visualisation) au-dessous de chacun des numéros de points de décision
"1" à "6" et "8", sur la quatrième ligne de la visualisa-
tion, et la valeur "0" indiquant que le point de décision
est blanc et donc qu'un circuit LSI est absent, est vi-
sualisée (sur la cinquième ligne de la visualisation) au-
dessous du numéro de point de décision "7" sur la qua-
trième ligne de la visualisation.
On détermine de cette manière les conditions de présence ou d'absence des circuits LSI sur une palette donnée. Les figures 11 et 12 illustrent le processus de décision lorsque des perforations doivent être formées dans des cartes de circuit imprimé, et jusqu'à quatre points de décision "1" à "4" sont respectivement fixés pour quatre perforations sur une carte de circuit imprimé
candidate.
Dans le cas de la carte de circuit imprimé qui est représentée sur la figure 11, les quatre perforations sont formées normalement dans la carte, ce qui fait que la valeur "1" représentative d'une condition normale est
visualisée en tant que résultat de la décision. Par con-
séquent, la valeur "0" qui indique que le fait que le point de décision est blanc (à cause de la détection d'une perforation) est visualisée pour chacun des numéros
de points de décision "1" à "4".
Au contraire, dans le cas de la carte de cir-
cuit imprimé qui est représentée sur la figure 12, la se-
conde perforation n'est pas formée dans cette carte. Il en résulte que la valeur "0" représentant une "erreur", en tant que résultat de la comparaison, est visualisée sur la seconde ligne de la visualisation, et la valeur "1" indiquant que le point de décision est noir (absence de perforation) est visualisée sur la cinquième ligne de la visualisation, en correspondance avec le numéro de
point de décision "2" sur la quatrième ligne de la visua-
lisation.
On décrira ci-après un procédé de discrimina-
tion entre le noir et le blanc à un point de décision particulier.
Une image captée par la caméra vidéo est décom-
posée en 512 éléments d'image x 512 éléments d'image, com-
me représenté sur la figure 5A, et elle est numérisée sous une forme binaire, pour donner un niveau de blanc ou un un niveau de noir pour chacun des éléments d'image. Ainsi, comme le montre un cadre en trait épais sur la figure 5A,
les 3 éléments d'image x 3 éléments d'image qui sont cen-
trés sur un élément d'image indiqué par un curseur, sont considérés comme un point de décision pour lequel on doit prendre une décision entre le noir et le blanc. Les trois éléments d'image x 3 éléments d'image sont pondérés de la
manière qui est représentée à titre d'exemple sur la fi-
gure 5B. La répartition de ces poids peut être fixée par
un opérateur et la somme totale des poids est égale à 100.
On supposera que les 3 éléments d'image x 3 éléments d'image présentent une répartition de blanc et
de noir qui est par exemple celle représentée sur la fi-
gure 5C. Dans ces conditions, si un élément d'image blanc
est représenté par "0" et un élément d'image noir est re-
présenté par "1", on peut représenter la figure 5C de la manière indiquée par la figure 5D. On peut donc calculer de la manière suivante la valeur d'évaluation Ev pour le point de décision (la zone des 3 éléments d'image x 3 éléments d'image) qui est indiqué par le curseur: Ev = 5 x 0 + 10 x 0 + 5 x 0 +10 x 0 + 40 x 1 + 10 x 1 + 5 x 1 + 10 x 1 + 5 x 1 = 70 On compare ensuite la valeur Ev calculée avec un niveau
de seuil ETH qui a été fixé arbitrairement par un opéra-
teur, et sur la base du résultat de la comparaison, on décide que le point de décision qui est indiqué par le
curseur est blanc ou noir.
Du fait que Ev = 70 dans le cas de la décision qu'on vient de décrire, lorsque le niveau de seuil ETH est fixé à ETH = 60, on décide que le point de décision indiqué par le curseur est "noir", du fait que: Ev > ETH Au contraire, lorsque le niveau de seuil ETH est fixé à ETH = 80, on décide que le point de décision indiqué par le curseur est "blanc", du fait que: Ev < ETH Avec le mode de réalisation décrit ci-dessus,
on effectue la discrimination entre des conditions norma-
les et anormales pour un composant ou une configuration de composants, par rapport à un gabarit qui est établi par un composant définissant une référence, ou par une configuration de composants définissant une référence, et cette discrimination est effectuée pour des points qui sont fixés par un opérateur. Le système de reconnaissance d'image peut donc travailler aisément avec des composants qui sont disposés dans n'importe quelles conditions, ou
avec un composant ayant n'importe quelle configuration.
En outre, du fait qu'un opérateur peut fixer un point de décision de façon arbitraire, en regardant l'écran du moniteur 42, le système présente une grande
souplesse. De plus, du fait qu'on peut fixer arbitraire-
ment une référence pour la décision entre le blanc et le noir, la prise de décision peut être effectuée avec une
fiabilité élevée, en fonction des circonstances.
Du fait qu'un point de décision présente une certaine étendue, correspondant par exemple à 3 éléments
d'image x 3 éléments d'image, et que chaque point de dé-
cision est pondéré de façon à obtenir une valeur d'éva-
luation Ev qui est ensuite comparée avec un niveau de seuil ETH, pour obtenir des données de noir et de blanc
pour le point de décision, la fiabilité de données de ré-
férence et de données de candidat peut rester élevée in-
dépendamment d'un changement d'éclairage.
De plus, il n'y a aucune nécessité d'utiliser
un circuit spécial et il n'y a aucune limitation théori-
que sur le nombre de points de décision. On peut en outre également utiliser le système pour une simple comparaison
avec un gabarit.
On peut convertir à l'avance les données de ré-
férence et les données de candidat en un code de bloc, au
moyen d'un logiciel. En outre, le niveau de seuil du cir-
cuit de numérisation binaire 31 peut par ailleur être fixé
arbitrairement par un opérateur.
Des données de référence peuvent être enregis-
trées sur la disquette 29 en préparation pour la prise de décision suivante, ou bien des données de candidat peuvent
être sauvegardées sur la disquette 29 et utilisées ulté-
rieurement en tant que données devant faire l'objet d'un traitement statistique pour l'étude de problèmes dans la disposition ou la fabrication de composants. On peut en outre utiliser une touche de curseur sur le clavier 22
ou une souris à la place du manche à balai 23.
Les figures 13 et 14 représentent respective-
ment des programmes 300 et 400 qu'on utilise dans un se-
cond mode de réalisation de l'invention. Le second mode de réalisation est appliqué à la reconnaissance de l'un
des chiffres "0" à "9" qui sont visualisés par l'excita-
tion sélective de segments différents parmi sept segments de visualisation qui sont disposés sous la forme d'un
chiffre "8".
Lorsque le système de reconnaissance d'image de la figure 1 est mis en fonction, les programmes 300 et 400 qui sont enregistrés sur la disquette 29 sont chargés dans la MEV 13 (figure 2), comme dans le premier mode de réalisation décrit ci-dessus, après quoi le système passe
dans une condition d'attente d'ordres.
Lorsque l'opérateur introduit un ordre par l'intermédiaire du clavier 22, pour passer dans le mode
d'enseignement, le programme 300 est exécuté.
Après le démarrage du programme 300, à l'étape
301, une image d'une configuration de référence qui cons-
titue une référence pour la reconnaissance de formes, est captée par la caméra 41, et ensuite des signaux Sb pour une image sont écrits dans la mémoire 32 par transmission
par DMA. Les signaux Sb qui sont ainsi écrits sont ensui-
te rappelés de la mémoire 32 par le contrôleur de tube cathodique 37, et ils sont appliqués au moniteur 42 sur lequel la configuration de référence est visualisée comme
le montre la figure 15.
La figure 15 représente une configuration de référence dans laquelle cinq chiffres comprenant quatre chiffres différents, c'est-à-dire "2", "3, "5, et "8", sont visualisés en noir et blanc, c'est-à-dire avec des
couleurs numérisées en binaire.
Ensuite, le programme de l'UC 11 passe à l'étape 302 à laquelle des points de référence sont fixés dans le
système de coordonnées absolues. Plus précisément, des si-
gnaux du générateur de curseurs 36 et du générateur de ca- ractères 35 sont appliqués au moniteur 42, de façon que
des curseurs constitués par des croix et des numéros iden-
tifiant des points de décision soient visualisés dans le
plan d'image du moniteur 42, comme le montre la figure 16.
On peut changer arbitrairement les positions des curseurs dans le plan d'image du moniteur 42, pour fixer des points
de référence, par la manoeuvre du manche à balai 23.
La figure 16 montre des points de référence et des numéros de points de référence annexés "+1" à "+5",
qui sont placés dans les coins supérieurs gauches des con-
figurations individuelles de visualisation de chiffres.
Ensuite, le programme passe à l'étape 303, à laquelle un point de décision est fixé. Comme à l'étape
302 décrite ci-dessus, des curseurs consistant en un sym-
bole x et des numéros correspondants de points de décision individuels sont visualisés sur l'écran du moniteur 42,
comme le montre la figure 17. On peut changer arbitraire-
ment les positions des curseurs dans le plan d'image du
moniteur 42, par la manoeuvre du manche à balai 23.
Chacun des points de décision est désigné au moyen d'un système de coordonnées relatives dont l'origine coincide avec le point de référence associé, et est fixé
à un point significatif pour la reconnaissance d'une con-
figuration. La figure 17 montre ainsi des points de déci-
sion "xl" à "x7" qui sont fixés sur la première configu-
ration de visualisation de chiffre, dans laquelle l'origi-
ne du système de coordonnées relatives se trouve au pre-
mier point de référence "+1".
Le programme passe ensuite à l'étape 304 à la-
quelle une information blanc/noir est calculée et fait l'objet d'une prise de décision pour chacun des points
de décision qui ont été fixés à l'étape 303, et les ré-
sultats de ces décisions sont visualisés comme le montre
la figure 18.
Sur la figure 18, la seconde ligne de l'image
visualisée indique les résultats des décisions. A la se-
conde ligne, le premier chiffre du côté gauche représente
le numéro de configuration de chiffre "1", et les chif-
fres allant du second au huitième indiquent des résultats de décisions pour les points de décision "xl" à "x7". Le
chiffre "0" dans les second à huitième chiffres représen-
te le fait que le point de décision est blanc, tandis que
le chiffre "1" représente le fait que le point de déci-
sion est noir.
Ensuite, le programme passe à l'étape 305 à
laquelle un message demandant à l'opérateur si les résul-
tats de la décision prise à l'étape 304 ou l'information visualisée sont corrects, est visualisé sur le dispositif
de visualisation 42. Si l'opérateur introduit par le cla-
vier 22 une information indiquant que les résultats sont
incorrects, le programme retourne à l'étape 303 pour ré-
péter la séquence d'opérations comprenant une nouvelle fixation des points de décision "xl" à "x7". Au contraire
lorsque l'opérateur introduit à l'étape 305 une informa-
tion qui indique que les résultats de la décision prise à l'étape 304 sont corrects, le programme passe à l'étape 306.
A l'étape 306, les coordonnées absolues du pre-
mier point de référence "+1" et les coordonnées relatives des points de décision "xl" à "x7" sont enregistrées en tant que données de position dans la MEV 14. A l'étape 307, les résultats de la décision prise à l'étape 304 sont enregistrés en tant que données de référence dans la MEV 13, et le fait que le chiffre est "8" est enregistré
simultanément, ce qui achève le traitement de la configu-
2 6 1 8 581
ration de référence (configuration de chiffre) pour le
premier point de référence "+1".
- On répète ensuite les étapes 304 à 307 pour les points de référence restants "+2" à "+5". Cependant, dans ce cas, les positions relatives des points de décision "+1" à "+7" pour les points de référence "+2" à "+5" sont fixées automatiquement de façon à être identiques à celles du point de référence "+1", et elles ne sont pas fixées par l'opérateur. Par conséquent, les données correspondant aux coordonnées relatives des points de décision "xl" à
"x7" pour le point de référence "+1" sont également utili-
sées pour les points de référence "+2" à "+5", de façon
que les points de décision "xl" à "x7" soient automatique-
ment fixés pour les points de référence "+2" à "+5". Les coordonnées relatives des points de décision "xl" à "x7"
pour les points de référence "+2" à "+5" ne sont pas en-
registrées. La figure 19 représente une image dans laquelle sont affichés les résultats de décision pour les points de décision "xl" à "x7" en relation avec tous les points de référence "+1" à "+5". Les chiffres dans l'image de la figure 19 ont des significations similaires à celles de
la figure 18.
L'enseignement de la configuration de référence est ainsi terminé et le système passe à nouveau dans une
condition d'attente d'ordres.
Ensuite, si l'opérateur ordonne au système, au moyen du clavier 22, de passer dans le mode d'exécution de reconnaissance, le programme 400 est exécuté (figure 14).
Après le démarrage du programme 400, des si-
gnaux à deux niveaux Sb pour une image entière, qui repré-
sentent une configuration d'un candidat pour la reconnais-
sance de configuration, sont écrits à l'étape 401 dans la mémoire 32, par une opération d'accès direct en mémoire (DMA). Les signaux Sb qui sont ainsi écrits sont lus par le contrôleur de tube cathodique 37 et ils sont appliqués
au moniteur 42, sur lequel une configuration correspon-
dant à l'article candidat est visualisé dans le plan d'image, comme représenté sur la figure 15.
Ensuite, le programme de l'UC 11 passe à l'éta-
pe 402, à laquelle les données de position représentati-
ves des coordonnées absolues du premier point de référen-
ce "+1", et les coordonnées relatives des points de déci-
sion "xl" à "x7" sont lues dans la MEV 13, et les posi-
tions (coordonnées absolues) des points de décision "xl" à "x7" sont calculées à partir des données de position
qui sont ainsi lues. Ensuite, à l'étape 403, une informa-
tion de blanc/noir concernant les positions obtenues à l'étape 402, c'està-dire des données de candidat, est
calculée à partir des signaux Sb de la mémoire 32.
A l'étape 404, les données de candidat qui sont calculées à l'étape 403 sont comparées avec les données de référence enregistrées dans la MEV 13, et un chiffre qui correspond aux données de référence les plus proches
des données de candidat est visualisé dans le plan de vi-
sualisation d'image, en tant que résultat de l'opération
de reconnaissance, comme le montre la figure 20.
Sur la figure 20, les numéros des données de
candidat (numéros des points de référence) sont visuali-
sés du côté gauche des lignes, à partir de la troisième
ligne, tandis que les chiffres "0" à "9" des configura-
tions candidates reconnues par le système sont visualisés
du côté droit de ces mêmes lignes. Les points de référen-
ce "+1" à "+5" et les points de décision "xl" à "x7" sont
également visualisés dans le plan de visualisation d'ima-
ge. A l'étape 405, on détermine si les résultats de la reconnaissance sont visualisés ou non pour tous les points de référence, et dans le cas o les résultats de la reconnaissance sont visualisés pour tous les points de
référence, comme représenté sur la figure 20, le program-
me 400 se termine; cependant, lorsque les résultats de la reconnaissance ne sont pas visualisés pour tous les points de référence, le point de référence suivant est
sélectionné à l'étape 406, après quoi le programme re-
tourne à l'étape 402.
Dans le second mode de réalisation, du fait
qu'il est seulement nécessaire de fixer des points de dé-
cision et une référence pour la décision entre le blanc et le noir, la fixation de ces critères est très simple par rapport à un procédé de comparaison de configurations de type classique. En outre, du fait qu'on fixe des points de décision au moyen de systèmes de coordonnées relatives dans lesquels l'origine se trouve à un point de
référence dans le système de coordonnées absolues, la fi-
xation de points de décision est une opération simple, pour un ensemble de configurations de référence et de
configurations de candidat.
En outre, du fait qu'un opérateur peut fixer arbitrairement des points de décision et une référence pour la décision entre le blanc et le noir, on dispose
d'une grande souplesse pour traiter divers types et nom-
bres de configurations.
De plus, du fait qu'il suffit de discriminer entre le blanc et le noir sous la dépendance de données
à deux niveaux, le temps de traitement est court.
On va maintenant décrire un troisième mode de
réalisation de l'invention. Le troisième mode de réalisa-
tion utilise des programmes 500 et 600 qui sont respecti-
vement représentés sur les figures 21 et 22.
Ce mode de réalisation réalise une reconnais-
sance souple et précise en déterminant des points de dé-
cision sur la base d'un centre de gravité et d'un axe
d'inertie principal, et en reconnaissant un article can-
didat à partir d'une information de blanc/noir aux points
de décision.
Lorsque-le troisième mode de réalisation du système de reconnaissance d'image est mis en fonction, les programmes 500 et 600 qui sont enregistrés sur la disquette 29 sont charges dans la MEV 13 (figures 1 et
2), après quoi le système entre dans une condition d'at-
tente d'ordres, comme dans les modes de réalisation dé-
crits ci-dessus. -
Si en utilisant le clavier 22, l'opérateur or-
donne au système d'entrer dans le mode d'enseignement, le
programme 500 est exécuté.
Après le démarrage du programme 500, à une pre-
mière étape 501, la caméra 41 capte une image d'un arti-
cle de référence pour la reconnaissance. Ensuite, des si-
gnaux Sb pour une image complète sont écrits dans la mé-
moire 32, par transmission par DMA. Les signaux Sb qui sont ainsi écrits sont ensuite lus par le contrôleur de tube cathodique 37, et ils sont appliqués au moniteur 42,
qui visualise sur l'écran de visualisation une configura-
tion représentant l'article de référence, comme représen-
té sur la figure 23.
La figure 23 montre une configuration de réfé-
rence rectangulaire noire qui résulte d'une prise de vue portant sur un article rectangulaire disposé dans une
* orientation arbitraire, constituant un article de réfé-
rence, et qui est visualisée dans le plan de visualisa-
tion d'image. Le nombre de tels articles de référence
(configurations de référence) est arbitraire; un seul ar-
ticle de ce type est représenté sur la figure 3.
Ensuite, le programme passe à l'étape 502 dans
laquelle l'une des configurations de référence est sélec-
tionnée, s'il y a plusieurs configurations de référence.
A l'étape 503, le centre de gravité de la con-
figuration de référence sélectionnée à l'étape 502 est
calculé, après quoi l'axe d'inertie principal de la con-
figuration de référence est calculé à l'étape 504.
A l'étape 505, le contrôleur de tube cathodique 37 applique au dispositif de visualisation 42 des signaux du générateur de caractères 35 et du générateur de cur-
seurs 36, de façon qu'à la position, sur le plan de vi-
sualisation d'image, du centre de gravité qui est calculé à l'étape 503, un symbole de centre de gravité tel que
"+", indiquant le centre de gravité, et un numéro de con-
figuration de référence, tel que "1", soient visualisés d'une manière telle que "+1", comme le montre la figure 24, tandis que simultanément, l'axe d'inertie principal qui est calculé à l'étape 504 est visualisé sous la forme
d'un segment d'une ligne droite qui s'étend dans la di-
rection de l'axe d'inertie principal, à partir du symbole
de centre de gravité "+".
Le programme passe ensuite à l'étape 506 à la-
quelle on fixe les points de décision. Plus précisément, sous l'effet de signaux qui proviennent des générateurs 35 et 36, des curseurs en forme de x et des numéros de
points de décision sont visualisés dans le plan de visua-
lisation, comme représenté sur la figure 25. On peut changer arbitrairement les positions des curseurs et des numéros de points de décision qui sont visualisés dans le plan de visualisation d'image, par la manoeuvre du manche
à balai 23, ce qui permet de fixer les points de décision.
Chacun des points de décision est désigné dans
un système de coordonnées relatives dont l'origine coin-
cide avec le point de référence associé, et dont l'axe de référence coincide avec la direction de l'axe d'inertie principal, et chaque point de décision est fixé à un
point significatif pour la reconnaissance d'une configura-
tion. La figure 25 montre ainsi des points de décision
"xl" à "x4" qui sont fixés par rapport au centre de gravi-
té "+1" auquel l'origine est placée.
Ensuite, le programme passe à l'étape 507, à laquelle une information de blanc/noir est calculée et
fait l'objet d'une décision pour chacun des points de dé-
cision "xl" à "x4" qui ont été fixés à l'étape 506, et les résultats de cette décision sont visualisés comme le
montre la figure 25.
Sur la figure 25, la seconde ligne de l'image
visualisée indique les résultats de la décision. A la se-
conde ligne, le premier chiffre à gauche représente la
première configuration de référence, et les chiffres al-
lant du second au cinquième indiquent des résultats de décision pour les points de décision respectifs "xl" à
"x4". Si le chiffre "0" apparaît dans les positions al-
lant de la seconde à la cinquième, il indique que le point de décision est blanc, tandis que le chiffre "1"
indique que le point de décision est noir.
Ensuite, le programme passe à l'étape 508, à laquelle un message est visualisé sur le dispositif de
visualisation 42 pour demander à l'opérateur si les ré-
sultats de la décision prise à l'étape 507, qui sont vi-
sualisés, sont corrects ou non. Si l'opérateur répond à
la demande en introduisant au moyen du clavier 22 un si-
gnal qui indique que les résultats sont incorrects, le programme retourne à l'étape 506 pour répéter la séquence d'opérations comprenant une nouvelle fixation des points de décision "xl" à "x4". Cependant, si l'information qui est introduite à l'étape 508 indique que les résultats de la décision prise à l'étape 507 sont corrects, le
programme passe à l'étape 509.
A l'étape 509, des données concernant les coor-
données relatives des points de décision "xl" à "x4" pour la première configuration de référence, c'est-à-dire des
données concernant la distance à partir du centre de gra-
vité et l'angle par rapport à l'axe d'inertie principal, sont enregistrées en tant que données de position dans la MEV 13. Ensuite, à l'étape 510, les résultats du calcul
(information de blanc/noir) de l'étape 507 sont enregis-
trés en tant que données de référence dans la MEV 13, avec enregistrement simultané du fait que les données concernent le premier article de référence, ce qui achè-
ve le traitement du premier article de référence.
A l'étape 511, on détermine s'il reste ou non dans le plan de visualisation d'image une configuration
de référence qui n'a pas encore été enregistrée. Lors-
qu'il existe une configuration de référence qui n'a pas encore été enregistrée, le programme passe à l'étape
512, à laquelle on sélectionne une configuration de ré-
férence suivante, et le programme retourne ensuite à l'étape 503 pour exécuter ensuite à nouveau les étapes 503 à 510 pour la configuration de référence nouvellement sélectionnée. Ensuite, lorsqu'on détermine à l'étape 511
que toutes les configurations de référence qui sont vi-
sualisées dans le plan de visualisation d'image ont été
enregistrées, le programme 500 se termine.
Lorsque les points de décision "xl" à "x4" pour
la seconde configuration de référence, ou pour toute con-
figuration de référence ultérieure, sont fixés à l'étape 506, les données concernant les coordonnées relatives des points de décision "xl" à "x4" correspondants pour la première configuration de référence sont automatiquement
utilisées; l'opérateur n'a pas besoin de les fixer à nou-
veau.
La figure 26 montre trois configurations de ré-
férence, telles qu'elles sont visualisées dans le plan de
visualisation d'image lorsqu'elles ont toutes été enre-
gistrées, et cette figure montre également des marques et
des symboles similaires à ceux de la figure 25.
Dans le cas o un ensemble de configurations de référence ne peuvent pas être visualisées simultanément dans un seul plan de visualisation d'image, le programme
500 peut être exécuté à nouveau pour un ou plusieurs ar-
ticles de référence en surplus.
L'enseignement portant sur la ou les configura-
tions de référence est ainsi terminé, et le système passe à nouveau dans une condition d'attente d'ordres. Si au moyen du clavier 22, l'opérateur ordonne
au système d'entrer dans un mode d'exécution de recon-
naissance, le programme 600 (figure 22) est exécuté.
Après le démarrage du programme 600, des si-
gnaux à deux niveaux Sb pour une image complète d'un ar-
ticle qui est un candidat pour la reconnaissance, sont écrits à l'étape601 dans la mémoire 32, par transmission par DIA. Les signaux Sb qui sont ainsi écrits sont lus
par le contrôleur de tube cathodique 37 et ils sont ap-
pliqués au moniteur 42, qui visualise une configuration du candidat sur le plan de visualisation d'image, comme
représenté sur la figure 23.
Ensuite, le programme de l'UC 11 passe à l'éta-
pe 602, à laquelle une fenêtre est visualisée dans le
plan de visualisation d'image, sous la dépendance de si-
gnaux qui proviennent du générateur de curseurs 36. La position de la fenêtre visualisée est changée de façon arbitraire par la manoeuvre du manche à balai 23, et une zone de visualisation pour une configuration qui est un candidat pour la reconnaissance, est ainsi établie dans le plan de visualisation d'image. On peut visualiser un
nombre arbitraire de configurations de candidat à l'inté-
rieur de la fenêtre.
Ensuite, à l'étape 603, l'une des configura-
tions de candidat se trouvant à l'intérieur de la fenêtre fixée à l'étape 602 est sélectionnée, et ensuite, à l'étape 604, le centre de gravité de la configuration de candidat sélectionnée à l'étape 603 est calculé, après quoi l'axe d'inertie principal de la configuration de
candidat est calculé à l'étape 605.
A l'étape 606, sous l'effet de signaux prove-
nant des générateurs 35 et 36, un symbole de centre de gravité et un numéro de configuration de candidat sont visualisés au centre de gravité, calculé à l'étape 604, d'une manière similaire à celle qui est représentée sur la figure 25 ou 26. Simultanément, l'axe d'inertie principal qui est calculé à l'étape 605 est visualisé sous la forme d'un segment d'une ligne droite qui s'étend dans la direction de l'axe d'inertie principal,
en partant du symbole de centre de gravité.
A l'étape 607, des données concernant les coordonnées relatives sont lues dans la MEV 13. Sur la base de ces coordonnées relatives et du centre de gravité
ainsi que de l'axe d'inertie principal, calculés aux éta-
pes 604 et 605, on calcule les coordonnées absolues des points de décision "xl" à "x4". A l'étape 608, on calcule à partir des signaux Sb de la mémoire 32 une information de blanc/noir qui constitue des données de candidat pour
les points de décision "xl" à "x4" établis à l'étape 607.
A l'étape 609, les données de candidat qui ont
été calculées à l'étape 608 sont comparées avec les don-
nées de référence enregistrées dans la MEV 13, et un numé-
ro correspondant à la configuration de référence qui cor-
respond aux données de référence les plus proches des don-
nées de candidat est visualisé dans le plan de visualisa-
tion d'image, en tant que résultat de la reconnaissance,
comme représenté sur la figure 27.
Sur la figure 27, les numéros des configurations de candidat sont visualisés du côté gauche, à partir de
la seconde ligne, tandis que les numéros des configura-
tions de référence reconnues sont visualisés du côté droit. Les symboles de centre de gravité "+1" à "+3", les axes d'inertie principaux et les points de décision "xl"
à "x4" sont également visualisés dans le plan de visuali-
sation d'image.
A l'étape 610, on détermine si l'algorithme de
reconnaissance a été accompli ou non pour toutes les con-
figurations de candidat, et dans le cas o l'algorithme
de reconnaissance a été accompli pour toutes les configu-
rations de candidat, comme représenté sur la figure 27, le programme 600 se termine. Cependant, si l'algorithme de
reconnaissance n'a pas été exécuté pour toutes les confi-
gurations de candidat, la configuration de candidat sui-
vante est sélectionnée à l'étape 611, après quoi le pro-
gramme retourne à l'étape 604.
De cette manière, dans le mode de réalisation
présent, on prend une décision relative à une configura-
tion, sur la base de son centre de gravité et de son axe d'inertie principal. On peut donc reconnaître un composant indépendamment de sa position et de son orientation. En outre, du fait qu'on peut fixer librement les points de décision, une prise de décision n'est nécessaire que pour des parties exigées pour la reconnaissance; autrement dit, on peut effectuer de façon rapide des discriminations
précises.
En outre, du fait que la reconnaissance est ba-
sée sur un calcul du centre de gravité et de l'axe prin-
cipal d'un composant, on peut reconnaître plusieurs compo-
sants à la fois.
Si on fixe des points de décision d'une manière symétrique par rapport à l'axe d'inertie principal, ou
par rapport à une ligne normale à l'axe d'inertie princi-
pal et passant par le centre de gravité, on peut effectuer une discrimination entre des faces avant et arrière d'un
composant.
Un quatrième mode de réalisation de l'invention est mis en oeuvre conformément aux programmes 700 et 800 qui sont représentés respectivement sur les figures 28 et 29. Ce mode de réalisation permet la reconnaissance
2 618 81
de l'orientation d'un article candidat ayant une propriété de symétrie, en utilisant par exemple le centre de gravité d'un article candidat en tant que point de référence, et
en utilisant en tant que point de décision un point singu-
lier, vu du point de référence. Au moment de la mise en fonction du système, les
programmes 700 et 800 qui sont enregistrés sur la disquet-
te 900 sont chargés dans la MEV 13 (figures 1 et 2), après
quoi le système entre dans une condition d'attente d'or-
dres.
Si au moyen du clavier 22 l'opérateur ordonne
au système d'entrer dans un mode d'enseignement, le pro-
gramme 700 est exécuté.
Ensuite, après le démarrage du programme 700, à l'étape 701, la caméra 41 capte une image d'un article de référence pour la reconnaissance, après quoi des signaux Sb pour une image complète sont écrits dans la mémoire 32, par accès direct en mémoire (DMA). Les signaux Sb qui sont ainsi écrits sont ensuite lus par le contrôleur de tube cathodique 37, et ils sont appliqués au moniteur 42, dans lequel la configuration de référence est visualisée sur le plan de visualisation d'image, comme représenté sur la
figure 30.
La figure 30 représente,en tant que composant de référence, une configuration de référence noire qui
résulte d'une prise de vue portant sur un composant circu-
laire qui présente une saillie dans l'une de ses parties, et qui est disposé dans une orientation arbitraire. Cette configuration de référence est visualisée avec une forme
similaire dans le plan de visualisation d'image. Le nom-
bre de tels composants de référence (configurations de référence) est évidemment arbitraire et est égal à un
sur la figure 30.
Le traitement passe ensuite à l'étape 702. A
cette étape, s'il y a plusieurs configurations de réfé-
rence, l'une des configurations de référence est sélec-
tionnée conformément à une instruction de l'opérateur.
A l'étape 703, on calcule le centre de gravité de la configuration de référence qui a été sélectionnée à l'étape 702, et des signaux provenant des générateurs 35
et 36 sont appliqués au moniteur 42 de façon qu'un sym-
bole de centre de gravité tel que "+", indiquant la posi-
tion du centre de gravité qui a été calculée à l'étape 703, et un numéro de configuration de référence, tel que "1", soient visualisés d'une manière telle que "+1", à
l'emplacement du centre de gravité dans le plan de visua-
lisation d'image, comme représenté sur la figure 31.
Le programme passe ensuite à l'étape 704, à la-
quelle on fixe les points de décision. Plus précisément, sous l'effet de signaux provenant des générateurs 35 et 36, des curseurs en forme de x et des numéros de points de décision sont visualisés dans le plan de visualisation d'image, comme représenté sur la figure 32. Les positions des curseurs et les numéros de points de décision qui sont visualisés dans le plan de visualisation d'image peuvent être changés arbitrairement par la manoeuvre du
manche à balai 23, de façon à fixer les points de déci-
sion. Dans ce cas, chacun des points de décision est fixé à un point significatif pour la reconnaissance de l'orientation, par rapport à un point de référence qui est défini par le centre de gravité. Dans ce but, dans le
cas de la figure 32, on fixe jusqu'à trois points de dé-
cision "xl" à "x3", de façon que le premier point de dé-
cision "xl" se trouve dans la saillie de la configuration de référence, tandis que les second et troisième points
de décision "x2" et "x3" se trouvent à des positions si-
tuées sur les côtés avant et arrière par rapport au point de décision "xl", dans la direction périphérique de la
configuration de référence.
A l'étape 705, une ligne droite qui relie le centre de gravité "+1" et le premier point de décision "xl." qui a été fixé à l'étape 704, est fixée en tant que
ligne de direction (ligne de référence) indiquant l'orien-
tation de la configuration de référence (composant de ré- férence), et la ligne de direction est visualisée sur le
plan de visualisation d'image.
Cependant, en réalité, à l'étape 704 le point de décision "xl" est fixé de façon que la ligne droite qui relie le centre de gravité "+1" et le point de décision
"xl" définisse une ligne de direction indiquant l'orienta-
tion de la configuration de référence.
Ensuite, le programme passe à l'étape 706, à la-
quelle une information de blanc/noir concernant les points de décision "xl" à "x3", fixés à l'étape 704, est calculée et fait l'objet d'une prise de décision, et les résultats
de cette décision sont visualisés comme le montre la figu-
re 34.
Sur la figure 34, la seconde ligne de l'image
qui est visualisée indique les résultats de la décision.
A la seconde ligne, le premier chiffre à gauche représente le numéro de configuration de référence, et les chiffres allant du second au quatrième indiquent les résultats des décisions prises pour les points "xl" à "x3". Le chiffre "0" dans les positions de chiffres allant de la seconde à la quatrième indique que le point de décision est blanc, tandis que le chiffre "1" indique que le point de décision
est noir.
Ensuite, le programme passe à l'étape 707, à la-
quelle le dispositif de visualisation 42 présente un mes-
sage qui demande à l'opérateur si les résultats de la dé-
cision prise à l'étape 706, ou l'information visualisée, sont corrects ou non. Si l'opérateur répond à la demande
en introduisant par le clavier 22 une information qui in-
dique que les résultats sont incorrects, le programme re-
tourne à l'étape 704 pour répéter la séquence d'opérations comprenant une nouvelle fixation des points de décision "xl" à "x3". Si au contraire l'information introduite à l'étape 707 indique que les résultats de la décision prise à l'étape 706 sont corrects, le programme passe à l'étape 708. A l'étape 708, on fixe des données correspondant
à des coordonnées polaires relatives des points de déci-
sion "xl" à "x3", par rapport au point de référence qui est défini par le centre de gravité de la configuration de
référence, c'est-à-dire des coordonnées polaires rappor-
tées à l'origine qui coincide avec le centre de gravité et l'axe de référence constitué par un axe horizontal passant
par l'origine et qui s'étend vers la droite, et on enre-
gistre en tant que données de position, dans la MEV 13,
des données de distances et d'angles des points de déci-
sion "xl" à "x3". A l'étape 709, les résultats de la déci-
sion (information de blanc/noir) qui est prise à l'étape 706 sont enregistrés en tant que données de.référence dans
la MEV 13, après quoi le programme 700 se termine.
L'enseignement de la configuration de référence ou des configurations de référence est ainsi terminé, et le système entre à nouveau dans une condition d'attente d'ordres. Si au moyen du clavier 22, l'opérateur ordonne au système d'entrer dans un mode de reconnaissance, le
programme 800 est exécuté.
Après le démarrage du programme 800, des signaux à deux niveaux Sb qui constituent une image complète d'un composant qui est un candidat pour le reconnaissance, sont écrits dans la mémoire 32, à l'étape 801, par transmission par DMA. Les signaux Sb qui sont ainsi écrits sont lus par le contrôleur de tube cathodique 37, et ils sont appliqués au moniteur 42 dans lequel une configuration de l'article candidat est visualisée dans le plan de visualisation
d'image, comme représenté sur la figure 30.
Ensuite, le programme de l'UC 11 passe à l'éta-
pe-802, à laquelle une fenêtre est visualisée dans le plan de visualisation d'image, sous l'effet de signaux provenant du générateur 36. La position de la fenêtre qui
est visualisée est changée de façon arbitraire sous l'ef-
fet de la manoeuvre du manche à balai 23, et une zone re-
lative à un objet à reconnaître est ainsi fixée dans le
plan de visualisation d'image. On peut dans ce cas visua-
liser un nombre arbitraire de configurations de candidat
dans la zone de reconnaissance.
A l'étape 803, on sélectionne l'une des confi-
gurations de candidat se trouvant à l'intérieur de la fe-
nêtre qui a été fixée à l'étape 802, et à l'étape 804 on
calcule le centre de gravité de la configuration de can-
didat qui a été sélectionnée à l'étape 803. A l'étape
805, on établit un système de coordonnées relatives rap-
porté au point de référence qui est défini par le centre
de gravité de la configuration de candidat qui a été sé-
lectionnée à l'étape 803. Autrement dit, on établit un système de coordonnées polaires rapporté à l'origine qui
est constituée par le centre de gravité et l'axe de réfé-
rence défini par l'axe horizontal passant par l'origine.
Ensuite, à l'étape 806, les données de posi-
tions qui ont été enregistrées dans la MEV 13 à l'étape 708 sont lues dans la MEV 13 et elles sont appliquées au système de coordonnées qui a été établi à l'étape 805, dans le but de calculer les coordonnées absolues des
points de décision "xl" à "x3". A l'étape 807, une infor-
mation de blanc/noir, c'est-à-dire des données de candi-
dat pour les points de décision "xl" à "x3" qui ont été calculés à l'étape 806, est calculée à partir des signaux
Sb reçus de la mémoire 32.
A l'étape 808, les données de candidat qui ont
été calculées à l'étape 807 sont comparées avec les don-
nées de référence enregistrées dans la MEV 13, et dans le cas o les données de candidat coincident avec les données de référence, le programme passe à l'étape 809, à laquelle on calcule l'angle du point de décision "xl", vu du centre de gravité (angle par rapport à l'axe de référence). L'an- gle qui est ainsi calculé est visualisé dans le plan de visualisation d'image, comme représenté sur la figure 35, en tant que résultat de la reconnaissance de l'orientation
du composant candidat.
Sur la figure 35, les numéros des configurations de candidat sont visualisés du côté gauche d'une image, tandis que les angles reconnus sont visualisés du côté droit. Les symboles de centre de gravité "+1" et "+2" et les lignes de direction sont également visualisés dans le
plan de visualisation d'image.
* A l'étape 810, on détermine si la reconnaissance
a été faite ou non pour toutes les configurations de can-
didat, et si la reconnaissance a été faite pour toutes les configurations de candidat, comme représenté sur la figure 5, le programme 800 se termine. Si la reconnaissance n'a
pas été visualisée pour toutes les configurations de can-
didat, la configuration de candidat suivante est sélec-
tionnée à l'étape 811, après quoi le programme retourne à
l'étape 804.
Si les données de candidat ne coincident pas avec les données de référence à l'étape 808, le programme passe à l'étape 821 à laquelle on détermine si l'angle de l'axe de référence du système de coordonnées polaires pour la configuration de candidat dépasse ou non 360 degrés. Si l'angle de l'axe de référence ne dépasse pas 360 degrés, le programme passe à l'étape 822. A l'étape 822, l'axe de
référence du système de coordonnées polaires pour la con-
figuration de candidat est soumis à une rotation d'un an-
gle prédéterminé de z degrés (de façon que les points de décision "xl" à "x3" subissent une rotation relative de - o< degrés), après quoi le programme retourne à l'étape 806. Une boucle formée par les étapes 806 à 808, 821 et 822 est donc accomplie de façon répétée, et à chaque répétition de la boucle, l'axe de référence subit une ro- tation d'un angle de o degrés, pour changer de - 0< degrés les positions des points de décision "xl" à "x3", autour
de la configuration de candidat.
Lorsque la coïncidence entre les données de candidat et les données de référence est obtenue, l'angle
du point de décision "xl" par rapport à l'axe de référen-
ce, c'est-à-dire l'angle du composant candidat, est vi-
sualisé dans le plan de visualisation d'image à l'étape
809, comme décrit ci-dessus.
Chaque fois que l'angle de l'axe de référence
dépasse 360 à l'étape 821, le dispositif de visualisa-
tion 42 indique à l'étape 831 que la coïncidence entre les données de candidat et les données de référence ne peut pas être obtenue, et le traitement passe ensuite à
l'étape 810.
On peut ainsi reconnaître ou déterminer l'orien-
tation d'un composant candidat.
Les figures 36 et 37 montrent un autre composant et correspondent respectivement aux figures 34 et 35. La figure 36 montre une configuration de référence dans le cas o des points de décision "xl" à "x3" sont fixés pour
un anneau en forme de C; la figure 37 montre la recon-
naissance de l'orientation d'une configuration de candidat.
Les figures 38 et 39 illustrent la lecture de la
position d'une aiguille indicatrice d'un instrument de me-
sure. Comme représenté sur la figure 38, dans le mode d'enseignement, on fixe un point de décision "xl" sur l'aiguille indicatrice, et on fixe des points de décision
"x2" et "'x3" à des positions situées en avant et en arriè-
re du point de décision "xl". Dans le mode de reconnaissan-
ce, l'angle de l'aiguille indicatrice est celui indiqué sur la figure 39. Cependant, dans ce cas, l'origine du
système de coordonnées polaires ne se trouve pas au cen-
tre de gravité du composant, mais est fixéeau point de pivotement ou au centre du mouvement de rotation de l'ai-
guille indicatrice, aux étapes 703 et 804 décrites ci-
dessus.
Le mode de réalisation présentpemet ainsi de dé -
terminer l'orientation dun composant ou d'une pièce qui a une forme générale symétrique par rapport à un point. Du fait que le système de coordonnées relatives est soumis à
une rotation autour d'un point qui coincide avec le cen-
tre de gravité, il est possible de calculer l'orientation avec précision, alors qu'on ne peut pas la calculer par
le procédé de calcul d'axe d'inertie principal, qui repo-
se sur l'approximation avec une ellipse. En outre, du fait que le système de coordonnées relatives est soumis à
une rotation sur un angle de 360 degrés, on peut détermi-
ner l'orientation sur 360 degrés, et on peut également
déterminer le sens avant ou arrière.
En outre, si on fixe l'origine à un point quel-
conque autre que le centre de gravité, on peut obtenir sur une plage étendue un effet qui consiste en ce qu'un point singulier d'un article candidat ne se trouve pas sur une ligne radiale passant par le centre de gravité, ou en ce que la position du centre de gravité varie, et on peut également effectuer une détermination simple dans
le cas, par exemple, d'un système de coordonnées circulai-
res, comme celui de l'instrument de mesure décrit ci-
dessus.
Il va de soi que de nombreuses modifications
peuvent être apportées au dispositif et au procédé dé-
crits et représentés, sans sortir du cadre de l'invention.

Claims (5)

REVENDICATIONS
1. Appareil de reconnaissance d'image destiné à
reconnaître une condition d'un article candidat par rap-
port à une condition de référence, caractérisé en ce qu'il comprend: des premiers moyens de mémoire (32)
destinés à enregistrer une image de référence à deux ni-
veaux; des moyens de visualisation (37, 42) qui sont con-
nectés à la première mémoire (32) pour visualiser l'image de référence; des moyens de sélection (22, 23, 25, 11) qui sont connectés aux premiers moyens de mémoire (32) et
aux moyens de visualisation (37, 42), pour désigner ma-
nuellement un ensemble de points de référence sélection-
nés de l'image de référence; des moyens de détection (11) qui sont connectés aux moyens de sélection (22, 23, 25, 11) pour détecter des niveaux de signal à chacun des points de référence; des seconds moyens de mémoire (13)
qui sont connectés aux moyens de détection (11) pour en-
registrer les niveaux de signal détectés; et des moyens de comparaison (11) qui sont connectés aux seconds moyens
de mémoire (13) pour effectuer une comparaison des ni-
veaux de signal détectés avec des signaux à deux niveaux, à des points qui correspondent aux points de référence,
mais qui sont propres à une image de candidat à deux ni-
veaux qui correspond à un article candidat; cette compa-
raison indiquant une condition de l'article candidat par
rapport à une condition correspondante de l'image de ré-
férence, et les moyens de visualisation (37, 42) visuali-
sant les résultats de la comparaison.
2. Appareil de reconnaissance d'image selon la
revendication 1, caractérisé en ce qu'il comprend en ou-
tre: des moyens d'analyse (41) destinés à analyser un
article candidat et un article de référence, et à produi-
re des signaux d'image correspondants; et des moyens de conversion à deux niveaux (31) qui sont connectés aux moyens d'analyse (41), pour convertir les signaux d'image
de façon à donner les signaux à deux niveaux.
3. Appareil de reconnaissance d'image selon la
revendication 1, caractérisé en ce que les moyens de sé-
lection (22, 23, 25, 11) comprennent des moyens (22, 23) permettant de définir manuellement une première position
absolue et un premier ensemble associé de points sélec-
tionnés, pour désigner une seconde position absolue, et permettant de définir automatiquement, sous la dépendance de cette désignation, un second ensemble associés de
points sélectionnés, les points du second ensemble cor-
respondant respectivement aux points du premier ensemble.
4. Appareil de reconnaissance d'image selon la
revendication 1, caractérisé en ce que les moyens de sé-
lection (22, 23, 25, 11) comprennent des moyens de calcul
(11), destinés à définir un centre de gravité de l'arti-
cle candidat, et les points qui correspondent aux points de référence sont sélectionnés par rapport à ce centre
de gravité.
5. Appareil de reconnaissance d'image selon la
revendication 1, caractérisé en ce que les moyens de sé-
lection (22, 23, 25, 11) comprennent des moyens de calcul (11) destinés à définir un centre de gravité et un axe
d'inertie de l'article candidat, et les points qui cor-
respondent aux points de référence sont sélectionnés par
rapport au centre de gravité et à l'axe d'inertie.
FR8809978A 1987-07-22 1988-07-22 Appareil de reconnaissance d'image Expired - Fee Related FR2618581B1 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP62183019A JPS6426276A (en) 1987-07-22 1987-07-22 Deciding device by binary image processing
JP62200503A JPS6442779A (en) 1987-08-11 1987-08-11 Device for dicriminating pattern by binary image processing
JP62202539A JPS6446164A (en) 1987-08-13 1987-08-13 Identifying device applying binary image processing
JP62202778A JPS6446165A (en) 1987-08-14 1987-08-14 Directivity discriminating device applying binary image processing

Publications (2)

Publication Number Publication Date
FR2618581A1 true FR2618581A1 (fr) 1989-01-27
FR2618581B1 FR2618581B1 (fr) 1994-08-26

Family

ID=27475085

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8809978A Expired - Fee Related FR2618581B1 (fr) 1987-07-22 1988-07-22 Appareil de reconnaissance d'image

Country Status (5)

Country Link
US (1) US5093867A (fr)
CA (1) CA1318977C (fr)
DE (1) DE3825005C2 (fr)
FR (1) FR2618581B1 (fr)
GB (1) GB2207536B (fr)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067379A (en) * 1988-12-09 2000-05-23 Cognex Corporation Method and apparatus for locating patterns in an optical image
US5144683A (en) * 1989-04-28 1992-09-01 Hitachi, Ltd. Character recognition equipment
US5721788A (en) * 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
JP2723118B2 (ja) * 1992-08-31 1998-03-09 インターナショナル・ビジネス・マシーンズ・コーポレイション 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置
US5859923A (en) * 1992-12-29 1999-01-12 Cognex Corporation Mark quality inspection apparatus and method
JP3549569B2 (ja) * 1993-04-27 2004-08-04 ソニー エレクトロニクス インコーポレイテッド 映像内の目標パターン探知方法
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US6983051B1 (en) * 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US6178262B1 (en) * 1994-03-11 2001-01-23 Cognex Corporation Circle location
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
CH690203A5 (de) * 1995-06-12 2000-05-31 Agfa Gevaert Ag Verfahren zum Verarbeiten von belichteten, entwickelten Filmstreifen und Vorrichtung zur Durchführung des Verfahrens.
US6026176A (en) 1995-07-25 2000-02-15 Cognex Corporation Machine vision methods and articles of manufacture for ball grid array inspection
JPH0962840A (ja) * 1995-08-30 1997-03-07 Sony Corp 画像照合方法と画像照合装置
US5808601A (en) * 1995-09-12 1998-09-15 International Business Machines Corporation Interactive object selection pointer method and apparatus
US5872870A (en) * 1996-02-16 1999-02-16 Cognex Corporation Machine vision methods for identifying extrema of objects in rotated reference frames
US5909504A (en) * 1996-03-15 1999-06-01 Cognex Corporation Method of testing a machine vision inspection system
US6298149B1 (en) 1996-03-21 2001-10-02 Cognex Corporation Semiconductor device image inspection with contrast enhancement
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US5978502A (en) * 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
US6137893A (en) * 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US5953130A (en) * 1997-01-06 1999-09-14 Cognex Corporation Machine vision methods and apparatus for machine vision illumination of an object
US6075881A (en) * 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US5974169A (en) * 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US6141033A (en) * 1997-05-15 2000-10-31 Cognex Corporation Bandwidth reduction of multichannel images for machine vision
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
US5978080A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
AU9676298A (en) * 1997-10-01 1999-04-23 Island Graphics Corporation Image comparing system
US6658145B1 (en) * 1997-12-31 2003-12-02 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6025854A (en) * 1997-12-31 2000-02-15 Cognex Corporation Method and apparatus for high speed image acquisition
US6236769B1 (en) 1998-01-28 2001-05-22 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with zero or other uniform offsets
US6282328B1 (en) 1998-01-28 2001-08-28 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with non-uniform offsets
US6215915B1 (en) 1998-02-20 2001-04-10 Cognex Corporation Image processing methods and apparatus for separable, general affine transformation of an image
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6256409B1 (en) 1998-10-19 2001-07-03 Sony Corporation Method for determining a correlation between images using multi-element image descriptors
US6445834B1 (en) 1998-10-19 2002-09-03 Sony Corporation Modular image query system
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6674915B1 (en) * 1999-10-07 2004-01-06 Sony Corporation Descriptors adjustment when using steerable pyramid to extract features for content based search
US6326547B1 (en) * 1999-11-02 2001-12-04 Compaq Computer Corporation Cable management system
US6999614B1 (en) * 1999-11-29 2006-02-14 Kla-Tencor Corporation Power assisted automatic supervised classifier creation tool for semiconductor defects
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
US7474787B2 (en) * 1999-12-28 2009-01-06 Minolta Co., Ltd. Apparatus and method of detecting specified pattern
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US6606403B2 (en) * 2000-05-04 2003-08-12 Daniel Freifeld Repetitive inspection system with intelligent tools
JP3764364B2 (ja) * 2000-10-31 2006-04-05 株式会社東芝 画像特徴点検出方法、画像処理方法、及びプログラム
US7006669B1 (en) 2000-12-31 2006-02-28 Cognex Corporation Machine vision method and apparatus for thresholding images of non-uniform materials
US6859677B2 (en) * 2001-10-25 2005-02-22 International Truck Intellectual Property Company, Llc Assembly verification method and inspection system
US7283659B1 (en) 2002-01-09 2007-10-16 Kla-Tencor Technologies Corporation Apparatus and methods for searching through and analyzing defect images and wafer maps
KR20040100422A (ko) * 2003-05-23 2004-12-02 삼성전자주식회사 이동체의 상태 감지장치 및 그 방법
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) * 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
US7639861B2 (en) 2005-09-14 2009-12-29 Cognex Technology And Investment Corporation Method and apparatus for backlighting a wafer during alignment
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US8162584B2 (en) * 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
US9168104B2 (en) * 2008-06-23 2015-10-27 John Richard Dein Intra-operative system for identifying and tracking surgical sharp objects, instruments, and sponges
EP2159781A1 (fr) * 2008-08-28 2010-03-03 Continental Automotive GmbH Procédé et dispositif pour reconnaître au moins un symbole affiché en tant que matrice de points
US8260055B2 (en) * 2009-03-27 2012-09-04 The Nielsen Company (Us), Llc Methods and apparatus for identifying primary media content in a post-production media content presentation
US8341558B2 (en) * 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
US8925024B2 (en) 2009-12-31 2014-12-30 The Nielsen Company (Us), Llc Methods and apparatus to detect commercial advertisements associated with media presentations
CN105260733A (zh) * 2015-09-11 2016-01-20 北京百度网讯科技有限公司 用于处理图像信息的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2531744A1 (de) * 1975-07-16 1977-02-03 Fraunhofer Ges Forschung Sensoren zur erfassung bekannter dreidimensionaler koerper in beliebiger lage
DE3303841A1 (de) * 1982-02-05 1983-08-18 Fuji Electric Co., Ltd., Kawasaki, Kanagawa Musterpruefeinrichtung
DE3234608A1 (de) * 1982-09-16 1984-03-22 Kraft, Hans Rainer, Dr.-Ing., 1000 Berlin Verfahren und schaltungsanordnung zur erzeugung einer lageunabhaengigen objektsignatur

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3321637A (en) * 1965-08-12 1967-05-23 Rca Corp Check circuit for optical reader employing threshold amplifier
US3614736A (en) * 1968-05-21 1971-10-19 Ibm Pattern recognition apparatus and methods invariant to translation, scale change and rotation
FR2100346A5 (fr) * 1970-07-14 1972-03-17 Honeywell Inf Systems Italia
GB1327325A (en) * 1970-10-07 1973-08-22 Ibm Logical decision tree desing
US4034343A (en) * 1976-10-01 1977-07-05 Xerox Corporation Optical character recognition system
US4628353A (en) * 1984-04-04 1986-12-09 Chesebrough-Pond's Inc. Video measuring system
JPH0679325B2 (ja) * 1985-10-11 1994-10-05 株式会社日立製作所 位置姿勢判定方法
DE3686051T2 (de) * 1985-11-27 1992-12-17 Univ Boston Mustererkennungssystem.
JPS62267610A (ja) * 1986-05-16 1987-11-20 Fuji Electric Co Ltd 対象パタ−ンの回転角検出方式

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2531744A1 (de) * 1975-07-16 1977-02-03 Fraunhofer Ges Forschung Sensoren zur erfassung bekannter dreidimensionaler koerper in beliebiger lage
DE3303841A1 (de) * 1982-02-05 1983-08-18 Fuji Electric Co., Ltd., Kawasaki, Kanagawa Musterpruefeinrichtung
DE3234608A1 (de) * 1982-09-16 1984-03-22 Kraft, Hans Rainer, Dr.-Ing., 1000 Berlin Verfahren und schaltungsanordnung zur erzeugung einer lageunabhaengigen objektsignatur

Also Published As

Publication number Publication date
US5093867A (en) 1992-03-03
GB8817068D0 (en) 1988-08-24
FR2618581B1 (fr) 1994-08-26
GB2207536B (en) 1991-09-04
DE3825005C2 (de) 1999-11-18
CA1318977C (fr) 1993-06-08
DE3825005A1 (de) 1989-02-02
GB2207536A (en) 1989-02-01

Similar Documents

Publication Publication Date Title
FR2618581A1 (fr) Appareil de reconnaissance d&#39;image
KR101961215B1 (ko) 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법
US5081689A (en) Apparatus and method for extracting edges and lines
US6778703B1 (en) Form recognition using reference areas
KR100292564B1 (ko) 위치검출장치및방법
CN110766095B (zh) 基于图像灰度特征的缺陷检测方法
JP6575609B2 (ja) 運動するボールに対するセンシング装置及びセンシング方法
EP1844425B1 (fr) Detection d&#39;image en temps reel au moyen de donnees de polarisation
US5953452A (en) Optical-digital method and processor for pattern recognition
JP2001101429A (ja) 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体
CN110533686A (zh) 线阵相机行频与物体运动速度是否匹配的判断方法及系统
US20020064299A1 (en) Method for identifying an object image
JPH0719814A (ja) メータ指示読取装置
JP2700440B2 (ja) 物品識別システム
JP2007241477A (ja) 画像処理装置
CN112150508B (zh) 一种目标追踪方法、装置及相关设备
KR101932525B1 (ko) 운동하는 객체의 위치 정보를 산출하기 위한 센싱장치 및 이를 이용한 센싱방법
JPH0721388A (ja) 画像認識装置
US10922842B1 (en) System and method for machine vision feature detection and imaging overlay
JP3230111B2 (ja) 自動キャリブレーション装置
JPH07282266A (ja) 物品識別システム
JPH07146937A (ja) パターンマッチング方法
JP2569543B2 (ja) 硬度計
CA2230197C (fr) Detection de l&#39;orientation des copeaux
JPH11120362A (ja) 画像処理装置及び方法並びに判定基準設定プログラムを記録した機械読み取り可能な記録媒体

Legal Events

Date Code Title Description
ST Notification of lapse