FR2620545A1 - Procede et appareil de generation d'une pluralite de parametres d'un objet dans un champ de visee - Google Patents

Procede et appareil de generation d'une pluralite de parametres d'un objet dans un champ de visee Download PDF

Info

Publication number
FR2620545A1
FR2620545A1 FR8810864A FR8810864A FR2620545A1 FR 2620545 A1 FR2620545 A1 FR 2620545A1 FR 8810864 A FR8810864 A FR 8810864A FR 8810864 A FR8810864 A FR 8810864A FR 2620545 A1 FR2620545 A1 FR 2620545A1
Authority
FR
France
Prior art keywords
pixel
representation
value
image
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR8810864A
Other languages
English (en)
Inventor
Harvey Lee Kasdan
John Liberty
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iris International Inc
Original Assignee
International Remote Imaging Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Remote Imaging Systems Inc filed Critical International Remote Imaging Systems Inc
Publication of FR2620545A1 publication Critical patent/FR2620545A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

La présente invention concerne un procédé et un appareil pour produire une pluralité de paramètres de l'objet dans un champ de visée 18. Une image électrique du champ de visée est formée 12, 14, 16. L'image électrique est traitée pour former une pluralité de représentations différentes de l'image électrique, chaque représentation correspondant à un paramètre différent du champ de visée. L'information de position qui représente les frontières de l'objet est générée. En réponse à cette information de position, des emplacements correspondant dans chacune des différentes représentations sont tracés. Les différents paramètres de chacune des différentes représentations sont calculées tandis que les emplacements sont tracés dans chacune des différentes représentations.

Description

PROCEDE ET APPAREIL DE GENERATION D'UNE PLURALITE DE
PARAMETRES D'UN OBJET DANS UN CHAMP DE VISEE
La présente invention concerne un procédé et un appareil pour générer une pluralité de paramètres d'un objet dans un champ de visée, et plus particulièrement un procédé et un appareil dans lesquels une pluralité de paramètres d'un objet dans un champ de visée est déterminée en réponse à des informa-
tions de position représentant la frontière de l'objet fourni.
Une analyse d'image microscopique est bien connue dans la technique. Voir, par exemple, le brevet des Etats-unis d'Amérique n 4 097 845. Le but de l'analyse d'image est de déterminer les caractéristiques particulières des objets dans le champ de visée. En particulier, dans le cas d'analyse d'image d'échantillons microscopiques tels que des biopsies, du sang ou de l'urine, il est très souhaitable de déterminer les propriétés des particules dans le champ de visée telles que: la surface, la densité, la forme, etc. Toutefois, pour déterminer les paramètres particuliers des particules dans le champ de visée, les frontières
des particules doivent d'abord être localisées.
Dans le brevet des Etats-Unis d'Amérique n 4 097 845, un procédé de localisation des frontières de particules est
décrit en utilisant la technique des "voisins des voisins".
Le brevet des Etats-Unis d'Amérique n 4 060 713
décrit également un appareil pour traiter des données bi-dimen-
sionnelles. Dans ce document, une analyse des six plus proches
voisins d'un élément est effectuée.
Le brevet des Etats-Unis d'Amérique n 4 538 299 décrit encore un autre procédé pour localiser les frontières d'une
particule dans le champ de visée.
Une machine d'analyse d'urine fabriquée et vendue par la société International Remote Imaging Systems, Inc., sous la marque déposée Yellow Iris, a utilisé les enseignements du brevet 4 238 299 pour localiser les frontières d'une particule et déterminer ensuite la surface de la particule. Toutefois le Yellow Iris utilisait les informations de position de la frontière
d'une particule pour déterminer un seul paramètre de la particule.
En outre, le Yellow Iris ne produisait pas de représentation du paramètre de surface dans le champ de visée qui soit séparée et distincte de l'image contenant la représentation qui correspond
aux frontières de la particule.
Un procédé et un appareil est prévu pour produire
une pluralité de paramètres de l'objet dans un champ de visée.
L'appareil comprend des moyens de formation d'image pour former une image électrique du champ de visée. Des moyens sont prévus pour segmenter l'image électrique pour former une pluralité de représentations différentes de l'image électrique dans laquelle chaque représentation différente est une représentation d'un paramètre différent du champ de visée. Des moyens de génération fournissent les informations de position qui représentent les frontières de l'objet. Des moyens de tracés localisent les positions dans chacune des représentations différentes en réponse aux informations de position produites. Enfin, des moyens de calcul fournissent les différents paramètres pour chacune des différentes représentations sur la base de l'emplacement tracé
dans chacune des représentations différentes.
Ces objets, caractéristiques et avantages ainsi que d'autres de la présente invention seront exposés plus en détail
dans la description suivante de modes de réalisation particuliers
faite en relation avec des figures jointes parmi lesquelles: la figure 1 est un schéma sous forme de blocs d'un système de formation d'image selon la présente invention; la figure 2 est un schéma sous forme de blocs du processeur d'image vidéo du système de formation d'image selon la présente invention, représenté avec une pluralité de modules, et une pluralité de bus de données; la figure 3 est un schéma sous forme de blocs de la partie de chaque module du processeur d'image vidéo avec des moyens de communication et des moyens de commande logique pour interconnecter un ou plusieurs des bus de données au module; la figure 4 est un schéma de détail de circuit d'un mode de mise en oeuvre du module logique représenté en figure 3; les figures 5a à 5c sont des schémas sous forme de blocs de diverses configurations possibles connectant les modules aux bus de données; la figure 6 est un schéma sous forme de blocs d'un autre mode de réalisation d'un processeur d'image vidéo représenté avec une pluralité de bus de données qui peuvent- être commutés électroniquement; la figure 7 est un schéma sous forme de blocs de la partie du processeur d'image vidéo représentée en figure 6 montrant-le module logique et un module de décodage d'adresse et des moyens de communication pour commuter électroniquement les bus de données du processeur d'image vidéo représenté en figure 6; les figures 8a à 8c représentent divers modes de réalisation possibles en tant que résultat de la commutation des bus de données du processeur d'image vidéo représenté en figure
6;
la figure 9 est un schéma de détail de circuit d'une partie du module de commutation et de logique du processeur d'image vidéo représenté en figure 6; la figure 10 est un schéma sous forme de blocs du module de processeur vidéo du processeur d'image vidéo représenté en figure 2 ou 6; la figure 11 est un schéma sous forme de blocs du module de mémoire d'image du processeur d'image vidéo représenté en figure 2 ou 6; la figure 12 est un schéma sous forme de blocs d'un module de processeur morphologique du processeur d'image vidéo représenté en figure 2 ou 6 la figure 13 est un schéma du contrôleur graphique du processeur d'image vidéo représenté en figure 2 ou 6; la figure 14 est un schéma sous forme de blocs du contrôleur maitre du processeur d'image vidéo représenté en figure 2 ou 6; la figure 15 est un schéma de circuit d'un autre mode de mise en oeuvre de module logique; la figure 16 est un exemple d'image numérisée du champ de visée dans laquelle est contenue une particule; la figure 17 est un exemple de l'image électrique représentée en figure 16 traitée pour former une représentation de l'image électrique qui est représentative de la surface du champ de visée; la figure 18 est un exemple de l'image électrique représentée en figure 16 traitée pour former une représentation de l'image électrique qui est une représentation de la densité optique intégrée du champ de visée; la figure 19 est un exemple de l'image électrique représentée en figure 16 traitée pour former une première représentation contenant la frontière de l'objet dans le champ de visée, selon le procédé décrit dans le brevet des Etats-Unis d'Amérique n 4 538 299; la figure 20 est un exemple du calcul de la surface de l'objet dans le champ de visée de l'écran représenté en figure 16 selon le procédé de la présente invention; et la figure 21 est un exemple de calcul de la densité
optique intégrée de l'objet dans le champ de visée de l'exem-
ple représenté en figure 16 selon le. procédé de la présente
invention.
La figure 1 représente un système de formation d'image 8 selon la présente invention. Le système de formation d'image 8 comprend un processeur d'image vidéo 10 qui reçoit des
signaux vidéo analogiques en provenance d'une caméra couleur 12.
La caméra couleur 12 est optiquement reliée à un amplificateur d'image à fluorescence 14 qui reçoit à travers un microscope 16 l'image focalisée d'un étage 18. Une source d'éclairement 20 fournit le rayonnement électromagnétique nécessaire. Le processeur d'image vidéo 10 communique avec un ordinateur hôte 22. En outre, l'ordinateur hôte 22 contient un logiciel 24 qui y est
mémorisé pour le faire fonctionner. Enfin, un dispositif d'af-
fichage couleur 26 reçoit la sortie du processeur d'image vidéo 10. Il y a plusieurs utilisations du processeur d'image vidéo 10. Dans le mode de réalisation représenté en figure 1, le -système de formation d'image 8 est utilisé pour analyser des spécimens biologiques, par exemple un produit de biopsie ou les constituants du sang. Le spécimen biologique est monté sur une lame et est placé sur l'étage 18. L'image vidéo de la lame, telle que prise par la caméra couleur 12 à travers le microscope 16 est traitée par le processeur d'image vidéo, Dans le mode de réalisation particulier décrit, l'ordinateur hôte 22 est un microprocesseur Motorola 68000 et communique avec le processeur d'image vidéo 10 selon la présente invention par un bus Q. Le bus Q correspond à un protocole de communication standard développé par la société dite Digital
Equipment Corporation.
Comme cela est représenté en figure 2, le processeur d'image vidéo 10 comprend un contr3leur maitre 30 et une pluralité de modules numériques électroniques. En figure 2 sont représentés une pluralité de modules de processeur: un processeur vidéo 34, un processeur de commande graphique 36, un processeur morphologique , et une pluralité de modules de mémoire d'image: des modules de mémoire d'image 38a, 38b et 38c. Les modules de mémoire d'image
mémorisent des données-qui sont représentatives des images vidéo.
Les modills de processeur traitent les données ou les images vidéo. Le contrôleur maître 30 communique avec chacun de la
pluralité de modules numériques (34, 36, 38 et 40) par l'intermé-
diaire d'un bus de commande 32. En outre, les divers modules numériques (34, 36, 38 et 40) communiquent les uns avec les
autres par une pluralité de bus de données 42.
Dans le processeur diinaga vidéo 10, le contrôleur maitre 30 commande le fonctionnement de chacun de la pluralité de modules numériques (34, 36, 38 et 40) en faisant passe,- des
s-gnaux de commande le long du bus de commande module 32.
Le bus 32 comprend une pluralité de lignes. Le bus 32 comprend 8 Lignes de bits pour l'adr-ssage, 16 lignes de bits pour les données, 4 Lignes de bits pour la commande, 1 ligne pour la synchronisation verticale et 1 ligne pour la 3ynchronisation hor:izontale. En outre, il existe de nombreilse:; lignes d'alimenta- tion et de masse. Les 4 bits de commande comprennent un signal d'horloge (CLOCK) et des signaux ADAV, CMD et WRT (la fonction de
ces signaux de commande sera décrite ci-après).
La pluralité de bus de données 42 qui interconnecte les module3 (34, 36, 3:3 et 40) les uns aux autres, comprend neuf bus de données d'une étendue de 8 bits 42. Les neuf bus de données 42 sont désignés par 42A, 42B, 42C, 42D, 42E: 42F, 42G, 42H, et
42I, resoec;:iement.
Dans chaque module (34, 36, 38, et 40), se trouve un moyen de comiunlcation 54. En outre, dans chaque module se trouve un moyen d'unité logique 52 qui répond aulx signaux de comilande sur le bus de comî;ande 32 pour connecter les moyens de comlunication
534 de chaque module à un ou plusieurs des bus de données 42.
La figure 3 représente un schéma sous forme de blocs de la partie de chacun des m.odules qui répond aux signaux:l1e conmande sur le bus de commande 32 pour interconnecte: un ou plusieurs des bus de données 42 aiux moyens de communication 54 dans chacun des modules. Un circuit de décodage d'adresse 50 est représente en figure 3. Le circuit de décodage d'adresse 50 est coinecté aux huit lignes d'adresse du bus de commande 32. Le circuit -le décodage d'adresse 50 fournit également un signal 56 qui active son unit4 logique associ.4e 52. Puisque chaque unité logique 52 a une adresse spécifiques, si les lignes d'adresse présentes sur
1e décodeur d'adresse 50 s'adapteht à l'adresse de cette un.t-
logique particulière 52, le décodeur d'adresse 50 enverra un signal 56 pour activer cette unité logique 52. Dans chaque modul'.e, il peut y avoir plusieurs un.tés logiques 52 chacune étant associée à un décodeur d'adresse 50. Chacune de la pluralité d'anités logiques
52 peut réaliser différentes tâches.
D'unité logique 52 reçoit les 16 bits de données en provenance des 16 bits de la partie de données du bus de commande 32. En outre, l'unité logique 52 peut également être connectée aux quatre lignes de commande CLOCK, ADAV, CMD, WRT, comme cela a été décrit précédemment, du bus de commande 32 et de synchronisation verticale et horizontale. L'unité logique 52 commandera alors le fonctionnement d'une pluralité d'émetteurs/récepteurs à trois états 54A, 54B, 54C, 54D, 54E, 54F, 54G et 54I. On notera qu'il y a huit émetteurs/récepteurs individuels à trois états 54 pour le groupe d'émetteurs/récepteurs à trois états 54A, et huit émetteurs/ récepteurs individuels à trois états pour le groupe d'émetteurs/ récepteurs à trois états 54B, etc. La fonction des émetteurs/ récepteurs à trois états 54 est de connecter un ou plusieurs des bus de données 42A à des fonctions dans le module dont l'unité logique 52 et le circuit de décodage d'adresse 50 font partie. En outre, dans le module, un commutateur de point de croisement 58 peut être connecté à toutes les sorties des émetteurs/récepteurs à trois états 54 et multiplexer la pluralité d'émetteurs/récepteurs
à trois états 54 sur un bus unique 60 d'une étendue de 8 bits.
La figure 4 représente un exemple simplifié et simpliste du décodeur d'adresse 50, de l'unité logique 52 et de l'un du groupe d'émetteurs/récepteurs 54A servant d'interconnexion avec le bus 42A. Comme cela a été exposé précédemment, les huit lignes de signal d'adresse du bus de commande 32 sont founies au décodeur d'adresse 50. Si l'adresse fournie sur les lignes d'adresse du bus de commande 32 décode convenablement l'adresse de l'unité logique 52, le décodeur d'adresse 50 envoie un signa'l 56 à niveauhaut.qui est fourni à l'unité logique 52. Le circuit de
décodage d'adresse 50 peut être de conception classique.
L'unité logique 52 comprend deax portes ET 62A et 62B dont les sorties sont connectées à des bascules J-K 64A et 64B, respectivement. Les portes ET 62A et 62B reçoivent à l'une de leurs entrées le signal de commande 56 en provenance du décodeir d'adresse 50. L'autre entrée vers les portes ET 62A et 62B proviennent des lignets de données du bus de comiande 32. Si te décodeur d'adresse 50 détrmnine que l'unité logique 52 doit être activée, comme cela est déterminé par la prrsence de l'adresse correcte sur les lignes d'adresse du bu; de commande 32, 1_ signal de corunannde 56 passant à niveauhaut autorise l'introduction dans l=s bascules 64A et 64B des données présente-3 sur les lignes de données du bus de commande 32. Les sorties des bascule-3 J-K 64A et 64B sont utilisées pour commander les huit émetteirs/récepteurs à trois états 54.A 0... 54A7. Chacun des huit émetteurs/récepteurs à trois états i l'une de ses bornes connectée à l'un des hu.t trajets de communication de bits du bus 42A. L'autre borne de chacun de3 1) émetteurs/récepteurs à trois états 54A est connect4e à des
éléments électroniques dans le module.
Les émetteurs/récepteurs à trois états 54A, comme
leur nom le suggère, possèdent trois états. Les émetteurs/récep-
taurs 54A peuvent assurer une communication avec le bus de dornées 42A. Les émetteurs/récepteurs à trois états 54A peuvent assurer
une communication de données en provenance du bus de données 42A.
En outre, les êmetteu-s/r-cepteurs à trois états 54A peuvent être à l'état ouve.t auquel cas aucune communication ne prend place en
direction ou en provenance du bus de données 42A. A titre d'exem-
2) ple, les émetteurs/réceptaurs à trois états 54A peuvent être des composants fabriques par la sociité dite Texas Instruments sous l'appellation 74AS620. Ces émetteurs/récepteurs à trois états 54A reçoivent deu:x entrées. Si les entrées présentent la combinaison
0-1, elles indLquienit une communication dans une première direc-
tion. Si las émetteurs/réceptears à trois états reçoiven;: les entrées 10, ils indiquent une communication en sens opposé. Si las 4metteurs/récepteurs à trois états 54A reçoivent 0-0 sur les deux lignes d'entrées, alors las émetteurs/récepteurs à trois états 54A sont à l'état ouvert. Puisque les émetteurs/récepteurs à tro:s
états 54A i... 54A7 sont tous commutés de la même façon, c'est-à-
dire que ou bien toutes les huit lignes sont connectées au bus de données 42A ou bien aucune ne l'est, les sorties des bascules 64A
et 64B sont utilisées pour commander les huits émetteus/récep-
teurs pour étab'lir une interconnexion avec l'un des bu!; de données. L'unité lDgi.qie 52 peut également comprendre d'autres bascules et portes de comiaide- pour commander d'autres metteurs/ récepteurs à trois états qui sont rassemblés par groupe de huit pour regrouper la commutation de la sélection de connexion vers un
ou plusieurs des autres bus de données 42.
Comme l'interconnexion d'un ou plusieurs des bus de données 42 vers un ou plusieurs de la pluralité de modules (34, 36, 38 et 40) se fait sous la commande du bus de commande 32, les trajets de données pour la connexion des bus de données 42 (A-I)
peuvent être reconfigurés de façon dynamique.
La figure 5a représente une configuration possible
avec les bus de données reconfigurables de façon dynamique 42.
Puisque chaque bus de données 42 a une étendue de 8 bits, la pluralité de modules (34, 36, 38 et 40) peut être connectée pour recevoir des données de deux bus de données (par exemple 42 A et 42B) simultanément. Ceci constitue un traitement de données dans le mode parallèle dans lequel 16 bits de données sont traités simultanément le long du bus de données. Ainsi, les bus de données 42 peuvent être regroupés pour augmenter la largeur de bande de la
transmission de données.
La figure 5b représente une autre configuration possible des bus de données 42. Dans ce mode de fonctionnement, le module 34 peut transmettre des données sur le bus de données 42A vers le module 36. Le module 36 peut communiquer des données avec le module 38 par le bus de données 42B. Enfin, le module 38 peut communiquer avec le module 40 par le bus de données 42C. Dans ce mode de fonctionnement, qui est appelé traitement pipeline, les données peuvent circuler d'un module à un autre séquentiellement ou simultanément puisque les données circulent sur des bus de données
séparés et Spécifiques.
La figure 5c représente encore une configuration possible des bus de données 42. Ce mode de fonctionnement est appelé macro-entrelaçage. Si, par exemple, le module 34 peut traiter ou émettre des données plus vite que les modules 36 ou 38 ne peuvent les recevoir, le module 34 peut envoyer tout multiplet de données impair au module 36 sur le bus de données 42A et tout multiplet de données pair sur le bus 42B vers le module 38. De cette façon, des données peuvent être mémorisées et traitées à la cadence du module le plus rapide. Ceci se différencie de l'art antérieur dans lequel une pluralité de modules doit être actionnée
à la vitesse du module le plus lent.
Ainsi, comme on peut le voir à partir des exemples représentés en figures 5a à 5c, avec une structure de bus de données reconfigurable de façon dynamique, plusieurs trajets de transmission de données, incluant ceux représentés en figures 5a à c, mais non limités à ceux-ci, peuvent être reconfigurés de façon
dynamique et électronique.
La figure 6 représente un autre mode de réalisation d'un processeur d'image vidéo 110 selon la présente invention. Le processeur d'image vidéo 110, similaire au processeur d'image vidéo comprend un contrôleur maître 130 et une pluralité de modules numériques 134, 136 (non représentés), 138 (A-B) et 140. Ces modules, similaires aux modules 34, 36, 38 et 40, réalisent les tâches respectives de traitement d'image et de mémorisation d'image. Le contrôleur maître 130 communique avec chacun des modules par l'intermédiaire d'un bus de commande 132. Chacun des modules de commande 134-140 est également connecté aux autres par une pluralité de bus de données 42A-42I. De façon similaire au processeur d'image vidéo 10, il y a neuf bus de données, chaque bus
ayant une étendue de 8 bits.
La seule différence entre le processeur d'image vidéo et le processeur d'image vidéo 10 est que, le long de chaque bus de données 42 est interposé un moyen de commutation 154 commandé par une unité logique 152 qui est activée par un circuit de décodage d'adresse 150. Ceci est représenté plus en détail en figures 7 et 9. Comme on peut le voir à partir de la figure 6, les moyens de commutation 154A... 154I sont interposés entre le module de mémoire d'image 138A et le module de mémoire d'image 138B. Ainsi, les moyens de communication 154A... 154I, divisent les bus de données 42A... 42I en deux parties: la première partie comprenant le module de processeur vidéo 134 et le module de
mémoire d'image 138A; et la deuxième partie comprenant le proces-
seur morphologique 140 et le second module de mémoire d'image 138B. Les moyens de commutation 154 peuvent ou bien relier une partie du bus de données 42A à l'autre partie ou bien laisser le bus de données ouvert, c'est-à-dire que le bus de données est partagé.
Les figures 8a à 8c représentent diverses configu-
rations de structure de bus de données possibles qui résultent de
l'utilisation des moyens de commutation 154A-154I.
La figure 8a représente neuf bus de données 42A-42I dans lesquels les moyens de commutation 154A, 154B et 154C relient les bus de données 42A, 42B et 42C selon un bus de données continu. Toutefois, les moyens de commutation 154D... 154I sont laissés à la position ouverte, partageant ainsi les bus de données 42D... 42I en deux parties. Dans ce mode de fonctionnement, un traitement parallèle peut survenir simultanément en utilisant les bus de données 42D... 42I par les modules 134 et 138 et par les modules 138 et 140. En outre, un traitement série ou pipeline peut
survenir le long des bus de données 42A... 42C. Comme précédem-
ment, avec les moyens de commutation 154A... 154I, sélectionnables dynamiquement, un traitement parallèle complet, comme cela est représenté en figure 8b ou un traitement pipeline complet comme cela est représenté en figure 8c sont également possibles. En outre, bien sûr, d'autres configurations comprenant, sans limitation, la configuration de macroentrelacement de la figure 5c
sont également possibles.
La figure 7 représente un schéma bloc des circuits
électroniques utilisés pour commander les bus de données 42A...
42I du processeur d'image vidéo 110. Comme cela a été exposé précédemment, un moyen de commutation 154 est interposé entre deux moitiés de chacun bus de données 42. A la figure 7 sont représentés le moyen de commutation 154A interposé dans le bus de données 42A et le moyen de commutation 154I interposé dans le bus de données 42I. Chacun des moyens de commutation 154 est commandé par l'unité logique 152 qui est activée par le circuit de décodage d'adresse 150. De même que le circuit de décodage d'adresse 50, le circuit de décodage d'adresse 150 est connecté aux huit lignes d'adresse du bus de commande 132. Si l'adresse correcte est détectée, le signal de commande 156 est envoyé à l'unité logique 152. Le signal de commande 156 active l'unité logique 152 qui active elle-même un ou
plusieurs des moyens de commutation 154.
La figure 9 représente un schéma de circuit détaillé mais simpliste de l'unité logique 152 et du moyen de commutation 154A. Comme on peut le voir, l'unité logique 152 est identique à l'unité logique 52. Le moyen de commutation 154 (un émetteur/ récepteur à trois états) connecte une moitié de l'une des lignes de bus à l'autre moitié de la ligne de bus 42. Sous tous leurs autres aspects, le fonctionnement du moyen de commutation 154, de l'unité logique 152, du circuit de décodage d'adresse 150, est identique à celui représenté et décrit en relation avec le circuit de décodage d'adresse 50, l'unité logique 52 et les moyens de
commutation 54.
Comme cela a été exposé précédemment, les bus de données reconfigurables 42 connectent les uns aux autres la pluralité de modules (34, 36, 38 et 40). Les modules comprennent une pluralité de modules de processeur et une pluralité de modules mémoire. A l'exception des moyens de communication, de l'unité de logique et du circuit de décodage d'adresse, le reste du circuit -20 électronique de chaque module de traitement ou de mémorisation de données peut être de conception classique. L'un des modules de
processeur 34 est le module de processeur vidéo.
Le module de processeur vidéo 34 est représenté en figure 10. Le processeur vidéo 34 reçoit trois signaux analogiques en provenance de la caméra couleur 12. Les trois signaux vidéo analogiques, comprenant des signaux représentatifs des images rouge, verte et bleue, sont traités par un circuit analogique de restauration de niveau continu 60. Chacun des signaux résultants est ensuite numérisé par un numériseur (A/D) 62. Chacun des trois
signaux vidéo numérisés est le signal vidéo analogique en pro-
venance de la caméra couleur 12, segmenté pour former une pluralité de pixels d'image, chaque pixel d'image étant numérisé pour former une valeur d'échelle de luminance à 8 bits. Des signaux vidéo numérisés sont fournis à un commutateur matriciel à points de croisement 6 x 6, 64, qui fournit les trois signaux vidéo
numérisés sur 3 des 6 bus de données 42A-42F.
A partir des bus de données 42A-42F, les signaux vidéo numérisés peuvent être mémorisés dans un ou plusieurs des modules de mémoire d'image 38A38C. La sélection d'un module de mémoire d'image particulier 38A-38C pour mémoriser les signaux vidéo numérisés est réalisée par le circuit de décodage d'adresse
connecté à l'unité logique 52 qui active les émetteurs/récep-
teurs particuliers à trois états 54, qui sont tels que précédemment décrits. La sélection du bus de données 42 dont les images vidéo numérisées vont être envoyées est basée sur des registres dans
l'unité logique 52 qui sont établis par le bus de commande 32.
Chacun des modules de mémoire 38 contient trois mégamultiplets de mémoire. Les trois mégamultiplets de mémoire sont en outre divisés en trois plans mémoire: un plan supérieur, un plan intermédiaire et un plan inférieur. Chaque plan mémoire comprend 512 x 2048 multiplets de mémoire. Ainsi, il y a environ
un mégamultiplet de mémoire par plan mémoire.
Puisque chaque image vidéo numérisée est mémorisée dans un espace mémoire de 256 x 256 multiplets, chaque plan mémoire a de la place pour 16 images vidéo. Au total, un module mémoire a de la place pour mémoriser 48 images vidéo. L'adresse de la sélection de l'image vidéo particulière en provenance du plan mémoire particulier dans chaque module mémoire est fournie sur le bus de commande 32. Quand les données sont fournies à chaque module mémoire 38 ou en sont reçues, par les bus de données 42, elles sont fournies ou reçues à partir des emplacements spécifiés par l'adresse établie sur le bus de commande 32. Les trois images vidéo numérisées en provenance du processeur vidéo 34 sont mémorisées, en général, au même emplacement d'adresse dans chacun des plans
mémoire de chaque module mémoire.
Ainsi, le signal vidéo numérique représentatif de l'image vidéo rouge peut être mémorisé à l'emplacement d'adresse de départ x = 256, y = 0 du planmémoire supérieur; le signal numérisé représentatif de l'image vidéo bleue peut être mémorisé à l'emplacement x = 256, y = 0 du plan mémoire intermédiaire; et le signal vidéo numérique représentatif de l'image vidéo verte peut être mémorisé à l'emplacement x = 256, y = 0 du plan mémoire inférieur.
Une fois que les signaux vidéo numériques représenta-
tifs des images vidéo numérisées sont mémorisés dans les plans mémoire d'un ou plusieurs modules mémoire 38, les images vidéo numérisées sont traitées par le processeur morphologique 40. Le processeur morphologique 40 reçoit des données à partir des bus de données 42A-42D et fournit des données aux bus de données 42E-42G. En outre, le processeur morphologique 40 peut recevoir des données d'entrée ou de sortie sur les bus de données 42H et 42I. Le figure 12 représente un schéma sous forme de blocs du processeur morphologique 40. Le processeur morphologique 40 reçoit des données des bus de données 42A et 42B qui sont reliés à une unité de multiplexeur/logarithmique 70. La sortie de l'unité de multiplexeur/logarithmique 70 (16 bits) consiste ou bien en
données en provenance des bus 42A et 42B ou bien en leurs loga-
rithmes. La sortie de l'unité de multiplexeur/logarithmique 70 est fournie en tant qu'entrée à une unité arithmétique et logique (ALU) 72, sur l'accès d'entrée désigné par b. L'ALU 72 comprend deux
accès d'entrée: a et b.
Le processeur morphologique 40 comprend également un accumulateur multiplieur 74 (MAC). L'accumulateur multiplieur 74 reçoit des données en provenance des bus de données 42C et 42D et en provenance des bus de données 42H et 42I, respectivement et réalise
les opérations de multiplication et d'accumulation de ces données.
L'accumulateur multiplieur 74 peut réaliser des fonctions consis-
tant à 1) multiplier les données en provenance du bus de données 42C ou du bus de données 42D par les données en provenance du bus de données 42H ou du bus de données 42I; ou 2) multiplier les données en provenance du bus de données 42C ou du bus de données 42D par une constante fournie par le contrôleur maître. Le résultat de ce calcul est fourni sur les bus de données 42I, 42H et 42G. Le résultat du module d'accumulation multiplication 74 est qu'il calcule un noyau de fonction de Green en temps réel. Le noyau de fonction de Green consiste en la sommation de toutes les valeurs de
pixels à partir du début de la synchronisation horizontale jus-
qu'au pixel en cours. Ceci sera utilisé ultérieurement pour le
calcul d'autres propriétés de l'image.
Une partie du résultat de l'accumulateur multiplieur 72 (16 bits) est également envoyée à l'ALU 72 sur l'accès d'entrée désigné par a. L'accumulateur multiplieur 74 peut réaliser des calculs de multiplication et d'accumulation qui ont une précision de 32 bits. Le résultat de l'accumulateur multiplieur 74 peut être commuté par l'accumulateur multiplieur 74 pour être les 16 bits les plus significatifs ou les 16 bits les moins significatifs et est
fourni à l'entrée a de l'ALU 72.
La sortie de l'ALU 72 est fournie à un circuit de décalage en anneau 76 puis à une table de consultation 78 et est renvoyée sur les bus de données 42E et 42F. La sortie de l'ALU 12 est également fournie à un générateur de plus grande valeur et peut être renvoyée sur les bus de données 42E et 42F. La fonction du générateur de plus grande valeur 80 est de déterminer les pixels frontières, comme cela est décrit dans le brevet des Etats-Unis
d'Amérique N 4 538 299.
L'ALU 72 peut également réaliser la fonction de soustraire des données sur l'accès d'entrée a des données sur l'accès d'entrée b. Le résultat de la soustraction est une condition de dépassement, ou l'inverse, qui détermine a > b ou a < b. Ainsi, on peut calculer le maximum et le minimum, pixel par
pixel, pour deux images.
Enfin, l'ALU 72 peut réaliser des calculs d'histo-
gramme. Il y a deux types de calcul d'histogramme. Dans le premier type, la valeur d'un pixel (une valeur de pixel est de 8 bits ou
comprise entre 0 et 255), sélectionne l'adresse de la mémoire 73.
L'emplacement mémoire à l'adresse choisie est incrémenté de 1. Dans le second type, deux valeurs de pixel sont fournies: une première valeur de pixel de l'emplacement du pixel en cours et une seconde valeur de pixel à l'emplacement de pixel et d'une ligne précédente immédiatement à gauche ou immédiatement à droite (c'est-à-dire le voisin diagonal). Les paires de valeurs de pixel sont utilisées pour adresser une mémoire de 64 K (256 x 256) et l'emplacement mémoire du pixel sélectionné est incrémenté. Ainsi, cet histogramme est du
type à liaison par texture.
En résumé, le processeur morphologique 40 peut
réaliser les fonctions d'addition, de multiplication, de multiplica-
tion par une constante, de sommation sur une ligne, de détermination du minimum et du maximum pixel par pixel dans deux images, de génération de plus grande valeur et également de calcul d'histo- gramme. Les résultats du processeur morphologique 40 sont envoyés sur les bus de données 42 et mémorisés dans les modules de mémoire d'image 38. L'ALU 72 peut être du type 181 classique, par exemple le
composant fabriqué par la société Texas Instruments sous l'appella-
tion ALS181. L'accumulateur multiplieur 74 peut être de conception classique, par exemple le produit WTL 2245 fabriqué par la société Weitech. La figure 13 représente sous forme de blocs le processeur de contrôleur graphique 36. La fonction du contrôleur graphique 36 est de recevoir les images vidéo numérisées et
traitées en provenance des modules mémoire 38, les données graphi-
ques et les données alphanumériques, et de les combiner pour fournir une sortie. Les données en provenance du bus de commande 32 sont fournies à un contrôleur à hautes performances de tube à rayons cathodiques (CRT) 84. Le contrôleur de CRT est un composant fabriqué par la société Hitachi sous l'appellation HD 63484. Le contrôleur d'avance CRT 84 commande un tampon de trame 80. Dans le
tampon de trame 80 sont mémorisées les données graphiques alphanumé-
riques. Des images vidéo en provenance des bus de données 42A-42F
sont également fournies au processeur 36 du contrôleur graphique.
L'un des bus de données 42 est choisi et ce bus, combiné à la sortie du tampon de trame 80, est fourni à une table de consultation 82. La sortie de la-table de consultation 82 est alors fournie comme sortie à l'un des bus de données 42G-42H ou 42I. La fonction du processeur de commande graphique 36 est de superposer des informations vidéo
alphanumériques et graphiques puis, par l'intermédiaire d'un con-
vertisseur numérique/analogique 86, de les fournir au dispositif d'affichage 26. En outre, l'image numérique superposée peut être
également mémorisée dans l'un des modules de mémoire d'images 38.
L'image qui est reçue par le processeur de commande graphique 36 à partir de l'un des modules de mémoire d'image 38 l'est par l'intermédiaire de l'un des bus de données 42A-42F. Les signaux de commande sur le bus de commande 32 spécifient au module de mémoire d'image 36 l'adresse de départ, le décalage x et y par rapport à la synchronisation verticale en ce qui concerne le moment o les données en provenance de la mémoire d'image dans le module
de mémoire 38 doivent être fournies sur les bus de données 42A-42F.
Ainsi, des images écran partagées peuvent être affichées sur le
dispositif d'affichage 26.
Le contrôleur maître 30, comme cela a été exposé
précédemment, communique avec l'ordinateur hôte 22 par l'intermé-
diaire d'un bus Q. Le contrôleur maître 30 reçoit des informations d'adresses et de données en provenance de l'ordinateur hôte 22 et produit un microcode à 64 bits. Le microcode à 64 bits peut provenir d'un emplacement de mémoire de commande inscriptible (WCS) dans l'ordinateur hôte 22 et les mémoriser dans la mémoire WCS 90 ou peut être une mémoire PROM proxy 92. Le programme de commande dans la PROM proxy 92 est utilisé par suite de la mise sous tension car la WCS 90 contient une mémoire vive (RAM) volatile. Le microcode à 64 bits est traité par l'ALU 94 (29116) du contrôleur maître 30. Le contrôleur maître 30 présente une architecture de Harvard en ce qu'une mémoire séparée existe pour les instructions comme pour les données. Ainsi, le processeur 94 peut obtenir simultanément des instructions et des données. En outre, le contrôleur maître 30 comprend un séquenceur d'arrière plan 96 et un séquenceur de premier plan 98 pour émettre séquentiellement des successions d'instructions de programme mémorisées dans la mémoire de commande inscriptible (WCS) 90 ou la mémoire PROM 92. Le mappage mémoire du bus Q à partir duquel le contrôleur maître 30 reçoit sa mémoire de commande inscriptible et sa mémoire de programme est représenté
ci-dessous.
ADRESSE (HEXADECIMAL) Utilisation
3FFFFF BS7 (Bloc 7 - nomenclature clas-
3FE000 sique de Digital Equipment Corp.) 3FDFFF Mémoire de travail
3FAOOO
387FFF Memoire de commande inscriptible 37FFFF Fenêtre de mémoire d'image
280000
1FFFFF Mémoire de programme d'ordinateur
0 hôte.
En outre, les signaux de commande ADAV, CMD et WRT ont les utilisations suivantes: SIGNAUX DE COMMANDE Utilisation
ADAV CMD WRT
0 X X Bus au repos 1 1 0 Lecture registre 1 1 1 Ecriture registre 1 0 0 Lecture mémoire image 1 0 1 Ecriture mémoire image L? contrôleur maître 30 fonctionne de façon synchrone avec chacun des modules 34, 36, 38 et 40 et de façon asynchrone avec l'ordinateur hôte 22. Le signal d'horloge est produit par le contrôleur maitre 30 et est envoyé à chacun des modules 34, 36, 38
et 40. En outre, le contrôleur principal 30 initialise le fonctionne-
ment de toutes les séquences de traitement d'image vidéo et de mémorisation d'image vidéo après l'arrivée du signal de synchronisation verticale. Ainsi, l'un des signaux vers chacune des unités logiques 52 est un signal de synchronisation verticale. En outre, les signaux de synchronisation horizontale peuvent être fournis à chacune des
unités logiques.
Les unités logiques peuvent également contenir des
éléments de mémoire logique qui commutent leurs émetteurs/récep-
teurs respectifs à trois états aux instants prescrits par rapport aux signaux de synchronisation horizontale et de synchronisation verticale. La figure 15 représente schématiquement un autre mode de réalisation d'une unité logique 252. L'unité logique 252 est connectée à un premier circuit de décodage d'adresse 250 et un second circuit de décodage d'adresse 251. L'unité logique 252
Z620545
comprend une première porte ET 254, une deuxième porte ET 256 un
compteur 258 et un registre de synchronisation verticale 260.
Avant le fonctionnement de l'unité logique 252, le premier circuit de décodage d'adresse 250 est actionné pour charger les données en provenance des lignes des données du bus de commande
32 dans le compteur 258.
Ensuite, quand le second circuit de décodage d'a-
dresse 251 est actionné, et qu'un signal de synchronisation verti-
cale est reçu, le compteur 258 décompte à chaque impulsion d'horloge reçue. Quand le compteur 258 atteint 0, les registres à trois états
64a et 64b sont actionnés.
Il faut noter que le contrôleur maître 30, chacun des modules de traitement 34, 36, 38 et 40 et chacun des modules de mémoire d'image 38 peut être de conception classique. Le contrôleur maître 30 commande le fonctionnement de chacun des modules par un bus de commande séparé 32. En outre, chacun des modules communique avec les autres par une pluralité de bus de données 42. L'interconnexion de chacun des modules 34-40 avec un ou plusieurs des bus de données 42 est réalisée par des moyens se trouvant dans le module (34-40) qui sont commandés par des signaux de commande sur le bus de commande 32. L'interconnexion des bus de données 42 à la fonction électronique dans chacun des modules est telle que décrite précédemment. Cependant, la fonction électronique à l'intérieur de chacun des modules, telle que la mémorisation ou le traitement peut être d'architecture et de
conception classiques.
Dans l'appareil 8 selon la présente invention, une image du champ de visée vue à travers le microscope 16 est captée par la caméra couleur 12. La caméra couleur 12 convertit l'image du champ de visée en une image électrique du champ de visée. En réalité, trois images électriques sont converties. Les images électriques en provenance de la caméra couleur 12 sont traitées dans
le processeur d'images 10 pour former une pluralité de représenta-
tions différentes de l'image électrique. Chaque représentation différente est une représentation d'un paramètre différent du champ de visée. Une représentation est la surface concernée. Une autre
représentation est la densité optique intégrée.
La figure 16 représente un exemple du signal électrique numérisé représentatif de l'image électrique du champ de visée. L'image numérisée représentée en figure 16 est le résultat de la sortie du module de processeur vidéo 34 qui segmente et
numérise le signal analogique en provenance de la caméra couleur 12.
(Dans le but du présent exposé, une seule image électrique du champ de visée va être décrite. On notera toutefois qu'il y a trois images vidéo, une pour chaque composante couleur du champ de visée). Comme cela est représenté en figure 16, chaque pixel a une amplitude
donnée représentant sa valeur dans l'échelle des luminances.
L'objet dans le champ de visée est situé dans la zone identifiée par la ligne 200. La ligne 200 entoure l'objet dans le champ de Visée. Comme cela a été exposé précédemment, le processeur d'image 10 et plus particulièrement le module de processeur morphologique 40 traitent l'image numérisée pour former une pluralité de différentes images vidéo numérisées et traitées, chacune des différentes images vidéo numérisées et traitées étant
une représentation différente de l'image vidéo numérisée.
Une représentation de l'image électrique représentée
en figure 16 est indiquée en figure 17. Il s'agit d'une représenta-
tion qui indique un noyau de fonction de Green pour la surface de l'image dans le champ de visée. Dans cette représentation, un nombre
est attribué à chaque emplacement de pixel, les nombres étant numé-
rotes séquentiellement en partant de la gauche vers la droite.
Alors que la figure 17 représente le pixel situé à l'emplacement X=0, Y=0 (comme cela est représenté en figure 16) comme étant remplacé par le nombre 1 et la numérotation étant séquentielle à partir de là, tout autre nombre peut également être utilisé. En outre, le nombre assigné au pixel de départ de chaque ligne peut être un nombre quelconque, pour autant que chaque pixel successif
de la même ligne diffère du pixel précédent de la valeur 1.
Une autre représentation de l'image électrique de l'exemple représenté en figure 16 est un noyau de fonction de Green pour la densité optique intégrée de l'image dans le champ de visée comme cela est représenté en figure 18. Dans cette représentation, à chaque emplacement de pixel P(X,Y) est attribué un nombre qui est calculé de la façon suivante: m P(XmY) = 1 P(XiYn) mn i=1 n Comme cela a été exposé précédemment, le processeur morphologique 40 peut calculer un noyau de fonction de Green pour
la densité optique intégrée "au vol" ou "en temps réel".
Le processeur d'image vidéo 10 reçoit également l'image électrique en provenance de la caméra couleur 12 et produit des informations de position qui représentent les frontières de l'objet ontenu dans le champ de visée. Un procédé de calcul des informations de position qui représentent les frontières de l'objet dans le champ de visée est décrit dans le brevet des Etats-Unis d'Amérique n 4 238 299 qui sera considéré ici comine connu. Comme cela est décrit dans ce brevet, la valeur d'échelle de luminance numérisée (par exemple l'image de la figure 16) est comparée à une valeur de seuil pré-établie de sorte que, comme résultat de la comparaison, si l'échelle de luminance à l'emplacement du pixel concerné dépasse la va'elr.le seuil pré-établie, alors la valeur "1" est affectée à chaque emplacement de pixel. A -tols les autres emplacements, si la valeur du pixel concerné est Inférieure à la
valeur de seu.l pré-établie, un "0" est affecté à cet emplacement.
Par suite, l'image vidéo numérique est convertie en une repré-
1U sentation dans laquelle une valeur "1" est affectée 1. o iL y a un objet et une valeur "0" est affectée aux emplacements extérieurs aux frionti;:re: de l'objet. Un exemple de la conversion de l'image représentée en figure 16 par ce procedé est la représentation
indiquée en figure 19.
Ensuite, et selon le brevet sus;mentionné, la repré-
sentation, telle qu'indiquée en figure 19 est convertie en une?
troisième représentation en affectant une valeur au pix.-l 5'emplace-
ment X, Y selon la formule:
7 6 5 4 3 2
P (X,Y)=a*2 +b*26+c*25+d*24+e*23+f*22+g*2+h o a, b, c, d, e. f, g, h sont les valeurs des huit plus proches voisins entourant le pixel (X,Y) de la façon suivante: g d h c pixel (X:Y) a f b e ceci peut être effectué par la partie de générateur de plus grande
valeur 80 du processeuu morphologique 40.
Enfin, selon les enseignements du brevet des Etats-
Unis d'Amérique n 4 538 299, cette troisième représentation est
analysée jusqu'à ce qu'une valeur non nulle P(X,Y) so:t atteinte.
La valeur P(X,Y) est comparée en même temps qu'une valeur de direction d'entrée à une table de consultation pour déterminer l'emplacement suivant de valeur non nulle de P(X,Y) et former un code lié. Selon les enseignements du brevet susmentionné, une information de position représentant l'emplacement du pixel suivant qui est à la frontière de l'objet dans le champs de visée est alors produite. Cette information de position prend la forme de
LX=+i, 0, ou -1 et AY=+1, 0, ou -1.
Cette information de position produite est également fournie pour tracer les emplacements dans chacune des autres
représentations différentes.
Par exemple, si la première valeur de la frontière balayée est X=4, Y=1 (comme cela est représenté en figure 19) cette information de position est fournie pour repérer les emplacements dans les représentations des figures 17 et 18, repérant ainsi le début de la frontière de l'objet dans ces représentations. Ainsi, à
la figure 17, l'emplacement de pixel ayant la valeur 13 est initiale-
ment choisi. A la figure 18, l'emplacement de pixel ayant la valeur
44 est initialement choisi.
Selon les enseignements du brevet 4 538 299, l'in-
formation de position suivante produite qui indique l'emplacement de pixel suivant qui est à la frontière de l'objet dans le champ de visée sera LX=+1, AY=+1. Ceci amènera le tracé à l'emplacement X=5, Y=2. Cette information de position est également fournie aux représentations pour la surface représentées en figure 17 et à la représentation indiquant la densité optique intégrée (IOD) telle que représentée en figure 18. le tracé provoqué par l'information de position amènera la représentation de la figure 17 à déplacer l'emplacement de pixel X=5, Y=2 o le pixel a la valeur 22. De même, en figure 18, le tracé amènera l'emplacement de pixel X=5, Y=2 o le pixel ayant la valeur 76 à être suivi. Tandis que la frontière de l'objet est tracée, la même information de position est fournie aux autres représentations indiquant d'autres paramètres des images du champ de visée - qui ne contiennent pas de façon inhérente d'informations sur les frontières de l'objet dans le
champ de visée.
* Il faut noter que, bien que le procédé et l'appareil décrivent jusqu'ici les informations de position comme étant fournies selon l'enseignement du brevet américain n 4 538 299, la
présente invention n'est pas nécessairement limitée aux informa-
tions de position basées sur les enseignements de ce brevet. En fait, toute source d'information de position peut être utilisée avec le procédé et l'appareil selon la présente invention, pour autant que ces informations indiquent la position des frontières de l'objet
dans le champ de visée.
Quand la frontière de l'objet dans le champ de visée est tracée dans chacune des différentes représentations qui représentent les différents paramètres de l'objet dans le champ de
visée, les différents paramètres sont calculés.
Par exemple, pour calculer la surface de l'objet dans le champ de visée, on prend l'information de position et on détermine la valeur du pixel à cet emplacement. Ainsi la première valeur de pixel sera la valeur 13. Sauf en ce qui concerne le premier pixel, l'emplacement du pixel en cours (X.,Y.) est comparé à 1 1. l'emplacement du pixel précédemment tracé (Xj, Yj) de sorte que, si Yi est inférieur à Yj, la valeur présente en Pi(Xi, Yi) est ajoutée à la valeur A. Si Y. est supérieur -à Y., alors la valeur présente à P.(X.-1,Y.) est ajoutée à B. B est soustrait de A pour fournir la
surface de l'objet visé. Ce calcul est présenté en figure 20.
De même, pour le calcul de la densité optique intégrée, si l'emplacement du pixel en cours (Xi, Yi) comparé à l'emplacement de pixel précédemment tracé (Xj,Yj) est tel que Y. est inférieur à Y., alors P.(X.,Y.) est ajouté à A. Si Y. est supérieur à Y., alors P.(X.-1,Y.) est ajouté à B. B est soustrait de A pour fournir la densité optique intégrée (IOD) de l'objet. Ceci est
représenté en figure 21.
Le procédé et l'appareil selon la présente invention présentent de nombreux avantages. D'abord et surtout, un avantage est que, tandis que les informations de position concernant la frontière de l'objet sont fournies, des paramètres multiples de cet
objet peuvent être calculés sur la base de représentations dif-
férentes de l'image dans le champ de visée contenant l'objet -
toutes ces représentations ne contenant pas de façon inhérente une quelconque information de position concernant l'emplacement de la frontière de l'objet dans le champ de visée. En outre, avec le processeur d'image vidéo décrit, de tels paramètres différents peuvent être calculés simultanément, augmentant ainsi beaucoup la
capacité de traitement d'image.

Claims (20)

REVENDICATIONS
1. Procédé de génération d'une pluralité de paramètres d'un objet dans un champ de visée, caractérisé en ce qu'il comprend les étapes suivantes: (a) former une image électrique du champ de visée; (b) traiter cette image électrique pour former une pluralité de représentations différentes de l'image électrique; chaque représentation différente étant une représentation d'un paramètre différent du champ de visée;
(c) produire des informations de position qui repré-
sentent les frontières de l'objet;
(d) tracer des emplacements dans chacune des repré-
sentations en réponse aux informations de position générées; et (e) calculer les différents paramètres à partir de chacune des représentations différentes sur la base des emplacements
tracés dans chacune des représentations différentes.
2. Procédé selon la revendication 1, caractérisé en ce que l'étape (b) comprend en outre les étapes suivantes: (b)(1) segmenter l'image électrique en une pluralité de pixels et numériser l'intensité d'image de chaque pixel en un
signal électrique représentant la valeur dans l'échelle des lumi-
nances; (b)(2) traiter les signaux électriques pour former une pluralité de représentations différentes de l'image électrique, chaque représentation différente étant une représentation d'un
paramètre différent du champ de visée.
3. Procédé selon la revendication 2, caractérisé en ce que l'un de la pluralité de paramètres de l'objet est la surface de l'objet.
4. Procédé selon la revendication 3, caractérisé en ce que l'étape (b)(2) comprend en outre l'étape consiste à affecter un nombre à chaque emplacement de pixel, ces nombres commençant séquentiellement de la gauche vers la droite pour la représentation
qui est une représentation de la surface du champ de visée.
5. Procédé selon la revendication 4, caractérisé en ce que l'étape (e) comprend en outre les étapes suivantes: (i) si l'emplacement de pixels en cours (X.,Y) 1 i comparé à l'emplacement de pixel tracé précédemment (Xj, Y.) est tel que: - Y.<Y.: ajouter la valeur du pixel en cours
P.(X.,Y.) à A;
1 1 1 - Y.>Y.: ajouter la valeur du pixel en cours ]
P.(X.-1,Y.) à B.
(ii) soustraire à B de A pour fournir la surface de l'objet.
6. Procédé selon la revendication 2, caractérisé en ce que l'un de la pluralité de paramètres de l'objet est la densité
optique intrégrée (IOD) de cet objet.
7. Procédé selon la revendication 6, caractérisé en ce que l'étape (b)(2) comprend en outre les étapes suivantes: affecter un nombre à chaque emplacement de pixel (Xm,Yn), ce nombre étant calculé de la façon suivante: P(XmYn)= zmi=1P(XiYn)
o P(Xi,Yn) est la valeur dans l'échelle des luminances, à l'empla-
cement de pixel de (XiYn), pour la représentation qui est une
représentation de la densité optique intégrée du champ de visée.
8. Procédé selon la revendication 7, caractérisé en ce que l'étape (e) comprend en outre les étapes suivantes: (i) si l'emplacement de pixel en cours (X.,Y.) i i comparé à l'emplacement de pixel tracé précédemment (X., Y.) est tel J J que: - Yi<Yj: ajouter la valeur du pixel en cours Pi(Xi, Yi) à A, - Y.>Y.: ajouter la valeur du pixel en cours i J Pi(Xi1,Yi) à B, (ii) soustraire B de A pour fournir la densité optique
intégrée de l'objet.
9. Procédé selon la revendication 1, caractérisé en ce que l'étape (c) comprend en outre les étapes suivantes:
(c)(1) segmenter le signal électrique en une plura-
lité de pixels et numériser l'intensité d'image de chaque pixel dans un signal électrique représentant la valeur dans l'échelle des luminances pour former une première présentation de l'image; (c)(2) traiter le signal électrique de chacune des valeur dans l'échelle des luminances de la première représentation pour former une seconde représentation de l'image en comparant la valeur dans l'échelle des luminances de chaque pixel à une valeur de seuil pré-établie de sorte que, par suite, un "0" est affecté à chaque emplacement de pixel externe à la frontière de l'objet et un "1" est affecté partout ailleurs; (c)(3) convertir la seconde représentation en une troisième représentation en assignant une valeur à un pixel (X,Y) selon la formule: P(X,Y)=a*2 +b*26+c*25+d*24+e*23+ f*22+g*2+h o a, b, c, d, e, f, g, h sont les valeurs des huit plus proches voisins entourant le pixel (X,Y) selon la formule suivante: g d h c pixel (X,Y) a f b e
10. Procédé selon la revendication 9, caractérisé en ce que l'étape (d) comprend en outre les étapes suivantes: analyser la première représentation jusqu'à ce qu'une première valeur P(X,Y) non nulle soit atteinte; comparer ladite valeur de P(X,Y) et une valeur de direction d'entrée à une table de consultation pour déterminer l'emplacement suivant de la valeur non nulle de P(X,Y) et former un
code lié.
11. Appareil de génération d'une pluralité de paramè-
tres d'un objet dans un champ de visée, caractérisé en ce qu'il comprend: des moyens de formation d'image (12, 14, 16) pour former une image électrique du champ de visée; des moyens (10, 22, 24) pour traiter l'image électrique pour former une pluralité de représentations différentes de l'image électrique, parmi lesquelles chaque représentation différente est une représentation d'un paramètre différent du champ de visée; des moyens pour générer des informations de position qui représentent les frontières de l'objet; des moyens pour tracer des emplacements dans chacune des différentes représentations en réponse aux informations de position générées; et des moyens pour calculer les différents paramètres de
chacune des différentes représentations sur la base des emplace-
ments tracés dans chacune des représentations différentes.
12. Appareil selon la revendication 11, caractérisé en ce que les moyens de traitement comprennent en outre: des moyens pour segmenter l'image électrique en une pluralité de pixels et pour numériser l'intensité d'image de chaque pixel en un signal électrique représentant une valeur dans l'échelle des luminances; des moyens pour traiter les signaux électriques pour former une pluralité de représentations différentes de l'image électrique, parmi lesquelles chaque représentation différente est
une représentation d'un paramètre différent du champ de visée.
13. Appareil selon la revendication 12, caractérisé en ce que l'un de la pluralité de paramètre de l'objet est la
surface de l'objet.
14. Appareil selon la revendication 13, caractérisé en ce que les moyens de traitement comprennent en outre des moyens pour assigner un nombre à chaque emplacement de pixel, ces nombres étant séquentiels en commençant de la gauche vers la droite pour fournir une représentation qui est une représentation de la surface
du champ de visée.
15. Appareil selon la revendication 14, caractérisé en ce que les moyens de calcul comprennent en outre: des moyens pour ajouter la valeur de l'emplacement de pixels en cours P(Xi,Yi) à A si Y.<Y. et P.(X.-1,Y.) à B si Y.>Y., il i i J3 1 zi ir o Y. est la composante en Y de (Xj,Yj), l'emplacement du pixel immédiatement précédent qui a été tracé; et des moyens pour soustraire B de A pour fournir la
surface de l'objet.
16. Appareil selon la revendication 12, caractérisé en ce que l'un de la pluralité de paramètres de l'objet est l'intensité
optique intégrée (IOD) de l'objet.
17. Appareil selon la revendication 16, caractérisé en ce que les moyens de traitement comprennent en outre: des moyens pour affecter un nombre à chaque emplacement de pixel (X mYn), ce nombre étant calculé de la façon suivante: P(XmYn) = Em P(XiY) m n il1 i n
o P(X.,Y) est la valeur dans l'échelle des luminances à l'em-
in
placement de pixel de (X.,Yn).
i n
18. Appareil selon la revendication 17 caractérisé en ce que les moyens de calcul comprennent en outre: des moyens pour ajouter la valeur de l'emplacement de pixel en cours Pi(Xi,Yi) à A si Y.<Y. et P.(X.-1,Y.) à B si Y.>Y., i i i 3 i z 1 1] o Y. est la composante en Y de (X.,Y.), l'emplacement du pixel
J J J
immédiatement précédent qui a été tracé; et des moyens pour soustraire B de A pour fournir la
surface de l'objet.
19. Appareil selon la revendication 11, caractérisé en ce que les moyens de génération comprennent en outre: des moyens pour former une première représentation de l'image en segmentant l'image en une pluralité de pixels et en
numérisant l'intensité d'image de chaque pixel en un signal élec-
trique représentant sa valeur dans l'échelle des luminances; des moyens pour traiter le signal électrique de chacune des valeurs dans l'échelle des luminances pour former une seconde représentation de l'image;
des moyens logiques pour convertir la seconde repré-
sentation en une troisième représentation d'o il résulte que la valeur d'un emplacement [ci-après': pixel (X,Y)] dans la seconde représentation et les valeurs des voisins les plus proches du pixel à cet emplacement sont converties en une valeur spécifique à l'emplacement correspondant [ci-après: P(X,Y)] dans la troisième représentation; des moyens de mémoire pour mémoriser la troisième representation; et des moyens de table pour mémoriser diverses valeurs possibles de P(X,Y), ces moyens de table servant à recevoir une valeur de P(X,Y) et une valeur de direction d'entrée, et pour produire une valeur de direction de sortie pour indiquer l'em- placement suivant de P(X,Y) ayant une valeur non nulle; ces
valeurs non nulles de P(X,Y) formant la frontière de l'objet.
20. Appareil selon la revendication 19, caractérisé en ce que les moyens logiques sont adaptés à convertir la seconde représentation selon les règles suivantes: (1) si le pixel (X,Y)=0: assigner alors un "0" à
P(X,Y);
(2) si le pixel (X,Y)=1 et que les huit voisins les plus proches du pixel (X,Y)=0, assigner alors un "0" à P(X,Y); (3) si le pixel (X,Y)=1 et que les quatre voisins les proches du pixel (X,Y)=1, assigner alors un "0" à P(X,Y); (4) autrement assigner une valeur non nulle à P(X,Y), cette valeur assignée à P(X,Y) étant un nombre composé des valeurs
des huit plus proches voisins du pixel (X,Y).
FR8810864A 1987-08-14 1988-08-12 Procede et appareil de generation d'une pluralite de parametres d'un objet dans un champ de visee Withdrawn FR2620545A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US8598587A 1987-08-14 1987-08-14

Publications (1)

Publication Number Publication Date
FR2620545A1 true FR2620545A1 (fr) 1989-03-17

Family

ID=22195231

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8810864A Withdrawn FR2620545A1 (fr) 1987-08-14 1988-08-12 Procede et appareil de generation d'une pluralite de parametres d'un objet dans un champ de visee

Country Status (6)

Country Link
JP (1) JPS6466778A (fr)
AU (1) AU2063588A (fr)
CA (1) CA1328019C (fr)
DE (1) DE3827312A1 (fr)
FR (1) FR2620545A1 (fr)
GB (1) GB2208708A (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678895B2 (ja) * 1991-01-24 1994-10-05 肇産業株式会社 欠陥判別方法

Also Published As

Publication number Publication date
GB2208708A (en) 1989-04-12
AU2063588A (en) 1989-02-16
GB8819082D0 (en) 1988-09-14
JPS6466778A (en) 1989-03-13
CA1328019C (fr) 1994-03-22
DE3827312A1 (de) 1989-02-23

Similar Documents

Publication Publication Date Title
US5121436A (en) Method and apparatus for generating a plurality of parameters of an object in a field of view
JP6915349B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US7447380B2 (en) Efficient method for creating a viewpoint from plurality of images
EP0661672B1 (fr) Procédé et dispositif de traitement d&#39;image pour construire à partir d&#39;une image source une image cible avec changement de perspective
FR2674339A1 (fr) Procede et appareil pour detecter des cibles dans des images sonar.
EP1269160B1 (fr) Appareil d&#39;imagerie associe a une base de donnees images
FR2674340A1 (fr) Procede pour detecter et classifier des particularites dans des images sonar.
EP3138275B1 (fr) Systèmes et procédés permettant de collecter des informations de couleur concernant un objet soumis à un balayage 3d
FR2711820A1 (fr) Système d&#39;inspection optique automatique à base pondérée de données de transmission.
FR2686438A1 (fr) Circuiterie pour manipuler des flux de donnees.
EP0940979A1 (fr) Procédé et dispositif de remplacement de panneaux cibles dans une séquence vidéo
US10341546B2 (en) Image processing apparatus and image processing method
US20030152267A1 (en) Automatic perception method and device
EP0294954B1 (fr) Méthode de traitement d&#39;images
KR20190133867A (ko) 증강현실 서비스 제공 시스템 및 이의 360도 회전 이미지 파일 생성 방법
CN104184936B (zh) 基于光场相机的影像对焦处理方法及其系统
FR2619462A1 (fr) Systeme de traitement numerique a bus multi-donnees
FR2620545A1 (fr) Procede et appareil de generation d&#39;une pluralite de parametres d&#39;un objet dans un champ de visee
JPH09130714A (ja) 画像情報抽出装置および方法
EP0524842A1 (fr) Dispositif temps réel de présentation d&#39;images de type télévision sur un écran de visualisation
EP0575253A1 (fr) Dispositif de conversion des informations de sortie d&#39;un radar pour leur visualisation sur un écran de télévision
FR2631474A1 (fr) Circuit et procede pour commander la presentation d&#39;une information de couleurs a un dispositif d&#39;affichage d&#39;un systeme informatique
JP2003287687A (ja) 三次元透過型顕微鏡システムおよび画像表示方法
EP0692714A1 (fr) Procédé et dispositif de reconnaissance de particularités géométriques de pièces parallélépipédiques de section polygonale
CN116091366B (zh) 一种多维度拍摄手术视频及消除摩尔纹的方法

Legal Events

Date Code Title Description
ST Notification of lapse