FR2672141A1 - Procede de reconnaissance d'objets codes par des vecteurs. - Google Patents
Procede de reconnaissance d'objets codes par des vecteurs. Download PDFInfo
- Publication number
- FR2672141A1 FR2672141A1 FR9100867A FR9100867A FR2672141A1 FR 2672141 A1 FR2672141 A1 FR 2672141A1 FR 9100867 A FR9100867 A FR 9100867A FR 9100867 A FR9100867 A FR 9100867A FR 2672141 A1 FR2672141 A1 FR 2672141A1
- Authority
- FR
- France
- Prior art keywords
- sep
- vectors
- vector
- matrix
- unknown
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Mathematical Optimization (AREA)
- General Engineering & Computer Science (AREA)
- Algebra (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
L'invention concerne un procèdé mis en œuvre dans des réseaux neuronaux et permettant de différencier des objets de réfèrence très similaires afin de pouvoir leur identifier très précisèment des objets inconnus. Ce procèdé consiste à changer l'origine de l'espace dans lequel sont représentés les vecteurs codant lesdits objets, afin de rendre les vecteurs plus orthogonaux entre eux et donc plus différenciables. Ce changement d'origine effectué, la méthode connue de la matrice pseudo-inverse est mise en œuvre. Un perfectionnement de l'invention consiste en un prétraitement des vecteurs, les vecteurs de référence étant alors regroupés en agrégats. Le vecteur inconnu est tout d'abord comparé à chaque vecteur moyen représentatif d'un agrégat puis, lorsque l'agrégat le plus ressemblant a été sélectionné, le vecteur inconnu est comparé à chaque vecteur de référence composant ledit agrégat. L'invention s'applique à la spectrométrie et particulièrement, aux spectres de rayons gamma émis par des déchets nucléaires.
Description
PROCEDE DE RECONNAISSANCE D'OBJETS CODES PAR DES VECTEURS
DESCRIPTION
La présente invention concerne un procédé permettant de reconnaitre des objets codés par des vecteurs. Elle trouve de nombreuses applications dans le domaine de la spectroscopie. De façon plus particulière, elle peut s'appliquer à la Résonance
Magnétique Nucléaire (RMN), aux spectres de masse pour l'identification de polluants chimiques et aux spectres de rayons gamma pour la reconnaissance de déchets nucléaires.
DESCRIPTION
La présente invention concerne un procédé permettant de reconnaitre des objets codés par des vecteurs. Elle trouve de nombreuses applications dans le domaine de la spectroscopie. De façon plus particulière, elle peut s'appliquer à la Résonance
Magnétique Nucléaire (RMN), aux spectres de masse pour l'identification de polluants chimiques et aux spectres de rayons gamma pour la reconnaissance de déchets nucléaires.
On comprendra par "reconnaissance" d'objet, l'identification d'un objet inconnu à un objet de référence choisi parmi plusieurs références.
Le procédé selon la présente invention s'applique dans des réseaux neuronaux.
Un réseau neuronal est un réseau dans lequel
Les informations sont traitées en parallèle. Ce réseau cherche à imiter le cerveau humain, dans lequel chaque neurone fonctionne de façon plus ou moins autonome.
Les informations sont traitées en parallèle. Ce réseau cherche à imiter le cerveau humain, dans lequel chaque neurone fonctionne de façon plus ou moins autonome.
Un neurone informatique traite et mémorise des données indépendamment des autres neurones. L'organisation de teLs neurones en réseau fournit un comportement global particulier, occasionné par un apprentissage, c'est-à-dire que chaque neurone choisit de laisser, ou de ne pas Laisser, passer l'information selon
Les informations qui ont déjà transité par le réseau.
Les informations qui ont déjà transité par le réseau.
Cet apprentissage est caractérisé, dans un réseau neuronal informatique, par des poids synaptiques.
De façon plus mathématique, chaque neurone voit à son entrée une somme d'informations pondérées par des poids synaptiques w.
En résumé, un réseau neuronal permet de traiter de nombreuses informations en parallèle pour la recherche d'un résultat.
De tels réseaux neuronaux sont décrits plus précisément dans le document "Réseaux de neurones artificiels" paru aux Presses Polytechniques et
Universitaires Romandes, ouvrage dans lequel a été dressé un état de l'art, en 1989, dans le domaine des réseaux neuronaux.
Universitaires Romandes, ouvrage dans lequel a été dressé un état de l'art, en 1989, dans le domaine des réseaux neuronaux.
Il est connu, dans les procédés de reconnaissance d'objets, d'utiliser une méthode appelée méthode de la matrice pseudo-inverse appliquée dans un réseau neuronal.
Un tel procédé est décrit dans l'article intitulé "Collective computational properties of neural network : New learning mechanisms" de
Messieurs PERSONNAZ, GUYON et DREYFUS, article publié dans La revue "Physical Review A" de Novembre 1986.
Messieurs PERSONNAZ, GUYON et DREYFUS, article publié dans La revue "Physical Review A" de Novembre 1986.
Cette méthode de matrice pseudo-inverse consiste notamment à déterminer une matrice de
GRAM-SCHMIDT [ G ] à partir de modèles S, c'est-à-dire d'ensembles de vecteurs SF codant des objets à reconnaitre. Cette matrice de GRAM-SCHMIDT est définie par la relation :
et et y étant des numéros des vecteurs servant de modèles pour la reconnaissance, i indiquant le numéro de la coordonnée considérée desdits vecteurs, N étant la dimension de l'espace de représentation considéré et P le nombre de vecteurs codant les différents modèles d'objets à reconnaitre.
GRAM-SCHMIDT [ G ] à partir de modèles S, c'est-à-dire d'ensembles de vecteurs SF codant des objets à reconnaitre. Cette matrice de GRAM-SCHMIDT est définie par la relation :
et et y étant des numéros des vecteurs servant de modèles pour la reconnaissance, i indiquant le numéro de la coordonnée considérée desdits vecteurs, N étant la dimension de l'espace de représentation considéré et P le nombre de vecteurs codant les différents modèles d'objets à reconnaitre.
Ces modèles sont normalisés de sorte que les éléments diagonaux G de la matrice [ G ] , dans laquelle y varie de 1 à P, sont égaux à 1. On constate alors que les autres coefficients de la matrice [ G ] sont tous proches de 1, les modèles étant fortement corrèles.
Lorsque la matrice G est inversible, les poids synaptiques w du réseau neuronal peuvent alors être déterminés par la relation
Cependant, dans certains cas, la matrice [ G ] n'est pas inversible, notamment lorsque les coefficients de ladite matrice sont trop peu différents les uns des autres.
Le procédé précédemment décrit présente un certain nombre d'inconvénients et, en particulier, celui de ne pas permettre la reconnaissance d'objets dont les vecteurs représentatifs pris comme références sont trop semblables. Il y a, par exemple, de nombreux cas de spectres non reconnaissables car trop voisins.
Dans le cas particulier de la reconnaissance de déchets nucléaires, les spectres des rayons gamma émis par ces déchets sont généralement très similaires les uns des autres. Et le procédé, tel qu'exposé précédemment, ne permet pas la reconnaissance de ces spectres de rayons gamma.
La présente invention a justement pour objet cette reconnaissance de spectres très voisins.
Elle met en oeuvre un traitement des vecteurs codant les objets à reconnaître avant d'appliquer le procédé connu de la matrice pseudo-inverse. Ce traitement consiste à changer l'origine de l'espace de représentation dans lequel sont définis lesdits vecteurs.
De façon plus précise, l'invention a pour objet un procédé de reconnaissance d'objets codés par des vecteurs dans lequel on utilise un réseau neuronal apte à comparer un vecteur inconnu à des vecteurs de référence définis dans un espace de représentation d'origine B, caractérisés chacun par un label et mémorisés par ledit réseau neuronal, ces vecteurs définissant - une matrice de GRAM-SCHMIDT [ G ] , telle que :
S étant une matrice représentatrice desdits vecteurs,
i indiquant la coordonnée considérée desdits
vecteurs, IL (ou y ) indiquant le vecteur considéré - des poids synaptiques w du réseau neuronal déterminés
par un procédé de matrice pseudo-inverse tel que ::
[ G-1 ] étant la matrice inverse de la matrice de
GRAM-SCHMIDT, lesdits poids synaptiques permettant de comparer les vecteurs à reconnaître avec les vecteurs de référence, procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs, ce prétraitement comprenant les étapes suivantes : - dftermination, pour les origines de L'espace de
représentation, des indices de sensibilité définis
par la trace de la matrice [ G-1 ] à savoir
ff =Tr [ G-13 ; - choix d'une nouvelle origine B' de l'espace de
représentation assurant un indice de sensibilité
minimum ; - calcul de la nouvelle matrice rectangulaire S'
en appliquant la relation
S'; = S; - Blair - application du procédé de la matrice pseudo-inverse
à la nouvelle matrice S' en calculant la nouvelle
matrice [ G' ] de GRAM-SCHMIDT et les nouveaux poids
synaptiques w'.
i indiquant la coordonnée considérée desdits
vecteurs, IL (ou y ) indiquant le vecteur considéré - des poids synaptiques w du réseau neuronal déterminés
par un procédé de matrice pseudo-inverse tel que ::
[ G-1 ] étant la matrice inverse de la matrice de
GRAM-SCHMIDT, lesdits poids synaptiques permettant de comparer les vecteurs à reconnaître avec les vecteurs de référence, procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs, ce prétraitement comprenant les étapes suivantes : - dftermination, pour les origines de L'espace de
représentation, des indices de sensibilité définis
par la trace de la matrice [ G-1 ] à savoir
ff =Tr [ G-13 ; - choix d'une nouvelle origine B' de l'espace de
représentation assurant un indice de sensibilité
minimum ; - calcul de la nouvelle matrice rectangulaire S'
en appliquant la relation
S'; = S; - Blair - application du procédé de la matrice pseudo-inverse
à la nouvelle matrice S' en calculant la nouvelle
matrice [ G' ] de GRAM-SCHMIDT et les nouveaux poids
synaptiques w'.
Avantageusement, le prétraitement des vecteurs comprend une première étape de reconnaissance hiérarchique, ladite première étape comportant les sous-étapes suivantes : - Liste, selon un ordre de valeurs croissantes, de
toutes les distances entre vecteurs de référence
de sorte que tous les labels soient pris en
considération ; - regroupement en agrégats des vecteurs de référence
les plus voisins Les uns des autres ; - comparaison du vecteur inconnu avec chacun des
agrégats, chaque agrégat étant représenté. par un
vecteur moyen ; - sélection de l'agrégat dont le vecteur moyen est
le plus proche du vecteur inconnu ; et - comparaison du vecteur inconnu avec chaque vecteur
contenu dans l'agrégat sélectionné comme étant
le plus voisin.
toutes les distances entre vecteurs de référence
de sorte que tous les labels soient pris en
considération ; - regroupement en agrégats des vecteurs de référence
les plus voisins Les uns des autres ; - comparaison du vecteur inconnu avec chacun des
agrégats, chaque agrégat étant représenté. par un
vecteur moyen ; - sélection de l'agrégat dont le vecteur moyen est
le plus proche du vecteur inconnu ; et - comparaison du vecteur inconnu avec chaque vecteur
contenu dans l'agrégat sélectionné comme étant
le plus voisin.
Une application du procédé consiste en un dispositif de signalisation manipulable à distance afin de reconnaitre des spectres, notamment de rayons gamma émis par des déchets nucléaires.
D'autres caractéristiques et avantages ressortiront de la description qui va suivre, donnée à titre illustratif et non limitatif en référence aux dessins dans lesquels - les figures la, lb, îc, Id et le sont les
représentations de spectres de rayons gamma provenant
de déchets nucléaires ; - la figure 2 est une représentation schématique
d'un espace de représentation correspondant aux
figures la à le.
représentations de spectres de rayons gamma provenant
de déchets nucléaires ; - la figure 2 est une représentation schématique
d'un espace de représentation correspondant aux
figures la à le.
Tout au long de la description, on comprendra par "vecteur" un ensemble de canaux décrivant un spectre. Mathématiquement, ces vecteurs sont codés par une suite de nombres représentant les coordonnées dudit vecteur dans un espace à N dimensions et regroupés dans une matrice rectangulaire S.
Afin de mieux illustrer la description, un exemple concret, mais limité à un petit nombre de vecteurs, sera décrit Cet exemple utilise cinq spectres comportant chacun soixante dix canaux, comme montré sur les figures la à le, ce qui signifie que la matrice des modèles S est de dimension 70 x 5, soit cinq colonnes et soixante dix lignes.
Ainsi, tout couple de vecteurs (S , S# ) définit des coefficients d'une matrice de GRAM-SCHMIDT [ G ] , telle que :
IL et y variant de 1 à 5, pour notre exemple de réalisation.
On peut voir sur les figures la et le que les spectres 1 et 5 sont très similaires. Il en est de même des spectres 2 et 3 des figures lb et lc.
Le spectre 4 de la figure id est, quant à Lui, assez dissemblable des spectres 1, 2, 3 et 5 pour être reconnu aisément.
Selon ces spectres, les valeurs des coefficients GILy de la matrice de GRAM-SCHMIDT [ G ] , des coefficients d#y de la matrice [d] représentant les distances entre les vecteurs SA et S# et s'écrivant
d # = (2 - 2G #), et des coefficients a1Ly de la matrice [ a ] représentant les différences angulaires entre les vecteurs S et S et s'écrivant
α # = Cos-1 [G fr sont les suivantes ::
d # = (2 - 2G #), et des coefficients a1Ly de la matrice [ a ] représentant les différences angulaires entre les vecteurs S et S et s'écrivant
α # = Cos-1 [G fr sont les suivantes ::
<tb> <SEP> 1 <SEP> 0,899 <SEP> 0,889 <SEP> 0,913 <SEP> 0,998
<tb> <SEP> 0,899 <SEP> 1 <SEP> 0,993 <SEP> 0,891 <SEP> 0,894
<tb> [ G ] <SEP> <SEP> = <SEP> 0,889 <SEP> 0,993 <SEP> 1 <SEP> 0,895 <SEP> 0,882
<tb> <SEP> 0,913 <SEP> 0,891 <SEP> 0,895 <SEP> 1 <SEP> 0,910
<tb> <SEP> 0,998 <SEP> 0,894 <SEP> 0,882 <SEP> 0,910 <SEP> 1
<tb> <SEP> 0 <SEP> 0,449 <SEP> 0,470 <SEP> 0,417 <SEP> 0,058
<tb> <SEP> 0,449 <SEP> 0 <SEP> 0,119 <SEP> 0,467 <SEP> 0,461
<tb> [ d ] <SEP> = <SEP> 0,470 <SEP> 0,119 <SEP> 0 <SEP> 0,457 <SEP> 0,487
<tb> <SEP> 0,417 <SEP> 0,467 <SEP> 0,457 <SEP> 0 <SEP> 0,424
<tb> <SEP> 0,058 <SEP> 0,461 <SEP> 0,487 <SEP> 0,424 <SEP> 0
<tb> <SEP> 0 <SEP> 26 <SEP> 27 <SEP> 24 <SEP> 3
<tb> <SEP> 26 <SEP> 0 <SEP> 7 <SEP> 27 <SEP> 27
<tb> [ a ] <SEP> <SEP> = <SEP> 27 <SEP> 7 <SEP> 0 <SEP> 26 <SEP> 28
<tb> <SEP> 24 <SEP> 27 <SEP> 26 <SEP> 0 <SEP> 25
<tb> <SEP> 3 <SEP> 27 <SEP> 28 <SEP> 25 <SEP> 0
<tb>
Les matrices d et a sont deux façons différentes d'exprimer La même notion de différence entre deux vecteurs SIL et Sy .
<tb> <SEP> 0,899 <SEP> 1 <SEP> 0,993 <SEP> 0,891 <SEP> 0,894
<tb> [ G ] <SEP> <SEP> = <SEP> 0,889 <SEP> 0,993 <SEP> 1 <SEP> 0,895 <SEP> 0,882
<tb> <SEP> 0,913 <SEP> 0,891 <SEP> 0,895 <SEP> 1 <SEP> 0,910
<tb> <SEP> 0,998 <SEP> 0,894 <SEP> 0,882 <SEP> 0,910 <SEP> 1
<tb> <SEP> 0 <SEP> 0,449 <SEP> 0,470 <SEP> 0,417 <SEP> 0,058
<tb> <SEP> 0,449 <SEP> 0 <SEP> 0,119 <SEP> 0,467 <SEP> 0,461
<tb> [ d ] <SEP> = <SEP> 0,470 <SEP> 0,119 <SEP> 0 <SEP> 0,457 <SEP> 0,487
<tb> <SEP> 0,417 <SEP> 0,467 <SEP> 0,457 <SEP> 0 <SEP> 0,424
<tb> <SEP> 0,058 <SEP> 0,461 <SEP> 0,487 <SEP> 0,424 <SEP> 0
<tb> <SEP> 0 <SEP> 26 <SEP> 27 <SEP> 24 <SEP> 3
<tb> <SEP> 26 <SEP> 0 <SEP> 7 <SEP> 27 <SEP> 27
<tb> [ a ] <SEP> <SEP> = <SEP> 27 <SEP> 7 <SEP> 0 <SEP> 26 <SEP> 28
<tb> <SEP> 24 <SEP> 27 <SEP> 26 <SEP> 0 <SEP> 25
<tb> <SEP> 3 <SEP> 27 <SEP> 28 <SEP> 25 <SEP> 0
<tb>
Les matrices d et a sont deux façons différentes d'exprimer La même notion de différence entre deux vecteurs SIL et Sy .
Dans un cas idéal d'orthogonalité des vecteurs SIL et S# t La matrice [ G ] est une matrice unité, la matrice [ d ] a tous ses coefficients d#y non diagonaux égaux à ff et La matrice CCYI ne possède, hors de sa diagonale, que des coefficients α # de 900
La matrice [ a ] confirme ce que montrent les figures la et le, à savoir que les spectres 1 et 5 sont très ressemblants l'un à L'autre : en effet, l'angle 15 entre les vecteurs S1 et S2 n'est que de 30. De même, l'angle 23 entre les vecteurs S2 et S3 n'est que de 70, ce qui est très loin de l'angle droit idéal.Les autres angles sont d'un ordre de grandeur plus élevé, à savoir 250 environ.
La matrice [ a ] confirme ce que montrent les figures la et le, à savoir que les spectres 1 et 5 sont très ressemblants l'un à L'autre : en effet, l'angle 15 entre les vecteurs S1 et S2 n'est que de 30. De même, l'angle 23 entre les vecteurs S2 et S3 n'est que de 70, ce qui est très loin de l'angle droit idéal.Les autres angles sont d'un ordre de grandeur plus élevé, à savoir 250 environ.
Ces spectres (1, 5) et (2, 3) font donc typiquement partie des spectres difficiles, voire impossibles, à différencier par la méthode connue.
Pour chaque matrice [ G ] déterminée, un indice de sensibilité a peut être calculé par la somme des valeurs propres de [ G-1 ] , communément appelée trace (abréviation Tr) par la relation :
ff = Tr [ G-1 ] .
ff = Tr [ G-1 ] .
Cet indice de sensibilité a est défini pour une origine B de l'espace de représentation. Dans le procédé selon l'invention, on cherche à trouver une nouvelle origine B' de L'espace de représentation afin de rendre les vecteurs SCL et Sy plus orthogonaux. Cette nouvelle origine B' est trouvée lorsque l'indice de sensibilité (J est minimum.
Dans un mode de réalisation préféré de
L'inventeur, les différents indices de sensibilité (J sont choisis en utilisant une méthode d'échantillonnage systématique parmi toutes les origines possibles, toute autre méthode de choix de B' pouvant être utilisée.
L'inventeur, les différents indices de sensibilité (J sont choisis en utilisant une méthode d'échantillonnage systématique parmi toutes les origines possibles, toute autre méthode de choix de B' pouvant être utilisée.
Dans l'exemple selon le procédé objet de
L'invention, la valeur de l'indice ff minimum est ffmin = 38,3.
L'invention, la valeur de l'indice ff minimum est ffmin = 38,3.
Idéalement, si le changement d'origine permet de rendre tous les vecteurs orthogonaux, l'indice de sensibilité minimum serait égal à P, c'est-à-dire au nombre de vecteurs pris en considération dans la réalisation. Dans l'exemple décrit, on aurait #min =
Cet indice de sensibilité choisi, les nouvelles matrices [ G' ] , [d'] et [ a' ] sont déterminables à partir des relations suivantes :
S'; = Si - B'i
Cet indice de sensibilité choisi, les nouvelles matrices [ G' ] , [d'] et [ a' ] sont déterminables à partir des relations suivantes :
S'; = Si - B'i
d' # = (2 - 2G' p), et
α' # = Cos-1 Cos-1
Les nouvelles matrices obtenues sont les suivantes ::
α' # = Cos-1 Cos-1
Les nouvelles matrices obtenues sont les suivantes ::
<tb> <SEP> 1 <SEP> -0,72 <SEP> -0,70 <SEP> -0,27 <SEP> 0,81
<tb> <SEP> -0,72 <SEP> 1 <SEP> 0,96 <SEP> 0,27 <SEP> -0,73
<tb> [ GS <SEP> <SEP> = <SEP> -0,70 <SEP> 0,96 <SEP> 1 <SEP> 0,34 <SEP> -0,77
<tb> <SEP> -0,27 <SEP> 0,27 <SEP> 0,34 <SEP> 1 <SEP> -0,27
<tb> <SEP> 0,81 <SEP> -0,73 <SEP> -0,77 <SEP> -0,27 <SEP> 1
<tb> <SEP> 0 <SEP> 1,85 <SEP> 1,84 <SEP> 1,59 <SEP> 0,63
<tb> <SEP> 1,85 <SEP> 0 <SEP> 0,29 <SEP> 1,21 <SEP> 1,86
<tb> <SEP> [ di <SEP> <SEP> = <SEP> 1,84 <SEP> 0,29 <SEP> 0 <SEP> 1,15 <SEP> 1,88
<tb> <SEP> 1,59 <SEP> 1,21 <SEP> 1,15 <SEP> 0 <SEP> 1,60
<tb> <SEP> 0,63 <SEP> 1,86 <SEP> 1,88 <SEP> 1,60 <SEP> 0
<tb>
<tb> <SEP> -0,72 <SEP> 1 <SEP> 0,96 <SEP> 0,27 <SEP> -0,73
<tb> [ GS <SEP> <SEP> = <SEP> -0,70 <SEP> 0,96 <SEP> 1 <SEP> 0,34 <SEP> -0,77
<tb> <SEP> -0,27 <SEP> 0,27 <SEP> 0,34 <SEP> 1 <SEP> -0,27
<tb> <SEP> 0,81 <SEP> -0,73 <SEP> -0,77 <SEP> -0,27 <SEP> 1
<tb> <SEP> 0 <SEP> 1,85 <SEP> 1,84 <SEP> 1,59 <SEP> 0,63
<tb> <SEP> 1,85 <SEP> 0 <SEP> 0,29 <SEP> 1,21 <SEP> 1,86
<tb> <SEP> [ di <SEP> <SEP> = <SEP> 1,84 <SEP> 0,29 <SEP> 0 <SEP> 1,15 <SEP> 1,88
<tb> <SEP> 1,59 <SEP> 1,21 <SEP> 1,15 <SEP> 0 <SEP> 1,60
<tb> <SEP> 0,63 <SEP> 1,86 <SEP> 1,88 <SEP> 1,60 <SEP> 0
<tb>
<tb> <SEP> 0 <SEP> 136 <SEP> 134 <SEP> 105 <SEP> 36
<tb> <SEP> 136 <SEP> 0 <SEP> 17 <SEP> 74 <SEP> 137
<tb> [α;'] <SEP> =134 <SEP> 17 <SEP> 0 <SEP> 70 <SEP> 140
<tb> <SEP> 105 <SEP> 74 <SEP> 70 <SEP> 0 <SEP> 106
<tb> <SEP> 36 <SEP> 137 <SEP> 140 <SEP> 106 <SEP> 0
<tb>
Les coefficients, hors diagonale, de ces nouvelles matrices sont plus proches respectivement de 0, de #2 et de 900.
<tb> <SEP> 136 <SEP> 0 <SEP> 17 <SEP> 74 <SEP> 137
<tb> [α;'] <SEP> =134 <SEP> 17 <SEP> 0 <SEP> 70 <SEP> 140
<tb> <SEP> 105 <SEP> 74 <SEP> 70 <SEP> 0 <SEP> 106
<tb> <SEP> 36 <SEP> 137 <SEP> 140 <SEP> 106 <SEP> 0
<tb>
Les coefficients, hors diagonale, de ces nouvelles matrices sont plus proches respectivement de 0, de #2 et de 900.
La nouvelle matrice [ G' ] ainsi obtenue est inversible. Il est alors possible de calculer les nouveaux poids synaptiques w' par la relation :
La figure 2 est une représentation de l'espace de représentation des cinq vecteurs de l'exemple considéré. Lesdits vecteurs sont représentés par Les points SI, S2, S3, S4 et S5. Le point B' est la nouvelle origine choisie de façon à ce que l'indice de sensibilité soit minimum, å savoir #'min = 38,3 pour l'exemple considéré.
Suivant un perfectionnement tout à fait intéressant, l'invention permet de mettre en oeuvre un prétraitement hiérarchique de reconnaissance des vecteurs. Il s'agit tout d'abord de lister dans un ordre croissant de valeurs toutes les distances dyv entre deux vecteurs SIL et S# , formant une "paire re ordonnée", IL étant inférieur à V. On obtient
P (P-1) ainsi 2 distances ordonnées. Cependant, seules les premières pLus petites distances, faisant apparaître tous les labels IL ou V de valeurs 1
à P, sont prises en considération pour la suite dudit
traitement.Des agrégats de D vecteurs sont ainsi
déterminés, D étant le nombre choisi de vecteurs
compris dans un agrégat.
P (P-1) ainsi 2 distances ordonnées. Cependant, seules les premières pLus petites distances, faisant apparaître tous les labels IL ou V de valeurs 1
à P, sont prises en considération pour la suite dudit
traitement.Des agrégats de D vecteurs sont ainsi
déterminés, D étant le nombre choisi de vecteurs
compris dans un agrégat.
Il est possible de représenter sous forme
de matrice de connexion [ C ] l'ensemble des agrégats
déterminés : ses coefficients C V où le couple de labels y , V) a été pris en considération et ses
coefficients Cet symétriques de CFV valant 1
les autres coefficients valent 0.
de matrice de connexion [ C ] l'ensemble des agrégats
déterminés : ses coefficients C V où le couple de labels y , V) a été pris en considération et ses
coefficients Cet symétriques de CFV valant 1
les autres coefficients valent 0.
La comparaison d'un vecteur inconnu se
fait alors en plusieurs étapes. Le vecteur inconnu
à déterminer est tout d'abord comparé à un vecteur
représentant l'agrégat, ledit vecteur étant déterminé
comme une moyenne de tous les vecteurs contenus dans
un agrégat. Le vecteur inconnu est alors comparé
à chaque vecteur contenu dans l'agrégat sélectionné
comme étant le plus ressemblant.
fait alors en plusieurs étapes. Le vecteur inconnu
à déterminer est tout d'abord comparé à un vecteur
représentant l'agrégat, ledit vecteur étant déterminé
comme une moyenne de tous les vecteurs contenus dans
un agrégat. Le vecteur inconnu est alors comparé
à chaque vecteur contenu dans l'agrégat sélectionné
comme étant le plus ressemblant.
Dans L'exemple considéré, d'après les valeurs
données par la matrice [ d ] , la liste des distances
entre les vecteurs est La suivante d15 < d23 < d14 < d45 < d12 < d34 < d25 < d24 < d13 < d35
Les distances des d23 et d14 font apparaître
tous les labels, à savoir 1, 2, 3, 4 et 5. Seules,
ces trois distances sont prises en compte pour la
suite du traitement. On prend ainsi le nombre 3 comme
nombre D de paires définissant les agrégats. Ces
agrégats sont (145) et (23) pour D = 3.
données par la matrice [ d ] , la liste des distances
entre les vecteurs est La suivante d15 < d23 < d14 < d45 < d12 < d34 < d25 < d24 < d13 < d35
Les distances des d23 et d14 font apparaître
tous les labels, à savoir 1, 2, 3, 4 et 5. Seules,
ces trois distances sont prises en compte pour la
suite du traitement. On prend ainsi le nombre 3 comme
nombre D de paires définissant les agrégats. Ces
agrégats sont (145) et (23) pour D = 3.
<tb> <SEP> O <SEP> O <SEP> 0 <SEP> 1 <SEP> 1 <SEP>
<tb> <SEP> O <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0
<tb> [ C ] <SEP> = <SEP> o <SEP> 1 <SEP> 0 <SEP> <SEP> O <SEP> <SEP> O <SEP>
<tb> <SEP> 10000 <SEP>
<tb> <SEP> 10000 <SEP>
<tb>
Le nombre de paires ordonnées retenues peut aussi bien prendre des valeurs inférieures D', telles que D' = D/2 ou toute autre fraction significative de D.
<tb> <SEP> O <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0
<tb> [ C ] <SEP> = <SEP> o <SEP> 1 <SEP> 0 <SEP> <SEP> O <SEP> <SEP> O <SEP>
<tb> <SEP> 10000 <SEP>
<tb> <SEP> 10000 <SEP>
<tb>
Le nombre de paires ordonnées retenues peut aussi bien prendre des valeurs inférieures D', telles que D' = D/2 ou toute autre fraction significative de D.
Par exemple, on peut choisir D' = 2. Dans ce cas, le nombre de vecteurs par agrégat est au maximum deux, et les agrégats sont (15), (23) et (4). La matrice de connexion [ C' ] correspondante est alors la suivante
<tb> <SEP> O <SEP> O <SEP> O <SEP> O <SEP> 1 <SEP>
<tb> <SEP> O <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP>
<tb> [ C3 <SEP> <SEP> = <SEP> 0 <SEP> 1 <SEP> o <SEP> <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> O <SEP> O <SEP> 0 <SEP>
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP>
<tb>
Lorsque le prétraitement décrit ci-dessus est terminé, la suite de La reconnaissance du vecteur inconnu se poursuit, telle que décrite précédemment.
<tb> <SEP> O <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP>
<tb> [ C3 <SEP> <SEP> = <SEP> 0 <SEP> 1 <SEP> o <SEP> <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> O <SEP> O <SEP> 0 <SEP>
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP>
<tb>
Lorsque le prétraitement décrit ci-dessus est terminé, la suite de La reconnaissance du vecteur inconnu se poursuit, telle que décrite précédemment.
La figure 2 permet de comprendre que la nouvelle origine B', choisie sans effectuer le prétraitement hiérarchique de reconnaissance, n'assure pas la quasi-orthogonalité des vecteurs.
En effet, en considérant plus particulièrement l'agrégat tS2, S3), on voit que l'origine B' choisie, telle que montré sur la figure 2, ne permet pas l'orthogonalité entre les vecteurs
S2 et S3. Au contraire, si l'on a choisi l'agrégat tS2, S3) comme le plus ressemblant, on peut se placer dans un espace restreint avec une origine B" permettant une quasi-orthogonalité de S2 et S3.
S2 et S3. Au contraire, si l'on a choisi l'agrégat tS2, S3) comme le plus ressemblant, on peut se placer dans un espace restreint avec une origine B" permettant une quasi-orthogonalité de S2 et S3.
La description ci-dessus s'appuie sur un exemple précis de spectres de rayons gamma émis par des déchets nucléaires, mais l'invention peut s'appliquer à de nombreux autres domaines de la spectroscopie.
L'invention peut en effet se concrétiser dans un dispositif de signalisation manipulable ou autonome comportant notamment les organes suivants : - un détecteur multicanaux de spectre de rayons 7 émis
par des déchets nucléaires ; et - un microcalculateur recevant les informations captées
par le détecteur. Ce microcalculateur comporte
deux couches successives d'éléments
a) la couche mémoire des poids synaptiques,
enregistrant les modèles de reconnaissance, selon
la règle exposée par l'invention ; et
b) la couche de neurones identificateurs
aptes à évaluer la ressemblance entre le signal
et l'un des modèles.
par des déchets nucléaires ; et - un microcalculateur recevant les informations captées
par le détecteur. Ce microcalculateur comporte
deux couches successives d'éléments
a) la couche mémoire des poids synaptiques,
enregistrant les modèles de reconnaissance, selon
la règle exposée par l'invention ; et
b) la couche de neurones identificateurs
aptes à évaluer la ressemblance entre le signal
et l'un des modèles.
L'invention s'applique également à de nombreux autres domaines 05( où l'information est codable par un vecteur, notamment la spectroscopie : spectres de masse de polluants, spectres de résonance magnétique nucléaire, etc.
Claims (3)
1. Procédé de reconnaissance d'objets codés par des vecteurs, permettant l'analyse de spectres, dans lequel on utilise un réseau neuronal apte à comparer un vecteur inconnu, déterminé par des moyens de détection multicanaux, à des vecteurs de référence définis dans un espace de représentation d'origine
B, caractérisés chacun par un label et mémorisés par ledit réseau neuronal, ces vecteurs définissant - une matrice de GRAM-SCHMIDT [ G ] , telle que
par un procédé de matrice pseudo-inverse, tel que
considéré, y indiquant un autre vecteur considéré ;; des poids synaptiques w du réseau neuronal déterminés
vecteurs, IL indiquant le vecteur
i une coordonnée considérée desdits
S étant une matrice représentatrice desdits vecteurs,
ressemblant au vecteur inconnu.
déterminés, du vecteur de référence le plus
poids synaptiques w' ; obtention, en fonction des poids synaptiques w'
matrice [ G' ] de GRAM-SCHMIDT et les nouveaux
à la nouvelle matrice S' en calculant la nouvelle
- application du procédé de la matrice pseudo-inverse
S'; = S;g - B'i li
en appliquant la relation
représentation assurant un indice de sensibilité minimum amin ; calcul de la nouvelle matrice rectangulaire S'
par la trace [ G-1 ] , à savoir = Tr [ G-l ] ;; choix d'une nouvelle origine B' de l'espace de
représentation, des indices de sensibilité définis
vecteurs de référence, procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs effectué par des moyens de calculs reliés aux moyens de détection, ce prétraitement comprenant les étapes suivantes - détermination pour des origines de l'espace de
de comparer les vecteurs à reconnaître avec les
GRAM-SCHMIDT, lesdits poids synaptiques permettant
[ G-1 ] étant la matrice inverse de la matrice de
2. Procédé selon la revendication 1, caractérisé en ce que le prétraitement des vecteurs comprend une première étape de reconnaissance hiérarchique, ladite première étape comportant les sous-étapes suivantes : Liste, selon un ordre de valeurs croissantes, de
toutes les distances entre vecteurs de référence
de sorte que tous les labels soient pris en
considération ; regroupement en agrégats des vecteurs de référence
les plus voisins les uns des autres ; comparaison du vecteur inconnu avec chacun des
agrégats, chaque agrégat étant représenté par un
vecteur moyen ; sélection de l'agrégat dont le vecteur moyen est
le plus proche du vecteur inconnu ; et comparaison du vecteur inconnu avec chaque vecteur
contenu dans l'agrégat sélectionné comme étant
Le plus voisin.
3. Application du procédé selon l'une des revendications 1 ou 2, à un dispositif de signalisation manipulable à distance afin de reconnaître des spectres de rayons gamma émis par des déchets nucléaires.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9100867A FR2672141B1 (fr) | 1991-01-25 | 1991-01-25 | Procede de reconnaissance d'objets codes par des vecteurs. |
EP92904649A EP0568616A1 (fr) | 1991-01-25 | 1992-01-23 | Procede de reconnaissance d'objets codes par des vecteurs |
PCT/FR1992/000060 WO1992013315A1 (fr) | 1991-01-25 | 1992-01-23 | Procede de reconnaissance d'objets codes par des vecteurs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9100867A FR2672141B1 (fr) | 1991-01-25 | 1991-01-25 | Procede de reconnaissance d'objets codes par des vecteurs. |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2672141A1 true FR2672141A1 (fr) | 1992-07-31 |
FR2672141B1 FR2672141B1 (fr) | 1993-04-09 |
Family
ID=9409064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR9100867A Expired - Fee Related FR2672141B1 (fr) | 1991-01-25 | 1991-01-25 | Procede de reconnaissance d'objets codes par des vecteurs. |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0568616A1 (fr) |
FR (1) | FR2672141B1 (fr) |
WO (1) | WO1992013315A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998044536A1 (fr) * | 1997-03-27 | 1998-10-08 | Hkr Sensorsysteme Gmbh | Procede et dispositif pour identifier des specimens complexes de gaz, de substances odorantes ou d'aromes d'une substance, par spectroscopie de masse |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5675253A (en) * | 1991-11-20 | 1997-10-07 | Auburn International, Inc. | Partial least square regression techniques in obtaining measurements of one or more polymer properties with an on-line nmr system |
US5517667A (en) * | 1993-06-14 | 1996-05-14 | Motorola, Inc. | Neural network that does not require repetitive training |
US5600134A (en) * | 1995-06-23 | 1997-02-04 | Exxon Research And Engineering Company | Method for preparing blend products |
US5602755A (en) * | 1995-06-23 | 1997-02-11 | Exxon Research And Engineering Company | Method for predicting chemical or physical properties of complex mixtures |
GB2577909B (en) | 2018-10-10 | 2020-11-18 | Symetrica Ltd | Gamma-ray spectrum classification |
-
1991
- 1991-01-25 FR FR9100867A patent/FR2672141B1/fr not_active Expired - Fee Related
-
1992
- 1992-01-23 EP EP92904649A patent/EP0568616A1/fr not_active Ceased
- 1992-01-23 WO PCT/FR1992/000060 patent/WO1992013315A1/fr not_active Application Discontinuation
Non-Patent Citations (1)
Title |
---|
PHYSICAL REVIEW, A. GENERAL PHYSICS. vol. 34, Novembre 1986, NEW YORK US pages 4217 - 4228; L. PERSONNAZ ET AL.: 'Collective computational properties of neural networks: New learning mechanisms' * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998044536A1 (fr) * | 1997-03-27 | 1998-10-08 | Hkr Sensorsysteme Gmbh | Procede et dispositif pour identifier des specimens complexes de gaz, de substances odorantes ou d'aromes d'une substance, par spectroscopie de masse |
Also Published As
Publication number | Publication date |
---|---|
WO1992013315A1 (fr) | 1992-08-06 |
EP0568616A1 (fr) | 1993-11-10 |
FR2672141B1 (fr) | 1993-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539942B (zh) | 基于多尺度深度特征融合的人脸深度篡改图像的检测方法 | |
EP0115462B1 (fr) | Procédé de reconnaissance automatique d'une image, à partir d'une image correspondante de référence | |
EP0521548A1 (fr) | Procédé et dispositif avec un réseau neuronal pour classer des données | |
EP3620970B1 (fr) | Procédé d'extraction de caractéristiques d'une empreinte digitale représentée par une image d'entrée | |
FR2829264A1 (fr) | Procede de comparaison d'empreintes digitales | |
FR3088467A1 (fr) | Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution | |
FR2672141A1 (fr) | Procede de reconnaissance d'objets codes par des vecteurs. | |
FR2790571A1 (fr) | Procede de reconnaissance de formes | |
EP0681270A1 (fr) | Procédé de trajectographie d'objets et dispositif de mise en oeuvre de ce procédé | |
Tripathi et al. | Image splicing detection system using intensity-level multi-fractal dimension feature engineering and twin support vector machine based classifier | |
FR2767942A1 (fr) | Appareil de classification destine notamment a la reconnaissance d'odeurs | |
EP1639579A1 (fr) | Procede et systeme d'analyse de signaux vocaux pour la representation compacte de locuteurs | |
EP4099228A1 (fr) | Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes | |
EP0396171A1 (fr) | Procédé pour l'analyse de textures et analyseur | |
EP2825995B1 (fr) | Système pour déterminer l'identification d'un appareil photographique a partir d'une photographie et procédé mis en oeuvre dans un tel système | |
FR2693615A1 (fr) | Procédé d'identification d'objets dans une image. | |
CN115115898B (zh) | 一种基于无监督特征重构的小样本目标检测方法 | |
WO2004038346A1 (fr) | Procede et dispositif de test comportant un capteur de signaux vibratoires | |
EP0550101A1 (fr) | Procédé de recalage d'images | |
EP4202772A1 (fr) | Procédé de mise au point d'un dispositif de classification, procédé et système associés | |
FR3083354A1 (fr) | Procede de modelisation pour le controle des resultats fournis par un reseau de neurones artificiels et autres procedes associes | |
EP1554687A2 (fr) | SystEme associatif flou de description d objets multimEdia | |
EP4187445A1 (fr) | Procédé d'apprentissage de valeurs de poids synaptique d'un réseau de neurones, procédé de traitement de données, programme d'ordinateur, calculateur et système de traitement associés | |
CN117934405A (zh) | 产品缺陷检测方法、检测终端及存储介质 | |
EP3920101A1 (fr) | Methode de reduction de la taille d'un reseau de neurones artificiel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |