FR2736727A1 - Procede de classification de signaux en plusieurs categories - Google Patents
Procede de classification de signaux en plusieurs categories Download PDFInfo
- Publication number
- FR2736727A1 FR2736727A1 FR8901406A FR8901406A FR2736727A1 FR 2736727 A1 FR2736727 A1 FR 2736727A1 FR 8901406 A FR8901406 A FR 8901406A FR 8901406 A FR8901406 A FR 8901406A FR 2736727 A1 FR2736727 A1 FR 2736727A1
- Authority
- FR
- France
- Prior art keywords
- vector
- variables
- alpha
- learning
- eigenvalues
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Abstract
La présente invention concerne un procédé de classification de signaux en n catégories (n >= 2). Ce procédé, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, consiste dans le cas d'un système utilisant une base d'apprentissage, à: - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m =< N) dont les variables sont indépendantes et présentent une variance de valeur 1 sur la base d'apprentissage; - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associés constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage; - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation; - transformer le vecteur intermédiaire ainsi obtenu par une seconde transformation linéaire en une valeur de sortie réelle permettant de classifier le signal dans l'une des n catégories. L'invention s'applique notamment à la classification de signaux sonores décomposés selon leurs spectres en fréquence, d'images visibles au infra-rouge, d'images RADAR.
Description
PROCEDE DE CLASSIFICATION DE SIGNAUX
EN PLUSIEURS CATEGORIES
La présente invention concerne un procédé de classification de signaux en plusieurs catégories, plus particulièrement un procédé de classification en plusieurs catégories de signaux définis par un vecteur de dimension N dans lequel N est grand.
EN PLUSIEURS CATEGORIES
La présente invention concerne un procédé de classification de signaux en plusieurs catégories, plus particulièrement un procédé de classification en plusieurs catégories de signaux définis par un vecteur de dimension N dans lequel N est grand.
Pour classifier des signaux,il est connu de mettre en oeuvre une phase dite phase d'apprentissage De manière générale, cette phase consiste à configurer un réseau qui réalise une fonction effectuant au mieux la classification envisagée en utilisant un ensemble de P signaux, appelé base d'apprentissage, dont on connait pour chacun l'appartenance à l'une des catégories en lesquelles on veut les classifier. Puis l'on teste ce réseau à l'aide d'un second ensemble de signaux, appelé base de généralisation, dont on connait aussi pour chacun l'appartenance à l'une des catégories de classification. Ceci permet de connaître les performances du réseau de décision face à des signaux inconnus lors de la phase d'apprentissage.Dans le cas d'une classification en deux classes, un des modèles les plus simples est le classifieur linéaire qui est défini par un vecteur-poids W > W) et dont la sortie est donnée par
signe < W | x > dans lequel I x > est un vecteur, < W 1 est égal à |W > t et < W | x > représente le produit scalaire. Dans ce cas, la sortie +1 est affectée à la première classe et la sortie -1 à la seconde classe. Parmi les solutions de ce type connues en traitement de signal ou de données, l'une des solutions couramment utilisée est celle qui minimise, par rapport au vecteur | W > , le coût quadratique suivant
dans lequel 1 Ai > représente un vecteur de la base d'apprentissage et ai la valeur-code de classification dudit vecteur. Cette solution est connue sous le nom de solution pseudo-inverse.
signe < W | x > dans lequel I x > est un vecteur, < W 1 est égal à |W > t et < W | x > représente le produit scalaire. Dans ce cas, la sortie +1 est affectée à la première classe et la sortie -1 à la seconde classe. Parmi les solutions de ce type connues en traitement de signal ou de données, l'une des solutions couramment utilisée est celle qui minimise, par rapport au vecteur | W > , le coût quadratique suivant
dans lequel 1 Ai > représente un vecteur de la base d'apprentissage et ai la valeur-code de classification dudit vecteur. Cette solution est connue sous le nom de solution pseudo-inverse.
Cette solution pseudo-inverse qui minimise un coût défini sur la base d'apprentissage peut donner un très bon résultat à l'apprentissage, mais n'est pas entièrement satisfaisante lors de la généralisation. Dans ce cas, en effet, on observe un surajustement de l'opérateur linéaire défini par < W ≈, à la base d'apprentissage du fait que la fonction de coût considérée, à savoir le coût quadratique, a transformé la vraie contrainte initiale en une contrainte plus forte.
De ce fait, avec la solution pseudo-inverse, on pénalise autant un signal trop bien classé qu'un signal mal classé. Car ces deux signaux ont un coût identique du fait de la symétrie de la fonction de coût considérée autour de la valeur désirée ai.
La présente invention a pour but de proposer un procédé de classification de signaux en au moins deux catégories, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, procédé qui permet de remédier a cet inconvénient de surajustement et d'obtenir de bons résultats lors de la généralisation. Le réseau obtenu est ainsi mieux adapté à la reconnaissance générale de signaux inconnus à priori.
En conséquence, la presente invention a pour objet un procédé de classification de signaux en n catégories, n étant supérieur ou égal à deux, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, ledit procédé consistant, dans le cas d'un système utilisant une base d'apprentissage, à - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m 4 N) dont les variables sont indépendantes et présentent une variance de valeur 1, sur la base d'apprentissage - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associées constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation; - transformer le vecteur intermédiaire ainsi obtenu par une transformation linéaire en une valeur de sortie réelle permettant de classifier le signal dans l'une des n catégories.
En fait dans le procédé ci-dessus, on découple les différentes étapes de traitement et l'on fait apparaître au niveau d'un vecteur intermédiaire, un vecteur directement en rapport avec les caractéristiques de surajustement qu'il est alors possible de traiter pour obtenir de bons résultats lors de la généralisation.
Différents traitements de ce vecteur intermédiaire peuvent être envisagés.
Selon un premier mode de réallsatlon, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à éliminer les variables dont la valeur propre est inférieure à un seuil donné.
Selon un autre mode de réalisation, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à pondérer ces variables par une valeur, fonction croissante de Ad, telle que ( )k avec k égal à un nombre réel positif.
Selon encore un autre mode de réalisation, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à appliquer à ces variables une fonction saturante telle qu'une fonction tangente hyperbolique.
La présente invention sera mieux comprise à l'aide de la description faite ci-après d'un mode de réalisation dans le cas d'un procédé de classification en deux classes, illustré à l'aide du dessin ci-annexé dans lequel - la figure l est une courbe donnant le taux de bonne classification lors de l'apprentissage et lors de la généralisation dans le cas du premier mode de réalisation; et - la figure 2 est une courbe donnant le taux de bonne classification lors de l'apprentissage et lors de la généralisation dans le cas du second mode de réalisation.
Aussi, dans le cas d'un procédé de classification en deux classes, chaque signal représenté par le vecteur Ai de dimension N se verra affecter à la fin du procédé de classification une valeur de sortie ai = +1 s'il appartient à la première classe, et une valeur de sortie ai = -1 s'il appartient à la seconde classe. La solution actuellement utilisée, dans le cadre de modèle linéaire, est la solution qui minimise, sur la base d'apprentissage, le coût quadratique suivant
Cette solution est appelée solution pseudo-inverse et elle est représentée par le vecteur < WpI t qui peut être écrit sous la forme < Wp1 = < K i 1 où < K est le vecteur transposé du vecteur de Hebb
et H-1 la matrice quasi-inverse de la matrice H, H étant la matrice de covariance de la base d'apprentissage définie par
avec des vecteurs centrés
et H-1 la matrice quasi-inverse de la matrice H, H étant la matrice de covariance de la base d'apprentissage définie par
avec des vecteurs centrés
Dans ce cas, H étant réel symétrique, elle est diagonalisable.H est donc représenté par
m étant le nombre de valeurs propres non nulles, ce qui permet de définir H-1 par
m étant le nombre de valeurs propres non nulles, ce qui permet de définir H-1 par
Cette solution, bien que minimisant le coût défini sur la base d'apprentissage, ne présente pas une bonne capacité de généralisation.
C'est-à-dire
où les variables xd, Ko( sont les normalisations en écart-type
et x x α présente sur la base d'apprentissage une variance égale à 1.
où les variables xd, Ko( sont les normalisations en écart-type
et x x α présente sur la base d'apprentissage une variance égale à 1.
Ainsi, pour une variable x 06 de valeur propre associée
petite, on procède lors de la normalisation en écart type à une division par une faible valeur. Lors de la généralisation, cette division peut amener la variable correspondante à se trouver en dehors des normes, car la variable n'est pas normalisée sur l'ensemble de généralisation.
petite, on procède lors de la normalisation en écart type à une division par une faible valeur. Lors de la généralisation, cette division peut amener la variable correspondante à se trouver en dehors des normes, car la variable n'est pas normalisée sur l'ensemble de généralisation.
Ainsi, les écarts entre les statistiques des signaux d'apprentissage et de généralisation sont d'autant plus importants que la valeur propre correspondante est faible. On a donc un surajustement de l'opérateur linéaire qui minimise le coût quadratique à la base d'apprentissage du fait que la fonction de coût considérée a transformé la vraie contrainte initiale, à savoir signe ( < W \ A1 > ) = ai en une contrainte bien plus forte, à savoir : < W | Ai > = ai.
Pour remédier à ces inconvénients, et conformément à la présente invention, on modifie les variables intermédiaires x de façon à annuler cet effet de surajustement.
Le signal intermédiaire est donc représenté par un vecteur de dimension m dont les variables x α sont les projections orthogonales sur les m vecteurs propres de H, normalisées par les écarts types correspondants.
Conformément à la présente invention, les composantes du signal intermédiaire ont été ordonnées dans l'ordre décroissant de leur valeur propre, notées >
D'autre part, conformément à la présente invention, on traite ce signal intermédiaire de manière à diminuer l'importance des paramètres de variance la plus faible ou à projeter les vecteurs de test sur le nuage statistique défini par la base d'apprentissage.
D'autre part, conformément à la présente invention, on traite ce signal intermédiaire de manière à diminuer l'importance des paramètres de variance la plus faible ou à projeter les vecteurs de test sur le nuage statistique défini par la base d'apprentissage.
Différents types de traitement peuvent être envisagés à ce niveau.
Un premier traitement consiste à ne garder parmi les variables x du signal intermédiaire que celles correspondant aux valeurs propres supérieures à un seuil donné et à mettre à zéro toutes les autres. Cela revient à multiplier chaque variable x els par une fonction F( #α ) où F(#) = 0, si > est inférieur à un seuil donné, et F (#) = 1, sinon.
Des essais sur signaux réels réalisés à partir d'un ensemble de 500 signaux correspondant å 500 éléments à classifier en deux classes, 200 signaux étant affectés à la base d'apprentissage et les 300 autres à la base de généralisation, ont montré que le taux de bonne classification passe lors de la généralisation, d'environ 72et. avec la solution actuellement utilisée à environ 85% avec la solution de la présente invention correspondant au cas où 50% des variables intermédiaires x ont été mises à zéro.
Cette première solution est illustrée par la figure 1 qui représente la courbe typique des taux de bonne classification à l'apprentissage et à la généralisation en fonction du pourcentage d'éléments de la base d'apprentissage mis à zéro. On s'aperçoit que, pour obtenir une bonne réponse lors de la généralisation, il n'est pas utile d'avoir un apprentissage à 100 %.
Une autre solution consiste à multiplier chaque variable x ot par une fonction F
dans laquelle k est un réel positif.
dans laquelle k est un réel positif.
Dans ce cas, on obtient une coupure plus progressive puisqu'on multiplie les variables z , par une fonction progressivement monotone croissante. Parmi les valeurs de k qui ont pu être testées, on s'aperçoit, comme représenté à la figure 2, que la solution k = 1/2 donne en général un bon résultat.
Ainsi, sur 500 éléments testés, 200 étant affectés à la base d'apprentissage et 300 à la base de généralisation, on a obtenu les résultats donnés dans le tableau ci-après
Apprentissage Généralisation
k = O 100 % 72 %
(pseudo-inverse)
k = 1/2 90 % 81 %
k = 1 78 % 80 %
Selon un troisième mode de réalisation, on applique à chaque variable zCot une fonction saturante dont le rôle est de ramener les valeurs prises par ces variables intermédiaires x à un maximun correspondant à l'enveloppe des valeurs pouvant être prises sur la base d'apprentissage.Différents types de fonction saturante peuvent être envisagés 1 ) f (x α ou ) = x α si |xα| < l
f (x α ) = signe (x α) sinon 20) f (x d ) = th (x α)
En fait on applique
avec CL représentant une coupure par rapport à la variance, par exemple # [ 1/3 > 3 -
Suite à ce traitement permettant de remédier au problème de surajustement, le signal intermédiaire représenté par un vecteur de dimension m subit une transformation linéaire donnée par l'opérateur < K | H l/2, dans laquelle < K I est le vecteur de Hebb. Le signe de la valeur réelle obtenue en sortie suite à ce traitement donne la classification, à savoir première classe si +1, deuxième classe si -1.
Apprentissage Généralisation
k = O 100 % 72 %
(pseudo-inverse)
k = 1/2 90 % 81 %
k = 1 78 % 80 %
Selon un troisième mode de réalisation, on applique à chaque variable zCot une fonction saturante dont le rôle est de ramener les valeurs prises par ces variables intermédiaires x à un maximun correspondant à l'enveloppe des valeurs pouvant être prises sur la base d'apprentissage.Différents types de fonction saturante peuvent être envisagés 1 ) f (x α ou ) = x α si |xα| < l
f (x α ) = signe (x α) sinon 20) f (x d ) = th (x α)
En fait on applique
avec CL représentant une coupure par rapport à la variance, par exemple # [ 1/3 > 3 -
Suite à ce traitement permettant de remédier au problème de surajustement, le signal intermédiaire représenté par un vecteur de dimension m subit une transformation linéaire donnée par l'opérateur < K | H l/2, dans laquelle < K I est le vecteur de Hebb. Le signe de la valeur réelle obtenue en sortie suite à ce traitement donne la classification, à savoir première classe si +1, deuxième classe si -1.
La présente invention a été décrite en se référant de manière générale à un signal quelconque. En fait, la présente invention peut s'appliquer à la classification d'éléments émettant un signal sonore (ce signal sonore étant décomposé en spectres de fréquence), à la classification d'images visibles ou infra-rouge en utilisant soit les images brutes, soit la décomposition en Fourier ou en ondelettes. La présente invention peut aussi être utilisée pour la classification d'images radar.
De même, l'invention a été décrite en se référant à une classification en deux classes. Toutefois, la présente invention peut aussi s'appliquer à une classification en n classes, n étant supérieur ou égal à 2.
Dans le cas d'une classification en n classes, le codage en sortie est vectoriel, noté 1 ai > .
En fait, la première transformation linéaire est identique au cas de la classification en deux classes. Au niveau de la deuxième transformation linéaire, on remplace dans l'équation 1 la projection K < K 1/2 par l'opérateur K H 1/2, où K est la matrice de Hebb
D'autre part, le procédé de la présente invention est particulièrement intéressant lorsque le nombre d'éléments constituant la base d'apprentissage est inférieur à la dimension
N de l'espace de description car c'est le cas où l'on obtient un meilleur traitement du surajustement.
N de l'espace de description car c'est le cas où l'on obtient un meilleur traitement du surajustement.
Claims (6)
1. Procédé de classification de signaux en n catégories, n étant supérieur ou égal à deux, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, ledit procédé consistant, dans le cas d'un système utilisant une base d'apprentissage, à - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m 4 N) dont les variables sont indépendantes et présentent une variance de valeur 1 sur la base d'apprentissage;; - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associées constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation - transformer le vecteur intermédiaire ainsi obtenu par une seconde transformation linéaire en un vecteur code de sortie permettant de classifier le signal dans l'une des n catégories.
2. Procédé selon la revendication 1, caractérisé en ce que la première transformation linéaire consiste à multiplier le vecteur l x > correspondant au signal à classifier, par l'opérateur H 1/2, et à exprimer ce résultat dans la base des
dans lequel t et Aen représentent respectivement les vecteurs propres et les valeurs propres de la matrice de covariance H de rang m obtenue à partir des vecteurs centrés de dimension N formant la base d'apprentissage.
3. Procédé selon l'une quelconque des revendications l à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à éliminer les variables x α dont la valeur propre # α est inférieure à un seuil donné.
4. Procédé selon l'une quelconque des revendications 1 à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à pondérer les variables x di par une valeur, fonction croissante de Wd, telle que (jXd)k k avec k égal à un réel positif.
5. Procédé selon l'une quelconque des revendications 1 à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à appliquer aux variables x α une fonction saturante telle qu'unie fonction tangente hyperbolique th(x) ou une fonction f (x α) = xα si |xα| < 1 sinon f (xα) = signe (toc) ou bien une fonction th (Il.x), f(ll.x), p représentant une coupure par rapport à la variance.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que la seconde transformation linéaire consiste à multiplier le vecteur intermédiaire par KH-1/2 dans lequel H l/2 représente l'opérateur défini par
avec |α > et #α représentant respectivement les vecteurs propres et les valeurs propres de la matrice de covariance de rang m obtenue à partir des vecteurs centrés de dimension N formant la base d'apprentissage, et K représente l'opérateur de Hebb défini sur la base d'apprentissage par
avec < Ai \ représentant les vecteurs de la base d'apprentissage et | ai > le vecteur-code de classification de chaque vecteur.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8901406A FR2736727A1 (fr) | 1989-02-03 | 1989-02-03 | Procede de classification de signaux en plusieurs categories |
GBGB9002173.4A GB9002173D0 (en) | 1989-02-03 | 1990-01-31 | Method of classification of signals into several categories |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8901406A FR2736727A1 (fr) | 1989-02-03 | 1989-02-03 | Procede de classification de signaux en plusieurs categories |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2736727A1 true FR2736727A1 (fr) | 1997-01-17 |
Family
ID=9378454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR8901406A Withdrawn FR2736727A1 (fr) | 1989-02-03 | 1989-02-03 | Procede de classification de signaux en plusieurs categories |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2736727A1 (fr) |
GB (1) | GB9002173D0 (fr) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111524502B (zh) * | 2020-05-27 | 2024-04-30 | 科大讯飞股份有限公司 | 一种语种检测方法、装置、设备及存储介质 |
-
1989
- 1989-02-03 FR FR8901406A patent/FR2736727A1/fr not_active Withdrawn
-
1990
- 1990-01-31 GB GBGB9002173.4A patent/GB9002173D0/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
GB9002173D0 (en) | 2010-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Morello et al. | SPINN: a straightforward machine learning solution to the pulsar candidate selection problem | |
CN108985365B (zh) | 基于深度子空间切换集成学习的多源异构数据融合方法 | |
EP2786397B1 (fr) | Procede d'identification de microorganismes par spectrometrie de masse | |
EP0743512A1 (fr) | Procédé de correction d'un signal délivré par un instrument de mesure | |
WO2009106783A1 (fr) | Procede et dispositif pour la determination de fonctions de transfert de type hrtf | |
EP0514986B1 (fr) | Procédé d'apprentissage d'un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé | |
CN115326783B (zh) | 拉曼光谱预处理模型生成方法、系统、终端及存储介质 | |
CN113222836A (zh) | 一种高光谱与多光谱遥感信息融合方法及系统 | |
Chen et al. | Imaging and representation learning of solar radio spectrums for classification | |
EP3411801A1 (fr) | Procédé et dispositif de reconstruction d'un signal utile à partir d'un signal acquis bruité | |
CN109785234B (zh) | 一种拉曼成像方法、系统以及装置 | |
EP0276603B1 (fr) | Procédés de codage et de transmission d'un signal numérique, par rafraichissement temporel sélectif d'un quantificateur vectoriel | |
FR2736727A1 (fr) | Procede de classification de signaux en plusieurs categories | |
EP0464115A1 (fr) | Procede et dispositif d'analyse spectrale en temps reel de signaux instationnaires complexes | |
EP4099228A1 (fr) | Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes | |
EP0568616A1 (fr) | Procede de reconnaissance d'objets codes par des vecteurs | |
EP4166931B1 (fr) | Méthode de cartographie multi-espèces d'une zone à partir de données spectrales | |
CN113034264A (zh) | 客户流失预警模型的建立方法、装置、终端设备及介质 | |
EP0456804B1 (fr) | Procede de compression d'images par auto-organisation d'un reseau neuronal | |
Sharma et al. | Entropy based optimized weighted histogram equalization for hazy images | |
EP4163866A1 (fr) | Procédé, programme d'ordinateur et dispositif de traitement d'images par extraction de composante(s) principale(s) d'une représentation d'images | |
FR2929431A1 (fr) | Procede et dispositif de classification des echantillons representatifs d'un signal numerique d'image | |
FR3137475A1 (fr) | Procédé et dispositif d’estimation de l’authenticité d’un contenu audio ou vidéo et programme d’ordinateur associé | |
EP3920101A1 (fr) | Methode de reduction de la taille d'un reseau de neurones artificiel | |
FR3136855A1 (fr) | Méthode de génération de données spectrales synthétiques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |