FR2736727A1 - Procede de classification de signaux en plusieurs categories - Google Patents

Procede de classification de signaux en plusieurs categories Download PDF

Info

Publication number
FR2736727A1
FR2736727A1 FR8901406A FR8901406A FR2736727A1 FR 2736727 A1 FR2736727 A1 FR 2736727A1 FR 8901406 A FR8901406 A FR 8901406A FR 8901406 A FR8901406 A FR 8901406A FR 2736727 A1 FR2736727 A1 FR 2736727A1
Authority
FR
France
Prior art keywords
vector
variables
alpha
learning
eigenvalues
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR8901406A
Other languages
English (en)
Inventor
Francois Vallet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thomson CSF SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson CSF SA filed Critical Thomson CSF SA
Priority to FR8901406A priority Critical patent/FR2736727A1/fr
Priority to GBGB9002173.4A priority patent/GB9002173D0/en
Publication of FR2736727A1 publication Critical patent/FR2736727A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Abstract

La présente invention concerne un procédé de classification de signaux en n catégories (n >= 2). Ce procédé, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, consiste dans le cas d'un système utilisant une base d'apprentissage, à: - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m =< N) dont les variables sont indépendantes et présentent une variance de valeur 1 sur la base d'apprentissage; - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associés constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage; - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation; - transformer le vecteur intermédiaire ainsi obtenu par une seconde transformation linéaire en une valeur de sortie réelle permettant de classifier le signal dans l'une des n catégories. L'invention s'applique notamment à la classification de signaux sonores décomposés selon leurs spectres en fréquence, d'images visibles au infra-rouge, d'images RADAR.

Description

PROCEDE DE CLASSIFICATION DE SIGNAUX
EN PLUSIEURS CATEGORIES
La présente invention concerne un procédé de classification de signaux en plusieurs catégories, plus particulièrement un procédé de classification en plusieurs catégories de signaux définis par un vecteur de dimension N dans lequel N est grand.
Pour classifier des signaux,il est connu de mettre en oeuvre une phase dite phase d'apprentissage De manière générale, cette phase consiste à configurer un réseau qui réalise une fonction effectuant au mieux la classification envisagée en utilisant un ensemble de P signaux, appelé base d'apprentissage, dont on connait pour chacun l'appartenance à l'une des catégories en lesquelles on veut les classifier. Puis l'on teste ce réseau à l'aide d'un second ensemble de signaux, appelé base de généralisation, dont on connait aussi pour chacun l'appartenance à l'une des catégories de classification. Ceci permet de connaître les performances du réseau de décision face à des signaux inconnus lors de la phase d'apprentissage.Dans le cas d'une classification en deux classes, un des modèles les plus simples est le classifieur linéaire qui est défini par un vecteur-poids W > W) et dont la sortie est donnée par
Figure img00010001

signe < W | x > dans lequel I x > est un vecteur, < W 1 est égal à |W > t et < W | x > représente le produit scalaire. Dans ce cas, la sortie +1 est affectée à la première classe et la sortie -1 à la seconde classe. Parmi les solutions de ce type connues en traitement de signal ou de données, l'une des solutions couramment utilisée est celle qui minimise, par rapport au vecteur | W > , le coût quadratique suivant
Figure img00010002

dans lequel 1 Ai > représente un vecteur de la base d'apprentissage et ai la valeur-code de classification dudit vecteur. Cette solution est connue sous le nom de solution pseudo-inverse.
Cette solution pseudo-inverse qui minimise un coût défini sur la base d'apprentissage peut donner un très bon résultat à l'apprentissage, mais n'est pas entièrement satisfaisante lors de la généralisation. Dans ce cas, en effet, on observe un surajustement de l'opérateur linéaire défini par < W ≈, à la base d'apprentissage du fait que la fonction de coût considérée, à savoir le coût quadratique, a transformé la vraie contrainte initiale en une contrainte plus forte.
De ce fait, avec la solution pseudo-inverse, on pénalise autant un signal trop bien classé qu'un signal mal classé. Car ces deux signaux ont un coût identique du fait de la symétrie de la fonction de coût considérée autour de la valeur désirée ai.
La présente invention a pour but de proposer un procédé de classification de signaux en au moins deux catégories, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, procédé qui permet de remédier a cet inconvénient de surajustement et d'obtenir de bons résultats lors de la généralisation. Le réseau obtenu est ainsi mieux adapté à la reconnaissance générale de signaux inconnus à priori.
En conséquence, la presente invention a pour objet un procédé de classification de signaux en n catégories, n étant supérieur ou égal à deux, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, ledit procédé consistant, dans le cas d'un système utilisant une base d'apprentissage, à - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m 4 N) dont les variables sont indépendantes et présentent une variance de valeur 1, sur la base d'apprentissage - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associées constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation; - transformer le vecteur intermédiaire ainsi obtenu par une transformation linéaire en une valeur de sortie réelle permettant de classifier le signal dans l'une des n catégories.
En fait dans le procédé ci-dessus, on découple les différentes étapes de traitement et l'on fait apparaître au niveau d'un vecteur intermédiaire, un vecteur directement en rapport avec les caractéristiques de surajustement qu'il est alors possible de traiter pour obtenir de bons résultats lors de la généralisation.
Différents traitements de ce vecteur intermédiaire peuvent être envisagés.
Selon un premier mode de réallsatlon, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à éliminer les variables dont la valeur propre est inférieure à un seuil donné.
Selon un autre mode de réalisation, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à pondérer ces variables par une valeur, fonction croissante de Ad, telle que ( )k avec k égal à un nombre réel positif.
Selon encore un autre mode de réalisation, le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à appliquer à ces variables une fonction saturante telle qu'une fonction tangente hyperbolique.
La présente invention sera mieux comprise à l'aide de la description faite ci-après d'un mode de réalisation dans le cas d'un procédé de classification en deux classes, illustré à l'aide du dessin ci-annexé dans lequel - la figure l est une courbe donnant le taux de bonne classification lors de l'apprentissage et lors de la généralisation dans le cas du premier mode de réalisation; et - la figure 2 est une courbe donnant le taux de bonne classification lors de l'apprentissage et lors de la généralisation dans le cas du second mode de réalisation.
Aussi, dans le cas d'un procédé de classification en deux classes, chaque signal représenté par le vecteur Ai de dimension N se verra affecter à la fin du procédé de classification une valeur de sortie ai = +1 s'il appartient à la première classe, et une valeur de sortie ai = -1 s'il appartient à la seconde classe. La solution actuellement utilisée, dans le cadre de modèle linéaire, est la solution qui minimise, sur la base d'apprentissage, le coût quadratique suivant
Figure img00040001
Cette solution est appelée solution pseudo-inverse et elle est représentée par le vecteur < WpI t qui peut être écrit sous la forme < Wp1 = < K i 1 où < K est le vecteur transposé du vecteur de Hebb
Figure img00040002

et H-1 la matrice quasi-inverse de la matrice H, H étant la matrice de covariance de la base d'apprentissage définie par
Figure img00040003

avec des vecteurs centrés
Figure img00040004
Dans ce cas, H étant réel symétrique, elle est diagonalisable.H est donc représenté par
Figure img00050001

m étant le nombre de valeurs propres non nulles, ce qui permet de définir H-1 par
Figure img00050002
Cette solution, bien que minimisant le coût défini sur la base d'apprentissage, ne présente pas une bonne capacité de généralisation.
Cette solution donne la classification suivante
Figure img00050003
C'est-à-dire
Figure img00050004

où les variables xd, Ko( sont les normalisations en écart-type
Figure img00050005

et x x &alpha; présente sur la base d'apprentissage une variance égale à 1.
Ainsi, pour une variable x 06 de valeur propre associée
Figure img00050006

petite, on procède lors de la normalisation en écart type à une division par une faible valeur. Lors de la généralisation, cette division peut amener la variable correspondante à se trouver en dehors des normes, car la variable n'est pas normalisée sur l'ensemble de généralisation.
Ainsi, les écarts entre les statistiques des signaux d'apprentissage et de généralisation sont d'autant plus importants que la valeur propre correspondante est faible. On a donc un surajustement de l'opérateur linéaire qui minimise le coût quadratique à la base d'apprentissage du fait que la fonction de coût considérée a transformé la vraie contrainte initiale, à savoir signe ( < W \ A1 > ) = ai en une contrainte bien plus forte, à savoir : < W | Ai > = ai.
Pour remédier à ces inconvénients, et conformément à la présente invention, on modifie les variables intermédiaires x de façon à annuler cet effet de surajustement.
Le signal intermédiaire est donc représenté par un vecteur de dimension m dont les variables x &alpha; sont les projections orthogonales sur les m vecteurs propres de H, normalisées par les écarts types correspondants.
Conformément à la présente invention, les composantes du signal intermédiaire ont été ordonnées dans l'ordre décroissant de leur valeur propre, notées >
D'autre part, conformément à la présente invention, on traite ce signal intermédiaire de manière à diminuer l'importance des paramètres de variance la plus faible ou à projeter les vecteurs de test sur le nuage statistique défini par la base d'apprentissage.
Différents types de traitement peuvent être envisagés à ce niveau.
Un premier traitement consiste à ne garder parmi les variables x du signal intermédiaire que celles correspondant aux valeurs propres supérieures à un seuil donné et à mettre à zéro toutes les autres. Cela revient à multiplier chaque variable x els par une fonction F( #&alpha; ) où F(#) = 0, si > est inférieur à un seuil donné, et F (#) = 1, sinon.
Des essais sur signaux réels réalisés à partir d'un ensemble de 500 signaux correspondant å 500 éléments à classifier en deux classes, 200 signaux étant affectés à la base d'apprentissage et les 300 autres à la base de généralisation, ont montré que le taux de bonne classification passe lors de la généralisation, d'environ 72et. avec la solution actuellement utilisée à environ 85% avec la solution de la présente invention correspondant au cas où 50% des variables intermédiaires x ont été mises à zéro.
Cette première solution est illustrée par la figure 1 qui représente la courbe typique des taux de bonne classification à l'apprentissage et à la généralisation en fonction du pourcentage d'éléments de la base d'apprentissage mis à zéro. On s'aperçoit que, pour obtenir une bonne réponse lors de la généralisation, il n'est pas utile d'avoir un apprentissage à 100 %.
Une autre solution consiste à multiplier chaque variable x ot par une fonction F
Figure img00070001

dans laquelle k est un réel positif.
Dans ce cas, on obtient une coupure plus progressive puisqu'on multiplie les variables z , par une fonction progressivement monotone croissante. Parmi les valeurs de k qui ont pu être testées, on s'aperçoit, comme représenté à la figure 2, que la solution k = 1/2 donne en général un bon résultat.
Ainsi, sur 500 éléments testés, 200 étant affectés à la base d'apprentissage et 300 à la base de généralisation, on a obtenu les résultats donnés dans le tableau ci-après
Apprentissage Généralisation
k = O 100 % 72 %
(pseudo-inverse)
k = 1/2 90 % 81 %
k = 1 78 % 80 %
Selon un troisième mode de réalisation, on applique à chaque variable zCot une fonction saturante dont le rôle est de ramener les valeurs prises par ces variables intermédiaires x à un maximun correspondant à l'enveloppe des valeurs pouvant être prises sur la base d'apprentissage.Différents types de fonction saturante peuvent être envisagés 1 ) f (x &alpha; ou ) = x &alpha; si |x&alpha;| < l
f (x &alpha; ) = signe (x &alpha;) sinon 20) f (x d ) = th (x &alpha;)
En fait on applique
Figure img00080001

avec CL représentant une coupure par rapport à la variance, par exemple # [ 1/3 > 3 -
Suite à ce traitement permettant de remédier au problème de surajustement, le signal intermédiaire représenté par un vecteur de dimension m subit une transformation linéaire donnée par l'opérateur < K | H l/2, dans laquelle < K I est le vecteur de Hebb. Le signe de la valeur réelle obtenue en sortie suite à ce traitement donne la classification, à savoir première classe si +1, deuxième classe si -1.
La présente invention a été décrite en se référant de manière générale à un signal quelconque. En fait, la présente invention peut s'appliquer à la classification d'éléments émettant un signal sonore (ce signal sonore étant décomposé en spectres de fréquence), à la classification d'images visibles ou infra-rouge en utilisant soit les images brutes, soit la décomposition en Fourier ou en ondelettes. La présente invention peut aussi être utilisée pour la classification d'images radar.
De même, l'invention a été décrite en se référant à une classification en deux classes. Toutefois, la présente invention peut aussi s'appliquer à une classification en n classes, n étant supérieur ou égal à 2.
Dans le cas d'une classification en n classes, le codage en sortie est vectoriel, noté 1 ai > .
En fait, la première transformation linéaire est identique au cas de la classification en deux classes. Au niveau de la deuxième transformation linéaire, on remplace dans l'équation 1 la projection K < K 1/2 par l'opérateur K H 1/2, où K est la matrice de Hebb
Figure img00090001
D'autre part, le procédé de la présente invention est particulièrement intéressant lorsque le nombre d'éléments constituant la base d'apprentissage est inférieur à la dimension
N de l'espace de description car c'est le cas où l'on obtient un meilleur traitement du surajustement.

Claims (6)

REVENDICATIONS
1. Procédé de classification de signaux en n catégories, n étant supérieur ou égal à deux, dans lequel chaque signal à classifier est défini par un vecteur de dimension N, ledit procédé consistant, dans le cas d'un système utilisant une base d'apprentissage, à - transformer le vecteur de dimension N à l'aide d'une première transformation linéaire en un vecteur de dimension m (m 4 N) dont les variables sont indépendantes et présentent une variance de valeur 1 sur la base d'apprentissage;; - ordonner lesdites variables dans l'ordre décroissant de leurs valeurs propres associées constituées par les valeurs propres de la matrice de covariance de la base d'apprentissage - traiter lesdites variables de manière à obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance lors de la généralisation - transformer le vecteur intermédiaire ainsi obtenu par une seconde transformation linéaire en un vecteur code de sortie permettant de classifier le signal dans l'une des n catégories.
2. Procédé selon la revendication 1, caractérisé en ce que la première transformation linéaire consiste à multiplier le vecteur l x > correspondant au signal à classifier, par l'opérateur H 1/2, et à exprimer ce résultat dans la base des
Figure img00100001
dans lequel t et Aen représentent respectivement les vecteurs propres et les valeurs propres de la matrice de covariance H de rang m obtenue à partir des vecteurs centrés de dimension N formant la base d'apprentissage.
3. Procédé selon l'une quelconque des revendications l à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à éliminer les variables x &alpha; dont la valeur propre # &alpha; est inférieure à un seuil donné.
4. Procédé selon l'une quelconque des revendications 1 à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à pondérer les variables x di par une valeur, fonction croissante de Wd, telle que (jXd)k k avec k égal à un réel positif.
5. Procédé selon l'une quelconque des revendications 1 à 2, caractérisé en ce que le traitement permettant d'obtenir un vecteur intermédiaire dans lequel les variables correspondant aux valeurs propres les plus fortes ont une plus grande importance consiste à appliquer aux variables x &alpha; une fonction saturante telle qu'unie fonction tangente hyperbolique th(x) ou une fonction f (x &alpha;) = x&alpha; si |x&alpha;| < 1 sinon f (x&alpha;) = signe (toc) ou bien une fonction th (Il.x), f(ll.x), p représentant une coupure par rapport à la variance.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que la seconde transformation linéaire consiste à multiplier le vecteur intermédiaire par KH-1/2 dans lequel H l/2 représente l'opérateur défini par
Figure img00110001
avec |&alpha; > et #&alpha; représentant respectivement les vecteurs propres et les valeurs propres de la matrice de covariance de rang m obtenue à partir des vecteurs centrés de dimension N formant la base d'apprentissage, et K représente l'opérateur de Hebb défini sur la base d'apprentissage par
Figure img00120001
avec < Ai \ représentant les vecteurs de la base d'apprentissage et | ai > le vecteur-code de classification de chaque vecteur.
FR8901406A 1989-02-03 1989-02-03 Procede de classification de signaux en plusieurs categories Withdrawn FR2736727A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR8901406A FR2736727A1 (fr) 1989-02-03 1989-02-03 Procede de classification de signaux en plusieurs categories
GBGB9002173.4A GB9002173D0 (en) 1989-02-03 1990-01-31 Method of classification of signals into several categories

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR8901406A FR2736727A1 (fr) 1989-02-03 1989-02-03 Procede de classification de signaux en plusieurs categories

Publications (1)

Publication Number Publication Date
FR2736727A1 true FR2736727A1 (fr) 1997-01-17

Family

ID=9378454

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8901406A Withdrawn FR2736727A1 (fr) 1989-02-03 1989-02-03 Procede de classification de signaux en plusieurs categories

Country Status (2)

Country Link
FR (1) FR2736727A1 (fr)
GB (1) GB9002173D0 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111524502B (zh) * 2020-05-27 2024-04-30 科大讯飞股份有限公司 一种语种检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
GB9002173D0 (en) 2010-01-13

Similar Documents

Publication Publication Date Title
Morello et al. SPINN: a straightforward machine learning solution to the pulsar candidate selection problem
CN108985365B (zh) 基于深度子空间切换集成学习的多源异构数据融合方法
EP2786397B1 (fr) Procede d&#39;identification de microorganismes par spectrometrie de masse
EP0743512A1 (fr) Procédé de correction d&#39;un signal délivré par un instrument de mesure
WO2009106783A1 (fr) Procede et dispositif pour la determination de fonctions de transfert de type hrtf
EP0514986B1 (fr) Procédé d&#39;apprentissage d&#39;un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé
CN115326783B (zh) 拉曼光谱预处理模型生成方法、系统、终端及存储介质
CN113222836A (zh) 一种高光谱与多光谱遥感信息融合方法及系统
Chen et al. Imaging and representation learning of solar radio spectrums for classification
EP3411801A1 (fr) Procédé et dispositif de reconstruction d&#39;un signal utile à partir d&#39;un signal acquis bruité
CN109785234B (zh) 一种拉曼成像方法、系统以及装置
EP0276603B1 (fr) Procédés de codage et de transmission d&#39;un signal numérique, par rafraichissement temporel sélectif d&#39;un quantificateur vectoriel
FR2736727A1 (fr) Procede de classification de signaux en plusieurs categories
EP0464115A1 (fr) Procede et dispositif d&#39;analyse spectrale en temps reel de signaux instationnaires complexes
EP4099228A1 (fr) Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes
EP0568616A1 (fr) Procede de reconnaissance d&#39;objets codes par des vecteurs
EP4166931B1 (fr) Méthode de cartographie multi-espèces d&#39;une zone à partir de données spectrales
CN113034264A (zh) 客户流失预警模型的建立方法、装置、终端设备及介质
EP0456804B1 (fr) Procede de compression d&#39;images par auto-organisation d&#39;un reseau neuronal
Sharma et al. Entropy based optimized weighted histogram equalization for hazy images
EP4163866A1 (fr) Procédé, programme d&#39;ordinateur et dispositif de traitement d&#39;images par extraction de composante(s) principale(s) d&#39;une représentation d&#39;images
FR2929431A1 (fr) Procede et dispositif de classification des echantillons representatifs d&#39;un signal numerique d&#39;image
FR3137475A1 (fr) Procédé et dispositif d’estimation de l’authenticité d’un contenu audio ou vidéo et programme d’ordinateur associé
EP3920101A1 (fr) Methode de reduction de la taille d&#39;un reseau de neurones artificiel
FR3136855A1 (fr) Méthode de génération de données spectrales synthétiques

Legal Events

Date Code Title Description
ST Notification of lapse