WO2014009548A1 - Method of formulating a multiclass discriminator - Google Patents

Method of formulating a multiclass discriminator Download PDF

Info

Publication number
WO2014009548A1
WO2014009548A1 PCT/EP2013/064829 EP2013064829W WO2014009548A1 WO 2014009548 A1 WO2014009548 A1 WO 2014009548A1 EP 2013064829 W EP2013064829 W EP 2013064829W WO 2014009548 A1 WO2014009548 A1 WO 2014009548A1
Authority
WO
WIPO (PCT)
Prior art keywords
class
discriminator
classes
observations
producing
Prior art date
Application number
PCT/EP2013/064829
Other languages
French (fr)
Inventor
Stéphane Canu
Jérôme Fournier
Yves GRANDVALET
Benjamin LABBE
Gaëlle LOOSLI
Benjamin QUOST
Liva RALAIVOLA
Original Assignee
Thales
Institut National Des Sciences Appliquees De Rouen
Universite De Technologie De Compiegne
Centre National De La Recherche Scientifique
Universite D'aix-Marseille
Universite Blaise Pascal Clermont-Ferrand Ii
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales, Institut National Des Sciences Appliquees De Rouen, Universite De Technologie De Compiegne, Centre National De La Recherche Scientifique, Universite D'aix-Marseille, Universite Blaise Pascal Clermont-Ferrand Ii filed Critical Thales
Publication of WO2014009548A1 publication Critical patent/WO2014009548A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Definitions

  • the field of the invention is that of the automatic discrimination of observations, for example in the image monitoring or video surveillance systems where it is sought to decide from observations whether a situation is normal or not.
  • Discrimination is the assignment of an observation to a class among Q known classes of observations (for example, to assign an observation from an imaging system to the airplane or bird class or other ), while the term classification is reserved for the constitution of classes. Discrimination therefore occurs when classes have been previously defined and therefore associated with a label.
  • the variety of objects and backgrounds present in the natural scenes treated is very important and it is complex to discern the objects, especially as their distance and possibly their speed radial when these objects are mobile, are not known for acquisitions made in passive imaging.
  • the boats can be very similar to airplanes (close radial velocities, almost uniform rectilinear motion, near intensity levels, etc.).
  • the objects of interest must potentially be treated at a great distance, which augurs for low resolutions and therefore information that is not necessarily very rich in order to make a decision of discrimination.
  • the shooting conditions weather conditions, day / night conditions, reflections, glare, ...) change the signal on these objects, further complicating the task of discrimination.
  • the discrimination functions (one per class) that will be used to discriminate the observations, are defined as well as the assignment rules, starting from of a learning set composed of pairs (xi, yi), where xi is a learning observation (consisting of the characteristics extracted from the object Xi), yi the label of the known class to which this observation belongs, i varying from 1 to n, where n is the number of learning observations,
  • An image sensor for example forms the image of a scene from which an observation x c is extracted consisting of the characteristics extracted from the object X c or more generally a signal to be discriminated by the discrimination system. These characteristics are extracted by applying the same feature extraction method as for the off-line phase.
  • the signal is then itself represented during a so-called representation phase which consists in calculating for each class the value of the discrimination function for this signal, then the class to which it belongs is determined at the end of a so-called assignment phase.
  • the difficulty is then to determine during this learning phase the boundaries between the classes, that is to say the decision rules making it possible to decide whether or not an observation belongs to a class, and to reject observations not belonging to any class defined a priori.
  • the definition phase of these rules consists in partitioning the representation space thanks to borders; this phase consists in estimating boundary functions that minimize decision errors on a set of learning observations whose class is known, for a given definition of the characteristics of the object.
  • the problem is therefore to find the right decision engine, in a multi-class context that is to say with a number Q of classes greater than or equal to 2. It is known to build these decision rules by relying on an SVM approach, an acronym for the term “Large Margin Separators" and also an acronym for "Support Vector Machines".
  • the margin is the distance between the hyperplane and the closest observations; according to Vapnik's theory of learning, the optimal hyperplane is only characterized by the observations closest to it. These last called support vectors are therefore sufficient to define a fast online decision engine and maximizing the probability of a good decision.
  • the contribution of each of these observations to the decision constitutes the solution of a quadratic program of known size, for which there are several resolution software solutions. Depending on the resolution solution chosen, the number of variables is equal to the number of learning observations n, or to the number of dimensions of the representation space d. The two modes of resolution are equivalent.
  • this SVM approach is generalized by the introduction of variance variables and by the implicit projection of learning observations in a space of dimension greater than the space of the characteristics of the variables. observations, even of infinite dimension, in which the probability the existence of a linear boundary separating the learning observations of the two classes is greater.
  • This is achieved through the use of a kernel function.
  • core functions polynomial functions, radial-based functions including Gaussian, quadratic rational, or hyperbolic tangent function.
  • the "one against all” approach consists in constructing Q binary discriminators by considering each class one after another, and each time assigning the +1 tag to the observations of the class considered and -1 to the observations of all other classes.
  • This approach requires the resolution of Q quadratic problems of size n, where n is the total number of observations.
  • This approach is illustrated in figure 3a for 3 classes, where one of the 3 binary discriminators is represented, in this case that of the class of circles against classes of squares and triangles.
  • the one-on-one approach is to build Q (Q-1) / 2 binary discriminators by comparing each of the Q classes to all the others individually. This approach requires the resolution of Q (Q-1) / 2 quadratic problems of size 2n / Q. This approach is illustrated in Figure 3b for 3 classes, where the two binary discriminators of the class of circles are represented.
  • the overall approach is to simultaneously build Q classifiers by directly solving a quadratic program of size nQ.
  • the invention is based on an intermediate approach between the discriminative approach and the One class-SVM approach.
  • the subject of the invention is a method for producing a discriminator of objects obtained by an acquisition device equipped with a sensor, which comprises the following steps:
  • n acquired objects n> 1
  • the characteristics of an object constituting an observation x which is associated with a class, i varying from 1 to n
  • the discriminator comprising Q classes with Q> 2
  • this step of constructing the decision rule comprises the following sub-step: determining for each class q a discriminating function representing this class, q varying from 1 to Q, from ce parameters, positive or nulls that are defined by calculating
  • M k (Xj, Xj) -Ak (Xj, Xj) if x, and Xj belong to the same class or,
  • the discrimination function is a convex envelope g q , the calculation defining the parameters 3 ⁇ 4 then consisting in simultaneously minimizing the sum of the distances between all the pairs of convex envelopes and a weighted regularization term.
  • a parameter ⁇ with ⁇ 1 / (Q + ⁇ ).
  • the discrimination function is a level curve f q , the calculation defining the parameters 3 ⁇ 4 then consisting in simultaneously minimizing the sum:
  • the dimension of the quadratic program to solve to learn the decision boundaries is equal to n whatever the number Q of classes.
  • This makes it possible to construct, in a computationally efficient manner, decision boundaries with a large number n of learning observations and a large number Q of classes.
  • the use of convex envelopes or contour lines will allow when using online to reject anomalies (distance rejection and / or ambiguity).
  • ⁇ C C being a real number such as
  • the default choice ⁇ 1 / Q promotes discrimination.
  • the regularization term may be the sum of the two standard squared discrimination functions or the sum of their norms one.
  • the step of constructing the decision rule comprises the following sub-step: determining allocation rules from said discrimination functions.
  • the invention also relates to a computer program comprising code instructions for performing the steps of the method as described above, when said program is executed on a computer.
  • the invention also relates to a method for discriminating a candidate object obtained by an acquisition device equipped with a sensor, which comprises the following steps:
  • the invention also relates to a computer program comprising code instructions for performing the steps of this method of discriminating a candidate object as described above, when said program is executed on a computer.
  • the objects are for example extracted from images acquired by an imaging device.
  • FIG. 1 already described schematically represents the principles of automatic discrimination
  • FIG. 2 already described represents schematically for two classes, several linear separations, among which that which maximizes the margin
  • FIGS. 3 already described schematically illustrate three approaches for determining multi-class decision boundaries according to the state of the art: "one against all”, “one against one", one-class,
  • FIG. 4 schematically illustrates the construction of decision rules for 3 classes, according to a first embodiment of the invention
  • Figure 5 schematically illustrates convex envelopes and contour lines for 3 classes, according to the invention.
  • M k (Xi, Xj) -Ak (Xi, Xj) if x, and Xj belong to the same class or,
  • a real non-zero regularization parameter experimentally predetermined so as to favor discrimination with respect to rejection or to balance discrimination and rejection, as will be seen later,
  • An observation x is a vector with dimensions (Xie R d ), d being the number of characteristics defined during the extraction of the characteristics of the object.
  • the x can be complex objects like graphs, probability distributions, automata, ...
  • This positive kernel function can be, non-exhaustively:
  • the parameter ⁇ can be determined by minimizing a bound of the error or experimentally so as to maximize the discriminator's correct decision on a subset of randomly selected learning observations.
  • H being the reproducing kernel Hilbert space induced by the chosen positive k kernel.
  • FIG. 4 This is illustrated in FIG. 4 on which are represented 3 linearly separable classes and the decision boundaries F1 -2, F2-3, F3-1: class 1 with its convex envelope g- ⁇ , class 2 with its convex envelope g 2 class 3 with its convex envelope g 3 , these envelopes being such that the distances
  • are simultaneously minimal.
  • the nature of the functions g q will allow during the online phase to reject individuals from other classes and anomalies, that is to say, to ensure rejection ambiguity and distance.
  • the choice of ⁇ makes it possible to balance the performance and rejection constraints.
  • the problem is relaxed by modifying the weighting between the scalar products and the norms of the convex envelopes.
  • the discrimination function is a contour.
  • biases are analogous to levels of probability; they are given explicitly by solving the problem (3) below or implicitly through the Lagrange multipliers of the equality constraints of the problem above,
  • the complexity of calculating the learning of convex envelopes g q or contour lines f q is that of a quadratic program with n unknowns whatever the number Q of classes.
  • the construction of the boundaries of a class takes into account the distribution of observations in the other classes, this allows the interaction between the classes to be taken into account.
  • these discrimination functions are determined in particular according to a regularization term defined from the standard of the discrimination functions considered. According to an alternative, this standard can be replaced by a pseudo-norm.
  • assignment rules can be defined. For example, the following assignment rules can be adopted.
  • a candidate observation (whose characteristics have previously been extracted) is assigned to:
  • a rejection in distance is decided when the maximum of the scores of the functions g q or f q is lower than a threshold null or determined experimentally.
  • the rejection of ambiguity is decided when there is no distance rejection and the difference between the two best scores is lower than another zero or experimentally determined threshold.
  • the discriminator calculates for a candidate observation x c , the values of the discrimination functions for all the classes, ie gi (Xc), g q ( xc ), go (x c ) if the convex hull approach was chosen or fi (Xc), fq (x c ), fo (c) if the contour approach was chosen.
  • a discriminator has been presented in a standby or imaging surveillance context. More generally, it can also be applied to automatic discrimination in a surveillance system of objects acquired by means of a sensor that it is a sensor of an imaging device, or a sound or radar device or any other sensor.
  • the present invention can be implemented from hardware and / or software elements. It may be available as a computer program product on a computer readable medium.
  • the support can be electronic, magnetic, optical, electromagnetic or be an infrared type of diffusion medium.
  • Such supports are, for example, Random Access Memory RAMs (ROMs), magnetic or optical tapes, disks or disks (Compact Disk - Read Only Memory (CD-ROM), Compact Disk - Read / Write (CD-R / W) and DVD).

Abstract

The invention relates to a method of formulating a discriminator of objects which are obtained by an acquisition device furnished with a sensor, which comprises the following steps: - extraction of characteristics of n objects acquired, n > 1, the characteristics of an object constituting an observation xi which is associated with a class, i varying from 1 to n, the discriminator comprising Q classes with Q ≥ 2, - construction of a decision rule for deciding between the classes. This step of constructing the decision rule comprises the following substep: determining for each class q a discrimination function representing this class, q varying from 1 to Q, on the basis of parameters ce, positive or zero which are defined by calculating (I) with Mij = k(xi,xj)-λk(xi,xj) if xi, and xj belong to the same class or, Mij = -λk(xi,xj) otherise, k being a predetermined function with positive kernel, and λ a predetermined real nonzero regularizing parameter, and with for each class q, (II), lq being the set of indices of the observations of class q.

Description

PROCEDE D'ELABORATION D'UN DISCRIMINATEUR MULTI CLASSE  METHOD FOR PRODUCING A MULTI-CLASS DISCRIMINATOR
Le domaine de l'invention est celui de la discrimination automatique d'observations, par exemple dans les systèmes de veille par imagerie ou de vidéo surveillance où l'on cherche à décider à partir d'observations si une situation est normale ou non. The field of the invention is that of the automatic discrimination of observations, for example in the image monitoring or video surveillance systems where it is sought to decide from observations whether a situation is normal or not.
On entend par discrimination l'affectation d'une observation à une classe parmi Q classes connues d'observations (il s'agit par exemple d'affecter une observation issue d'un système d'imagerie, à la classe avion ou oiseau ou autre), alors que le terme classification est réservé à la constitution des classes. La discrimination intervient donc lorsque les classes ont préalablement été définies et donc associées à une étiquette.  Discrimination is the assignment of an observation to a class among Q known classes of observations (for example, to assign an observation from an imaging system to the airplane or bird class or other ), while the term classification is reserved for the constitution of classes. Discrimination therefore occurs when classes have been previously defined and therefore associated with a label.
Le problème posé qui est celui de la discrimination entre différentes classes, devient complexe lorsque des classes sont partiellement confondues, ou lorsqu'on ne dispose que d'informations partielles et/ou bruitées sur les observations à discriminer et a fortiori dans le cas d'un grand nombre de classes.  The problem posed, which is that of discrimination between different classes, becomes complex when classes are partially confused, or when only partial and / or noisy information is available on the observations to be discriminated, and even more so in the case of a lot of classes.
Dans le cas par exemple des systèmes de veille par imagerie, la variété des objets et des arrière-plans présents dans les scènes naturelles traitées est très importante et il est complexe de discerner les objets, d'autant plus que leur distance et éventuellement leur vitesse radiale lorsque ces objets sont mobiles, ne sont pas connues pour des acquisitions réalisées en imagerie passive. Par exemple, à longue distance, les bateaux peuvent être très ressemblants à des avions (vitesses radiales proches, mouvement quasi-rectiligne uniforme, niveaux d'intensité proches, etc.). Les objets d'intérêt doivent potentiellement être traités à grande distance ce qui augure de faibles résolutions et donc d'une information qui n'est pas nécessairement très riche en vue de prendre une décision de discrimination. En outre, les conditions de prise de vue (conditions météo, conditions jour/nuit, reflets, éblouissement, ...) modifient le signal sur ces objets, compliquant davantage la tâche de discrimination. In the case for example of image monitoring systems, the variety of objects and backgrounds present in the natural scenes treated is very important and it is complex to discern the objects, especially as their distance and possibly their speed radial when these objects are mobile, are not known for acquisitions made in passive imaging. For example, at long distance, the boats can be very similar to airplanes (close radial velocities, almost uniform rectilinear motion, near intensity levels, etc.). The objects of interest must potentially be treated at a great distance, which augurs for low resolutions and therefore information that is not necessarily very rich in order to make a decision of discrimination. In addition, the shooting conditions (weather conditions, day / night conditions, reflections, glare, ...) change the signal on these objects, further complicating the task of discrimination.
On considère qu'une observation x est représentée par des caractéristiques (par exemple vitesse, SNR, intensité, signatures de forme, etc) qui ont été extraites d'un objet X. On rappelle en relation avec la figure 1 les principes de la discrimination automatique. On différencie deux phases principales : We consider that an observation x is represented by characteristics (for example speed, SNR, intensity, shape signatures, etc.) that have been extracted from an object X. Recall in connection with Figure 1 the principles of automatic discrimination. There are two main phases:
- une phase hors-ligne dite phase d'apprentissage supervisé pendant laquelle le système de discrimination est élaboré : les fonctions de discrimination (une par classe) qui seront utilisées pour discriminer les observations, sont définies ainsi que les règles d'affectation, à partir d'un ensemble d'apprentissage composé de couples (xi, yi), xi étant une observation d'apprentissage (constituée des caractéristiques extraites de l'objet Xi), yi l'étiquette de la classe connue à laquelle cette observation appartient, i variant de 1 à n, n étant le nombre d'observations d'apprentissage,  - an off-line phase called the supervised learning phase during which the discrimination system is developed: the discrimination functions (one per class) that will be used to discriminate the observations, are defined as well as the assignment rules, starting from of a learning set composed of pairs (xi, yi), where xi is a learning observation (consisting of the characteristics extracted from the object Xi), yi the label of the known class to which this observation belongs, i varying from 1 to n, where n is the number of learning observations,
- et une phase en ligne pendant laquelle un objet inconnu Xc va être reconnu (au sens discriminé). Un capteur d'images par exemple forme l'image d'une scène dont est extraite une observation xc constituée des caractéristiques extraites de l'objet Xc ou plus généralement un signal à discriminer par le système de discrimination. Ces caractéristiques sont extraites en appliquant la même méthode d'extraction de caractéristiques que pour la phase hors-ligne. Le signal est alors lui-même représenté lors d'une phase dite de représentation qui consiste à calculer pour chaque classe la valeur de la fonction de discrimination pour ce signal, puis la classe à laquelle il appartient est déterminée à l'issue d'une phase dite d'affectation. and an online phase during which an unknown object X c will be recognized (in the discriminated sense). An image sensor for example forms the image of a scene from which an observation x c is extracted consisting of the characteristics extracted from the object X c or more generally a signal to be discriminated by the discrimination system. These characteristics are extracted by applying the same feature extraction method as for the off-line phase. The signal is then itself represented during a so-called representation phase which consists in calculating for each class the value of the discrimination function for this signal, then the class to which it belongs is determined at the end of a so-called assignment phase.
La difficulté est alors de déterminer lors de cette phase d'apprentissage les frontières entre les classes, c'est-à-dire les règles de décision permettant de décider de l'appartenance ou non d'une observation à une classe, et de rejeter les observations n'appartenant à aucune des classes définies a priori. La phase de définition de ces règles consiste à partitionner l'espace de représentation grâce à des frontières ; cette phase consiste donc à estimer des fonctions frontières minimisant les erreurs de décision sur un ensemble d'observations d'apprentissage dont la classe est connue, pour une définition donnée des caractéristiques de l'objet. Le problème est donc de trouver le bon moteur de décision, dans un contexte multi-classes c'est-à-dire avec un nombre Q de classes supérieur ou égal à 2. II est connu de construire ces règles de décision en s'appuyant sur une approche SVM, acronyme de l'expression « Séparateurs à Vaste Marge » et également acronyme de l'expression anglo-saxonne « Support Vector Machines ». Cette approche discriminative notamment décrite dans le document US 5 649 068 dans le cas de deux classes, permet de trouver parmi tous les hyperplans séparateurs de ces deux classes, celui qui est optimal, c'est-à-dire qui maximise la marge entre l'hyperplan et les échantillons (autre appellation des observations d'apprentissage). Vapnik a démontré [B.E. Boser, I.M. Guyon and V.N. Vapnik, A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory, pages 144-152. ACM, 1992] que la maximisation de la marge correspond à la minimisation de l'erreur de généralisation de la décision sur les observations futures pour un ensemble fini d'observations d'apprentissage. Le principe de généralisation est illustré figure 2. La marge est la distance entre l'hyperplan et les observations les plus proches ; selon la théorie de l'apprentissage de Vapnik, l'hyper-plan optimal n'est caractérisé que par les observations les plus proches de celui- ci. Ces dernières appelées vecteurs supports sont donc suffisantes pour définir un moteur de décision en ligne rapide et maximisant la probabilité de bonne décision. La contribution de chacune de ces observations à la décision constitue la solution d'un programme quadratique de taille connue, pour lequel il existe plusieurs solutions logicielles de résolution. Suivant la solution de résolution choisie, le nombre de variables est égal au nombre d'observations d'apprentissage n, ou au nombre de dimensions de l'espace de représentation des observations d. Les deux modes de résolution sont équivalents. The difficulty is then to determine during this learning phase the boundaries between the classes, that is to say the decision rules making it possible to decide whether or not an observation belongs to a class, and to reject observations not belonging to any class defined a priori. The definition phase of these rules consists in partitioning the representation space thanks to borders; this phase consists in estimating boundary functions that minimize decision errors on a set of learning observations whose class is known, for a given definition of the characteristics of the object. The problem is therefore to find the right decision engine, in a multi-class context that is to say with a number Q of classes greater than or equal to 2. It is known to build these decision rules by relying on an SVM approach, an acronym for the term "Large Margin Separators" and also an acronym for "Support Vector Machines". This discriminative approach, described in particular in the document US Pat. No. 5,649,068 in the case of two classes, makes it possible to find, among all the separating hyperplanes of these two classes, the one which is optimal, that is to say which maximizes the margin between the two classes. hyperplane and samples (another name for learning observations). Vapnik has demonstrated [BE Boser, IM Guyon and VN Vapnik, A training algorithm for optimal margin classifiers. In Proceedings of the fifth annual workshop on Computational learning theory, pages 144-152. ACM, 1992] that the maximization of the margin corresponds to the minimization of the error of generalization of the decision on future observations for a finite set of learning observations. The principle of generalization is illustrated in Figure 2. The margin is the distance between the hyperplane and the closest observations; according to Vapnik's theory of learning, the optimal hyperplane is only characterized by the observations closest to it. These last called support vectors are therefore sufficient to define a fast online decision engine and maximizing the probability of a good decision. The contribution of each of these observations to the decision constitutes the solution of a quadratic program of known size, for which there are several resolution software solutions. Depending on the resolution solution chosen, the number of variables is equal to the number of learning observations n, or to the number of dimensions of the representation space d. The two modes of resolution are equivalent.
Afin de pouvoir traiter le cas de deux classes non linéairement séparables, cette approche SVM se généralise par l'introduction de variables d'écart et par la projection implicite des observations d'apprentissage dans un espace de dimension supérieure à l'espace des caractéristiques des observations, voire de dimension infinie, dans lequel la probabilité d'existence d'une frontière linéaire séparant les observations d'apprentissage des deux classes, est plus grande. Ceci est réalisé grâce à l'utilisation d'une fonction noyau. Les fonctions suivantes sont des exemples de fonctions noyaux : fonctions polynomiales, fonctions à base radiale dont la gaussienne, la rationnelle quadratique, ou encore la fonction tangente hyperbolique. In order to be able to deal with the case of two non-linearly separable classes, this SVM approach is generalized by the introduction of variance variables and by the implicit projection of learning observations in a space of dimension greater than the space of the characteristics of the variables. observations, even of infinite dimension, in which the probability the existence of a linear boundary separating the learning observations of the two classes is greater. This is achieved through the use of a kernel function. The following functions are examples of core functions: polynomial functions, radial-based functions including Gaussian, quadratic rational, or hyperbolic tangent function.
Plusieurs méthodes ont été proposées pour étendre la solution précédente SVM au cas multi-classe (Q> 2). On peut citer l'approche discriminative un contre tous, un contre un, et l'approche globale. Several methods have been proposed to extend the previous SVM solution to the multi-class case (Q> 2). We can mention the discriminative approach one against all, one against one, and the global approach.
L'approche « un contre tous » consiste à construire Q discriminateurs binaires en considérant chaque classe l'une après l'autre, et en attribuant à chaque fois l'étiquette +1 aux observations de la classe considérée et -1 aux observations de toutes les autres classes. Cette approche nécessite la résolution de Q problèmes quadratiques de taille n, n étant le nombre d'observations total. Cette approche est illustrée figure 3a pour 3 classes, où un des 3 discriminateurs binaires est représenté, en l'occurrence celui de la classe des cercles contre les classes des carrés et des triangles.  The "one against all" approach consists in constructing Q binary discriminators by considering each class one after another, and each time assigning the +1 tag to the observations of the class considered and -1 to the observations of all other classes. This approach requires the resolution of Q quadratic problems of size n, where n is the total number of observations. This approach is illustrated in figure 3a for 3 classes, where one of the 3 binary discriminators is represented, in this case that of the class of circles against classes of squares and triangles.
L'approche « un contre un » consiste à construire Q(Q-1 )/2 discriminateurs binaires en confrontant chacune des Q classes à toutes les autres individuellement. Cette approche nécessite la résolution de Q(Q-1 )/2 problèmes quadratiques de taille 2n/Q. Cette approche est illustrée figure 3b pour 3 classes, où les deux discriminateurs binaires de la classe des cercles sont représentés.  The one-on-one approach is to build Q (Q-1) / 2 binary discriminators by comparing each of the Q classes to all the others individually. This approach requires the resolution of Q (Q-1) / 2 quadratic problems of size 2n / Q. This approach is illustrated in Figure 3b for 3 classes, where the two binary discriminators of the class of circles are represented.
L'approche globale consiste à construire simultanément Q classifieurs en résolvant directement un programme quadratique de taille nQ.  The overall approach is to simultaneously build Q classifiers by directly solving a quadratic program of size nQ.
Ces trois approches discriminatives ne permettent pas lors de l'utilisation ultérieure en ligne, de rejeter en distance les intrus ou anomalies (ou « outliers » en anglais), autrement dit de détecter la nouveauté, c'est-à- dire de rejeter les objets « éloignés » au sens d'une métrique donnée des données d'apprentissage. Ceci se traduit par un risque accru de fausses alarmes dans les cas d'utilisation sensible comme pour les systèmes de surveillance.  These three discriminative approaches do not allow for subsequent online use, to reject the distance intruders or anomalies (or "outliers" in English), ie to detect novelty, that is to say to reject the "remote" objects in the sense of a given metric of the learning data. This results in an increased risk of false alarms in cases of sensitive use as for monitoring systems.
On peut aussi citer l'approche générative, ou par courbe de niveau (aussi désignée approche « One class-SVM »), dans laquelle on recherche les limites externes d'une classe. Cette approche peut se résumer par la formule « une classe contre rien ». Elle nécessite la résolution de Q problèmes quadratiques de taille n/Q. Elle permet également lors de l'utilisation ultérieure en ligne, de rejeter les intrus mais ne prend pas bien en compte la superposition des classes ce qui peut conduire à d'importantes zones de rejet en ambiguïté (i.e. des zones dans lesquelles la décision est ambiguë entre plusieurs classes). Cette approche est illustrée figure 3c pour 3 classes, où un des 3 discriminateurs binaires est représenté, en l'occurrence l'enveloppe convexe de la classe des cercles. We can also mention the generative approach, or contour (also called "One class-SVM" approach), in which we look for the outer limits of a class. This approach can be summed up by the formula "a class against nothing". It requires the resolution of Q quadratic problems of size n / Q. It also allows for subsequent online use, to reject intruders but does not take into account the superposition of classes which can lead to significant areas of rejection ambiguity (ie areas in which the decision is ambiguous between several classes). This approach is illustrated in figure 3c for 3 classes, where one of the 3 binary discriminators is represented, in this case the convex envelope of the class of the circles.
Aucune de ces méthodes ne présente un apprentissage multi- classe à la fois efficace en complexité de calcul et discriminant. D'une part la complexité augmente avec le nombre Q de classes et le nombre n total d'observations d'apprentissage pour les modèles « un-contre-un », « un- contre-tous » et global. D'autre part le modèle « un-contre-rien » ne minimise intrinsèquement pas les ambiguïtés de décision.  None of these methods presents a multi-class learning that is both efficient in computational complexity and discriminant. On the one hand, the complexity increases with the number Q of classes and the total number n of learning observations for the models "one-for-one", "one-against-all" and global. On the other hand, the "one-for-nothing" model does not inherently minimize decision ambiguities.
En conséquence, il demeure à ce jour un besoin pour un procédé de construction des règles de décision d'un discriminateur SVM multi-classe donnant simultanément satisfaction à l'ensemble des exigences précitées, en termes de complexité de calcul de la phase d'apprentissage, notamment lorsque le nombre d'observations et de classes est grand (typiquement supérieur à 10 000 observations pour 100 classes), de rejet en distance et de rejet en ambiguïté et de probabilité d'erreur, lors de l'utilisation du discriminateur en ligne. Consequently, it remains to this day a need for a method for constructing the decision rules of a multi-class SVM discriminator simultaneously satisfying all the aforementioned requirements, in terms of calculation complexity of the learning phase. , especially when the number of observations and classes is large (typically greater than 10 000 observations per 100 classes), distance rejection and ambiguous rejection and probability of error, when using the online discriminator .
L'invention est basée sur une approche intermédiaire entre l'approche discriminative et l'approche One class-SVM. The invention is based on an intermediate approach between the discriminative approach and the One class-SVM approach.
Plus précisément l'invention a pour objet un procédé d'élaboration d'un discriminateur d'objets obtenus par un dispositif d'acquisition muni d'un capteur, qui comprend les étapes suivantes :  More specifically, the subject of the invention is a method for producing a discriminator of objects obtained by an acquisition device equipped with a sensor, which comprises the following steps:
- d'extraction des caractéristiques de n objets acquis, n>1 , les caractéristiques d'un objet constituant une observation x, qui est associée à une classe, i variant de 1 à n, le discriminateur comportant Q classes avec Q > 2,  extracting the characteristics of n acquired objects, n> 1, the characteristics of an object constituting an observation x, which is associated with a class, i varying from 1 to n, the discriminator comprising Q classes with Q> 2,
- de construction d'une règle de décision entre les classes. Il est principalement caractérisé en ce que cette étape de construction de la règle de décision comprend la sous-étape suivante : déterminer pour chaque classe q une fonction de discrimination représentant cette classe, q variant de 1 à Q, à partir de paramètres ce, positifs ou nuls qui sont définis en calculant - building a decision rule between classes. It is mainly characterized in that this step of constructing the decision rule comprises the following sub-step: determining for each class q a discriminating function representing this class, q varying from 1 to Q, from ce parameters, positive or nulls that are defined by calculating
n n  n n
m'n∑∑aiajMi, j m 'n a i ΣΣ has JMI, j
α i=1 j=1  α i = 1 j = 1
avec :  with:
M = k(Xj,Xj)-Ak(Xj,Xj) si x, et Xj appartiennent à la même classe ou,  M = k (Xj, Xj) -Ak (Xj, Xj) if x, and Xj belong to the same class or,
M = -Ak(Xi,Xj) sinon, M = -Ak (Xi, Xj) otherwise,
k étant une fonction noyau positif prédéterminée,  where k is a predetermined positive kernel function,
λ un paramètre réel non nul de régularisation prédéterminé, et avec pour chaque classe q, ^α, = 1 , lq étant l'ensemble des ie lq λ a non-zero real parameter of predetermined regularization, and with for each class q, ^ α, = 1, l q being the set of ie 1 q
indices des observations de la classe q. Selon un premier mode de réalisation, la fonction de discrimination est une enveloppe convexe gq, le calcul définissant les paramètres ¾ consistant alors à minimiser simultanément la somme des distances entre toutes les paires d'enveloppes convexes et d'un terme de régularisation pondéré par un paramètre δ avec Â=1 /(Q+ δ). indices of observations of class q. According to a first embodiment, the discrimination function is a convex envelope g q , the calculation defining the parameters ¾ then consisting in simultaneously minimizing the sum of the distances between all the pairs of convex envelopes and a weighted regularization term. a parameter δ with Δ = 1 / (Q + δ).
Selon un autre mode de réalisation, la fonction de discrimination est une courbe de niveau fq, le calcul définissant les paramètres ¾ consistant alors à minimiser simultanément la somme : According to another embodiment, the discrimination function is a level curve f q , the calculation defining the parameters ¾ then consisting in simultaneously minimizing the sum:
- des couplages entre toutes les paires de courbes de niveau c'est-à- dire les produits scalaires croisés de ces fonctions, pondérés par un paramètre μ avec λ= μ/(0.μ +1 ),  couplings between all the pairs of level curves, that is to say the cross scalar products of these functions, weighted by a parameter μ with λ = μ / (0.μ +1),
- d'un terme de régularisation et  - a regularization term and
- de l'opposé d'un biais pq avec fq(Xi)- pq≥ 0. - the opposite of a bias p q with f q (Xi) - p q ≥ 0.
De cette façon, la dimension du programme quadratique à résoudre pour apprendre les frontières de décision est égale à n quelque soit le nombre Q de classes. Cela permet de construire, de manière efficace du point de vue temps de calcul, des frontières de décision avec un grand nombre n d'observations d'apprentissage et un grand nombre Q de classes. De plus, l'utilisation d'enveloppes convexes ou de courbes de niveau, permettra lors de l'utilisation en ligne de rejeter les anomalies (rejet en distance et/ou en ambiguïté). Lorsqu'en plus on a ,< C, C étant un nombre réel tel queIn this way, the dimension of the quadratic program to solve to learn the decision boundaries is equal to n whatever the number Q of classes. This makes it possible to construct, in a computationally efficient manner, decision boundaries with a large number n of learning observations and a large number Q of classes. In addition, the use of convex envelopes or contour lines, will allow when using online to reject anomalies (distance rejection and / or ambiguity). When in addition we have, <C, C being a real number such as
C > , nq étant le nombre d'observations de la classe q, on
Figure imgf000009_0001
C> where n q is the number of observations of the class q,
Figure imgf000009_0001
obtient une solution plus robuste. Comme la construction des frontières d'une classe prend en compte la répartition des observations dans les autres classes, cela permet de prendre en compte la superposition éventuelle des classes. Dans ce cas et lorsque la fonction de discrimination est une courbe de niveau fq, une variable d'écart positive μ, est associée à chaque observation x, de sorte que fq(Xi)- pq + μ,≥ 0, et le calcul définissant les paramètres ce, consiste alors à minimiser simultanément la somme : gets a more robust solution. Since constructing the boundaries of a class takes into account the distribution of the observations in the other classes, it allows to take into account the possible superimposition of the classes. In this case and when the discrimination function is a level curve f q , a positive difference variable μ is associated with each observation x, so that f q (Xi) - p q + μ, ≥ 0, and the calculation defining the parameters ce, then consists in simultaneously minimizing the sum:
- des couplages entre toutes les paires de courbes de niveau c'est-à- dire les produits scalaires croisés de ces fonctions, pondérés par un paramètre μ avec λ= μ/(0.μ +1 ),  couplings between all the pairs of level curves, that is to say the cross scalar products of these functions, weighted by a parameter μ with λ = μ / (0.μ +1),
- d'un terme de régularisation,  - a regularization term,
- de l'opposé d'un biais pq - the opposite of a bias p q
- et d'un terme d'erreur pondéré par C.  - and a weighted error term by C.
Selon une caractéristique de l'invention, le choix par défaut λ= 1 /Q favorise la discrimination. According to one characteristic of the invention, the default choice λ = 1 / Q promotes discrimination.
Le terme de régularisation peut être la somme des normes deux au carré des fonctions de discrimination ou la somme de leurs normes un.  The regularization term may be the sum of the two standard squared discrimination functions or the sum of their norms one.
Selon une autre caractéristique de l'invention, l'étape de construction de la règle de décision comprend la sous-étape suivante : déterminer des règles d'affectation à partir desdites fonctions de discrimination.  According to another characteristic of the invention, the step of constructing the decision rule comprises the following sub-step: determining allocation rules from said discrimination functions.
L'invention a aussi pour objet un programme d'ordinateur comprenant des instructions de code permettant d'effectuer les étapes du procédé tel que décrit précédemment, lorsque ledit programme est exécuté sur un ordinateur. L'invention concerne également un procédé de discrimination d'un objet candidat obtenu par un dispositif d'acquisition muni d'un capteur, qui comprend les étapes suivantes : The invention also relates to a computer program comprising code instructions for performing the steps of the method as described above, when said program is executed on a computer. The invention also relates to a method for discriminating a candidate object obtained by an acquisition device equipped with a sensor, which comprises the following steps:
- extraction de caractéristiques de cet objet acquis, conformément à l'extraction de caractéristiques du procédé tel que décrit précédemment, les caractéristiques de cet objet constituant une observation candidate xc, extraction of characteristics of this acquired object, according to the extraction of characteristics of the method as described above, the characteristics of this object constituting a candidate observation x c,
. application d'une règle de décision à l'observation candidate xc qui comprend les sous-étapes suivantes : . applying a decision rule to the candidate observation x c which includes the following substeps:
- calcul pour xc des valeurs des fonctions de discrimination définies dans le procédé tel que décrit précédemment, calculating for x c the values of the discrimination functions defined in the method as described above,
- application de règles d'affectation déterminées dans le procédé tel que décrit précédemment.  - Application of assignment rules determined in the process as described above.
L'invention a aussi pour objet un programme d'ordinateur comprenant des instructions de code permettant d'effectuer les étapes de ce procédé de discrimination d'un objet candidat tel que décrit précédemment, lorsque ledit programme est exécuté sur un ordinateur.  The invention also relates to a computer program comprising code instructions for performing the steps of this method of discriminating a candidate object as described above, when said program is executed on a computer.
Les objets sont par exemple extraits d'images acquises par un dispositif d'imagerie. The objects are for example extracted from images acquired by an imaging device.
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit, faite à titre d'exemple non limitatif et en référence aux dessins annexés dans lesquels : Other features and advantages of the invention will appear on reading the detailed description which follows, given by way of non-limiting example and with reference to the appended drawings in which:
la figure 1 déjà décrite représente schématiquement les principes de la discrimination automatique,  FIG. 1 already described schematically represents the principles of automatic discrimination,
la figure 2 déjà décrite représente schématiquement pour deux classes, plusieurs séparations linéaires, parmi lesquelles celle qui maximise la marge,  FIG. 2 already described represents schematically for two classes, several linear separations, among which that which maximizes the margin,
les figures 3 déjà décrites illustrent schématiquement trois approches pour déterminer des frontières de décision multi-classe selon l'état de la technique : « un contre tous », « un contre un », mono-classe (One-class),  FIGS. 3 already described schematically illustrate three approaches for determining multi-class decision boundaries according to the state of the art: "one against all", "one against one", one-class,
la figure 4 illustre schématiquement la construction de règles de décision pour 3 classes, selon un premier mode de réalisation de l'invention, la figure 5 illustre schématiquement des enveloppes convexes et des courbes de niveau pour 3 classes, selon l'invention. FIG. 4 schematically illustrates the construction of decision rules for 3 classes, according to a first embodiment of the invention, Figure 5 schematically illustrates convex envelopes and contour lines for 3 classes, according to the invention.
D'une figure à l'autre, les mêmes éléments sont repérés par les mêmes références.  From one figure to another, the same elements are identified by the same references.
Lors de la phase d'apprentissage (hors ligne), sont élaborées les fonctions de discrimination d'une part et les règles d'affectation d'autre part. During the (offline) learning phase, discrimination functions are developed on the one hand and assignment rules on the other hand.
On s'attache d'abord à déterminer les fonctions de discrimination. Selon l'invention, on cherche donc pour chaque classe q une fonction de discrimination représentant cette classe, q variant de 1 à Q, à partir de paramètres ce, positifs qui sont définis en calculant We first focus on determining the functions of discrimination. According to the invention, we therefore seek for each class q a discrimination function representing this class, q varying from 1 to Q, from ce parameters, which are defined by calculating
n n  n n
m'n∑∑aiajMi, j m 'n a i ΣΣ has JMI, j
α i=1 j=1  α i = 1 j = 1
avec :  with:
M = k(Xi,Xj)-Ak(Xi,Xj) si x, et Xj appartiennent à la même classe ou,  M = k (Xi, Xj) -Ak (Xi, Xj) if x, and Xj belong to the same class or,
M = -Ak(Xi,Xj) sinon, M = -Ak (Xi, Xj) otherwise,
k étant une fonction noyau positif prédéterminée, where k is a predetermined positive kernel function,
λ un paramètre réel non nul de régularisation prédéterminé expérimentalement de manière à favoriser discrimination par rapport à rejet ou équilibrer discrimination et rejet, comme on le verra plus loin, λ a real non-zero regularization parameter experimentally predetermined so as to favor discrimination with respect to rejection or to balance discrimination and rejection, as will be seen later,
et avec pour chaque classe q ^α, = 1 , lq étant l'ensemble des ie lq and with for each class q ^ α, = 1, l q being the set of ie 1 q
indices des observations de la classe q. indices of observations of class q.
La demanderesse a démontré que cette fonction de discrimination peut être de manière équivalente, une enveloppe convexe ou une courbe de niveau. Ceci est détaillé plus loin. The Applicant has demonstrated that this discrimination function can be equivalent, a convex envelope or a contour. This is detailed below.
On considère d'abord l'enveloppe convexe. We first consider the convex hull.
Il a été démontré pour deux classes l'équivalence entre la recherche d'un hyperplan séparateur de Vapnik et la recherche d'un représentant de chacune des classes à l'intérieur de leurs enveloppes convexes respectives, ces représentants étant choisis de telle sorte que la distance interclasse soit minimale. Ce concept est ici généralisé au cas multiclasse en considérant pour chaque classe une enveloppe convexe la représentant tout en minimisant simultanément les distances entre toutes les paires de représentants des classes. For two classes the equivalence between the search for a Vapnik separator hyperplane and the search for a representative of each of the classes within their respective convex envelopes has been demonstrated, these representatives being chosen so that the Interclass distance is minimal. This concept is here generalized to the case multi-class by considering for each class a convex envelope representing it while simultaneously minimizing the distances between all pairs of class representatives.
On cherche donc les enveloppes convexes gq représentant chacune des Q classes, qe [1 ,Q]. Parmi les n observations totales, chaque classe q est représentée par une liste d'observations x,, ie lq, lq étant l'ensemble des indices des observations de la classe q. Si n est le nombre d'observations de la classe 1 , nq le nombre d'observations de la classe q, nQ le nombre d'observations de la classe Q, on a n = card(l-i), .., nq=card(lq), nQ=card(lQ) avec n +...+nq+...+nQ=n. Une observation x, est un vecteur à d dimensions (Xie Rd), d étant le nombre de caractéristiques définies lors de l'extraction des caractéristiques de l'objet. Les x, peuvent être des objets complexes comme des graphes, des distributions de probabilités, des automates, ... On pose pour toute observation x : gq (χ)= α,Κ(χ,, χ) avec∑α, = 1 et 0< ,, (1 ) ie lq ie lq We therefore seek the convex envelopes g q representing each of Q classes, qe [1, Q]. Among the n total observations, each class q is represented by a list of observations x ,, ie l q , l q being the set of indices of the observations of the class q. If n is the number of observations of class 1, n q the number of observations of class q, n Q the number of observations of class Q, on an = card (li), .., n q = card (l q ), n Q = card (l Q ) with n + ... + n q + ... + n Q = n. An observation x, is a vector with dimensions (Xie R d ), d being the number of characteristics defined during the extraction of the characteristics of the object. The x, can be complex objects like graphs, probability distributions, automata, ... We put for all observations x: g q (χ) = α, Κ (χ ,, χ) withΣα, = 1 and 0 <,, (1) ie l q q q
les paramètres ¾ étant les poids des observations, c'est-à-dire une mesure de l'influence de chacune des observations x, dans la construction de la solution (on a donc ¾ = 0 si x, n'est pas un vecteur support) et k étant une fonction noyau positif qui associe une valeur réelle à tout couple d'observations x, x'. Cette fonction noyau positif peut être, de manière non exhaustive : the parameters ¾ being the weights of the observations, that is to say a measure of the influence of each of the observations x, in the construction of the solution (so we have ¾ = 0 if x, is not a vector support) and k being a positive kernel function that associates a real value to any pair of observations x, x '. This positive kernel function can be, non-exhaustively:
- linéaire de la forme k(x,x') = x.x'  - linear of the form k (x, x ') = x.x'
- polynomial de la forme k(x,x') = (x.x')d ou (c+x.x')d - polynomial of the form k (x, x ') = (x.x') d or (c + x.x ') d
- gaussienne de la forme k(x,x') = exp (-||χ-χ'||2/2σ2), σ étant la largeur de bande de la fonction, - Gaussian of the form k (x, x ') = exp (- || χ-χ' || 2 / 2σ 2 ), where σ is the bandwidth of the function,
- sigmoïde de la forme k(x,x') = tanh( a x.x' +b )  - sigmoid of the form k (x, x ') = tanh (a x.x' + b)
- laplacienne de la forme k(x,x') = exp(-||x-x'||/o), σ étant la largeur de bande de la fonction,  - laplacian of the form k (x, x ') = exp (- || x-x' || / o), where σ is the bandwidth of the function,
- rationnelle quadratique de la forme k(x,x') = 1/(1 +(||χ-χ'||2/σ))), σ étant la largeur de bande de la fonction. Déterminer pour chaque classe q une enveloppe convexe gq la représentant, à partir de paramètres ce, positifs qui sont définis par la solution du programme quadratique suivant : - quadratic rational of the form k (x, x ') = 1 / (1 + (|| χ-χ' || 2 / σ))), σ being the bandwidth of the function. Determine for each class q a convex envelope g q representing it, from ce parameters, which are defined by the following quadratic program solution:
n n  n n
m'n∑∑aiajMi, j m 'n a i ΣΣ has JMI, j
α i=1 j=1 avec ∑ccj = 1 , 0< , et q variant de 1 à Q, α i = 1 j = 1 with Σcc j = 1, 0 <, and q varying from 1 to Q,
ie lq ie l q
revient à minimiser simultanément la somme : is to simultaneously minimize the sum:
- des distances entre toutes les paires d'enveloppes convexes des classes et  - distances between all pairs of convex envelopes of the classes and
- d'un terme de régularisation pondéré par un paramètre δ avec A=1 /(Q+ δ). Le paramètre δ peut être déterminé en minimisant une borne de l'erreur ou expérimentalement de manière à maximiser la bonne décision du discriminateur sur un sous-ensemble d'observations d'apprentissage choisi aléatoirement.  - a regularization term weighted by a parameter δ with A = 1 / (Q + δ). The parameter δ can be determined by minimizing a bound of the error or experimentally so as to maximize the discriminator's correct decision on a subset of randomly selected learning observations.
Plus précisément, cela revient à déterminer les paramètres ¾ en résolvant :
Figure imgf000013_0001
avec ^ α, = 1 et 0<cci,
More precisely, it amounts to determining the parameters ¾ by solving:
Figure imgf000013_0001
with ^ α, = 1 and 0 <cci,
ie lq  ie lq
H étant l'espace de Hilbert à Noyau Reproduisant induit par le noyau positif k choisi.  H being the reproducing kernel Hilbert space induced by the chosen positive k kernel.
Ceci est illustré figure 4 sur laquelle sont représentées 3 classes linéairement séparables et les frontières de décision F1 -2, F2-3, F3-1 : la classe 1 avec son enveloppe convexe g-ι , la classe 2 avec son enveloppe convexe g2, la classe 3 avec son enveloppe convexe g3, ces enveloppes étant telles que les distances | |gi-g2| | , |
Figure imgf000013_0002
| et 11 g i -Qsl | sont simultanément minimales.
This is illustrated in FIG. 4 on which are represented 3 linearly separable classes and the decision boundaries F1 -2, F2-3, F3-1: class 1 with its convex envelope g-ι, class 2 with its convex envelope g 2 class 3 with its convex envelope g 3 , these envelopes being such that the distances | | Gi-g2 | | , |
Figure imgf000013_0002
| and 11 gi -Qsl | are simultaneously minimal.
La nature des fonctions gq permettra lors de la phase en ligne de rejeter les individus des autres classes et les anomalies, c'est-à-dire d'assurer le rejet en ambiguïté et en distance. Le terme de régularisation pondéré permet de relaxer le problème à résoudre, c'est-à-dire d'obtenir une solution intermédiaire entre l'approche discriminative par courbe de niveau et l'approche générative par enveloppe convexe. Dit autrement cela permet de passer d'un problème de discrimination (δ = 0) à un problème de type génératif par courbe de niveau (one class-SVM lorsque δ tend vers l'infini et λ =0). Le choix de δ permet d'équilibrer les contraintes de performance et de rejet. Le problème est relaxé en modifiant la pondération entre les produits scalaires et les normes des enveloppes convexes. The nature of the functions g q will allow during the online phase to reject individuals from other classes and anomalies, that is to say, to ensure rejection ambiguity and distance. The term of weighted regularization makes it possible to relax the problem to be solved, that is to say to obtain an intermediate solution between the discriminative approach by level curve and the generative approach by convex envelope. In other words, it makes it possible to go from a problem of discrimination (δ = 0) to a generative type problem per level curve (one class-SVM when δ tends to infinity and λ = 0). The choice of δ makes it possible to balance the performance and rejection constraints. The problem is relaxed by modifying the weighting between the scalar products and the norms of the convex envelopes.
On considère à présent que la fonction de discrimination est une courbe de niveau. It is now considered that the discrimination function is a contour.
Déterminer pour chaque classe une courbe de niveau fq la représentant, à partir de paramètres ce, positifs qui sont définis par la solution du programme quadratique suivant : Determining for each class contoured f q representative from this parameter, positive which are defined by solving the following quadratic program:
n n  n n
m'n∑∑aiajMi,j m 'n a i ΣΣ has JMI, j
α i=1 j=1  α i = 1 j = 1
avec ^α, = 1 , 0< , et q variant de 1 à Q,  with ^ α, = 1, 0 <, and q varying from 1 to Q,
ie lq ie l q
revient à minimiser simultanément la somme : is to simultaneously minimize the sum:
- d'un terme de régularisation,  - a regularization term,
- de l'opposé d'un biais pq . Ces biais sont analogues à des niveaux de probabilités ; ils sont donnés explicitement par la résolution du problème (3) ci-dessous ou implicitement à travers les multiplicateurs de Lagrange des contraintes d'égalité du problème ci-dessus, - the opposite of a bias p q . These biases are analogous to levels of probability; they are given explicitly by solving the problem (3) below or implicitly through the Lagrange multipliers of the equality constraints of the problem above,
- des couplages entre toutes les paires de courbes de niveau c'est-à- dire les produits scalaires croisés de ces courbes de niveau, pondérés par un paramètre réel μ avec λ= μ/(Ο.μ +1 ) et μ≠ -1 /Q. Le paramètre μ qui permet de choisir l'importance du terme de couplage des fonctions (en modifiant la pondération entre les produits scalaires et les normes des fonctions), est déterminé expérimentalement de manière à maximiser la bonne décision du discriminateur sur un sous- ensemble d'observations d'apprentissage.  couplings between all the pairs of level curves, that is to say the cross scalar products of these level curves, weighted by a real parameter μ with λ = μ / (Ο.μ +1) and μ ≠ - 1 / Q. The parameter μ which makes it possible to choose the importance of the term of coupling of the functions (by modifying the weighting between the scalar products and the norms of the functions), is determined experimentally so as to maximize the good decision of the discriminator on a subset of observations of learning.
Plus précisément, cela revient à déterminer les paramètres ¾ en calculant : 1 Q .. .. n Q Q Q More precisely, it amounts to determining the parameters ¾ by calculating: 1 Q .. .. n QQQ
fm i n ∑||fq|| + -ï∑ ∑(fq ' fq')H -∑ q f min Σ || f q || + -ΣΣ Σ ( f q ' f q') H -Σ q
fq .Pq ^ q=1 |_| ^ q=1q'=1 q=1 (3) le signe (.,.) H désignant le produit scalaire de l'espace H de Hilbert à Noyaufq .Pq ^ q = 1 | _ | ^ q = 1q '= 1 q = 1 (3) the sign (.,.) H denoting the dot product of the H space of Hilbert à Kernel
Reproduisant, induit par le noyau positif k choisi, Reproducing, induced by the positive nucleus k chosen,
avec : fq(Xi)- pq > 0 pour toutes les observations x, de la classe q et ce pour toutes les classes (q varie de 1 à Q). with: f q (Xi) - p q > 0 for all observations x, of class q and for all classes (q varies from 1 to Q).
Le terme de régularisation permet de relaxer le problème en explicitant le degré de couplage inter-fonction, c'est-à-dire les couplages entre les fonctions fq et fq>, par une modification de la pondération entre les produits scalaires et les normes des courbes de niveau. Cette écriture qui favorise de faibles couplages entre les classes, permet de mieux déterminer les frontières de décision c'est-à-dire de mieux discriminer les classes, ce qui permettra ultérieurement lors de la phase en ligne de maximiser la pertinence du discriminateur. The term of regularization makes it possible to relax the problem by explaining the degree of inter-function coupling, that is to say the couplings between the functions f q and f q >, by a modification of the weighting between the dot products and the Contour standards. This writing, which favors weak coupling between classes, makes it possible to better determine the decision boundaries, that is to say, to better discriminate classes, which will later allow the online phase to maximize the relevance of the discriminator.
La demanderesse a démontré que les courbes de niveaux fq sont linéairement associées aux enveloppes convexes de la manière suivante : The applicant has demonstrated that the level curves f q are linearly associated with the convex envelopes in the following manner:
Q  Q
fq (Xi) =gq (Xi) - ^ ^ gq (Xj) fq (Xi) = gq (Xi) - ^ g q (Xj)
q'=i Les fonctions fq et gq étant liées linéairement, les tests d'appartenance d'un candidat x, à une classe plutôt qu'à une autre peuvent donc se faire de façon équivalente sur les fonctions fq ou gq comme illustré figure 5 (on peut aussi calculer g et f). En effet on a : arg max fn(x) = arg max gn(x) q ' = i Since the functions f q and g q are linearly linked, the membership tests of one candidate x, to one class rather than another, can therefore be done in an equivalent way on the functions f q or g q as shown in Figure 5 (we can also calculate g and f). Indeed we have: arg max f n (x) = arg max g n (x)
y qE [l,Q] q ' qE[l,Q] y q ' y qE [l, Q] q 'qE [l, Q] yq '
De cette façon, la complexité de calcul de l'apprentissage des enveloppes convexes gq ou des courbes de niveau fq, est celle d'un programme quadratique à n inconnues quelque soit le nombre Q de classes. Cela permet de construire, de manière efficace du point de vue temps de calcul, des frontières de décision avec un grand nombre n d'observations et un grand nombre Q de classes. De plus, comme la construction des frontières d'une classe prend en compte la répartition des observations dans les autres classes, cela permet de prendre en compte l'interaction entre les classes. In this way, the complexity of calculating the learning of convex envelopes g q or contour lines f q , is that of a quadratic program with n unknowns whatever the number Q of classes. This makes it possible to construct, in a computationally efficient way, decision boundaries with a large number of observations and a large number of classes. Moreover, since the construction of the boundaries of a class takes into account the distribution of observations in the other classes, this allows the interaction between the classes to be taken into account.
On a également λ= μ/(Ο.μ +1 ) = 1 /(Q+ δ). Lorsque δ = 0 (ou μ très grand) on a λ= 1 /Q, comme on peut le voir dans le tableau de variation de μ et λ (non nul) en fonction de δ ci-dessous, ce qui signifie que le discriminateur n'assurera lors de la phase en ligne, que la fonction de discrimination mais pas de rejet en distance ou en ambiguïté. Dès lors que δ>0, le discriminateur assurera discrimination et rejet en distance et en ambiguïté. We also have λ = μ / (Ο.μ +1) = 1 / (Q + δ). When δ = 0 (or μ very large) we have λ = 1 / Q, as we can see in the table of variation of μ and λ (non-zero) as a function of δ below, which means that the discriminator will ensure during the online phase that the function of discrimination but not rejection distance or ambiguity. As soon as δ> 0, the discriminator will insure discrimination and rejection in distance and in ambiguity.
Figure imgf000016_0001
Figure imgf000016_0001
Qu'il s'agisse de l'approche par enveloppe convexe ou par courbe de niveau, ces fonctions de discrimination sont déterminées notamment en fonction d'un terme de régularisation défini à partir de la norme des fonctions de discrimination considérée. Selon une alternative cette norme peut être remplacée par une pseudo-norme. Whether it is the convex hull or contour approach, these discrimination functions are determined in particular according to a regularization term defined from the standard of the discrimination functions considered. According to an alternative, this standard can be replaced by a pseudo-norm.
Pour traiter le cas de classes non linéairement séparables, on introduit une condition supplémentaire : ¾< C, C étant un nombre réel. La seule contrainte sur la valeur de cette borne supérieure C est de ne pas empêcher les contraintes d'égalité d'être satisfaites, ce qui impose : To treat the case of nonlinearly separable classes, we introduce an additional condition: ¾ <C, C being a real number. The only constraint on the value of this upper bound C is not to prevent the equality constraints from being satisfied, which imposes:
C≥maxqE[1iQ] -î- . C≥max qE [ 1iQ ] -i-.
nq Cela n'introduit pas de modification pour le calcul des enveloppes convexes. En revanche, les courbes de niveau sont alors obtenues grâce à l'introduction de variables d'écart positives μ, associées à chaque observation de sorte que fq(Xj)- pq + μ,≥ 0 pour toutes les observations x, de la classe q et ce pour toutes les classes (q varie de 1 à Q) et en ajoutant à la fonction objectif à minimiser de l'équation (3) un terme d'erreur (la somme de ces variables d'écart) pondéré par le paramètre C. nq This does not introduce a change for the calculation of convex envelopes. On the other hand, the contour lines are then obtained thanks to the introduction of positive difference variables μ, associated with each observation so that f q (Xj) - p q + μ, ≥ 0 for all the observations x, of the class q and this for all classes (q varies from 1 to Q) and by adding to the objective function to be minimized of equation (3) an error term (the sum of these variance variables) weighted by the parameter C.
On s'attache à présent à déterminer les règles d'affectation. Plusieurs règles peuvent être définies. On peut par exemple adopter les règles d'affectation suivantes. The focus is now on the assignment rules. Several rules can be defined. For example, the following assignment rules can be adopted.
Une observation candidate (dont les caractéristiques ont préalablement été extraites) est affectée à :  A candidate observation (whose characteristics have previously been extracted) is assigned to:
- une classe q si elle est l'unique à répondre positivement,  - a class q if it is the only one to respond positively,
- un rejet d'ambiguïté dès que plus d'une classe répond positivement, - a rejection of ambiguity as soon as more than one class responds positively,
- un rejet en distance si aucune classe ne répond positivement (= toutes les classes répondent négativement). - distance rejection if no class responds positively (= all classes respond negatively).
Ou encore, un rejet en distance est décidé lorsque le maximum des scores des fonctions gq ou fq est inférieur à un seuil nul ou bien déterminé expérimentalement. Le rejet d'ambiguïté est décidé lorsqu'il n'y a pas de rejet en distance et que la différence entre les deux meilleurs scores est inférieure à un autre seuil nul ou déterminé expérimentalement. Or again, a rejection in distance is decided when the maximum of the scores of the functions g q or f q is lower than a threshold null or determined experimentally. The rejection of ambiguity is decided when there is no distance rejection and the difference between the two best scores is lower than another zero or experimentally determined threshold.
Lors d'une étape de la phase en ligne dite étape de représentation, le discriminateur calcule pour une observation candidate xc, les valeurs des fonctions de discrimination pour toutes les classes, soit g-i (Xc), gq(xc), go(xc) si l'approche par enveloppe convexe a été choisie ou f-i (Xc), fq(xc), fo( c) si l'approche par courbe de niveau a été choisie. On applique alors dans une étape dite d'affectation, la règle d'affectation à l'issue de laquelle, l'observation candidate xc est affectée à une classe q (car on a gq(xc) >0 et gq (xc)≤ 0 pour q'≠ q, si on utilise le premier exemple de règle d'affectation cité ci-dessus) ou rejetée en distance ou en ambiguïté. During a step of the online phase called the representation step, the discriminator calculates for a candidate observation x c , the values of the discrimination functions for all the classes, ie gi (Xc), g q ( xc ), go (x c ) if the convex hull approach was chosen or fi (Xc), fq (x c ), fo (c) if the contour approach was chosen. We then apply in a so-called assignment step, the assignment rule at the end of which, the candidate observation x c is assigned to a class q (because we have q (x c )> 0 and g q ( x c ) ≤ 0 for q '≠ q, using the first assignment rule example mentioned above) or rejected remotely or ambiguously.
Ce sont les étapes de la règle de décision. On a présenté un discriminateur dans un contexte de système de veille ou surveillance par imagerie. Plus généralement, il peut aussi être appliqué à la discrimination automatique dans un système de surveillance d'objets acquis au moyen d'un capteur que celui-ci soit un capteur d'un dispositif d'imagerie, ou d'un dispositif sonore ou radar ou tout autre capteur. These are the steps of the decision rule. A discriminator has been presented in a standby or imaging surveillance context. More generally, it can also be applied to automatic discrimination in a surveillance system of objects acquired by means of a sensor that it is a sensor of an imaging device, or a sound or radar device or any other sensor.
La présente invention peut s'implémenter à partir d'éléments matériel et/ou logiciel. Elle peut être disponible en tant que produit programme d'ordinateur sur un support lisible par ordinateur. Le support peut être électronique, magnétique, optique, électromagnétique ou être un support de diffusion de type infrarouge. De tels supports sont par exemple, des mémoires à semi-conducteur (Random Access Memory RAM, Read-Only Memory ROM), des bandes, des disquettes ou disques magnétiques ou optiques (Compact Disk - Read Only Memory (CD-ROM), Compact Disk - Read/Write (CD-R/W) et DVD). The present invention can be implemented from hardware and / or software elements. It may be available as a computer program product on a computer readable medium. The support can be electronic, magnetic, optical, electromagnetic or be an infrared type of diffusion medium. Such supports are, for example, Random Access Memory RAMs (ROMs), magnetic or optical tapes, disks or disks (Compact Disk - Read Only Memory (CD-ROM), Compact Disk - Read / Write (CD-R / W) and DVD).

Claims

REVENDICATIONS
Procédé d'élaboration d'un discriminateur d'objets obtenus par un dispositif d'acquisition muni d'un capteur, qui comprend les étapes suivantes : Process for producing a discriminator of objects obtained by an acquisition device equipped with a sensor, which comprises the following steps:
d'extraction de caractéristiques de n objets acquis, n>1 , les caractéristiques d'un objet constituant une observation x, qui est associée à une classe, i variant de 1 à n, le discriminateur comportant Q classes avec Q> 2, for extracting characteristics of n acquired objects, n> 1, the characteristics of an object constituting an observation x, which is associated with a class, i varying from 1 to n, the discriminator comprising Q classes with Q> 2,
de construction d'une règle de décision entre les classes, constructing a decision rule between classes,
caractérisé en ce que cette étape de construction de la règle de décision comprend la sous-étape suivante : déterminer pour chaque classe q une fonction de discrimination représentant cette classe, q variant de 1 à Q, à partir de paramètres ¾ positifs ou nuls qui sont définis en calculant characterized in that said step of constructing the decision rule comprises the following substep: determining for each class q a discriminating function representing that class, q varying from 1 to Q, from positive or null parameters qui which are defined by calculating
n n  n n
min∑∑aiajMi,j mi n ΣΣ a i a jMi, j
α i=1 j=1  α i = 1 j = 1
avec M = k(Xi,Xj)-Ak(Xi,Xj) si x, et Xj appartiennent à la même classe ou, My = -Ak(Xi,Xj) sinon, k étant une fonction noyau positif prédéterminée, et λ un paramètre réel non nul de régularisation prédéterminé, et avec pour chaque classe q, ∑ccj = 1 , lq étant l'ensemble des with M = k (Xi, Xj) -Ak (Xi, Xj) if x, and Xj belong to the same class or, My = -Ak (Xi, Xj) otherwise, k being a predetermined positive kernel function, and λ a nonzero real parameter of predetermined regularization, and with for each class q, Σccj = 1, l q being the set of
ie lq ie l q
indices des observations de la classe q. indices of observations of class q.
Procédé d'élaboration d'un discriminateur selon la revendication précédente, caractérisé en ce que la fonction de discrimination est une enveloppe convexe gq, le calcul définissant les paramètres ce, consistant alors à minimiser simultanément la somme des distances entre toutes les paires d'enveloppes convexes et d'un terme de régularisation pondéré par un paramètre δ avec A=1 /(Q+ δ). Process for producing a discriminator according to the preceding claim, characterized in that the discrimination function is a convex envelope g q , the calculation defining the parameters ce, then consisting in simultaneously minimizing the sum of the distances between all the pairs of convex envelopes and a regularization term weighted by a parameter δ with A = 1 / (Q + δ).
Procédé d'élaboration d'un discriminateur selon la revendication précédente, caractérisé en ce qu'on a 0<cci< C, C étant un nombre réel tel que C > maxqe[1 Q]— , nq étant le nombre d'observations de la nq Process for producing a discriminator according to the preceding claim, characterized in that 0 <cci <C, C being a number real as C> max qe [ 1 Q ] -, n q being the number of observations of the nq
classe q.  class q.
Procédé d'élaboration d'un discriminateur selon la revendication 1 ou 2, caractérisé en ce que la fonction de discrimination est une courbe de niveau fq, le calcul définissant les paramètres ce, consistant alors à minimiser simultanément la somme : Process for producing a discriminator according to claim 1 or 2, characterized in that the discriminating function is a level curve f q , the calculation defining the parameters ce, which then consists in simultaneously minimizing the sum:
- des couplages entre toutes les paires de courbes de niveau c'est-à- dire les produits scalaires croisés de ces fonctions, pondérés par un paramètre μ avec λ= μ/(0.μ +1 ),  couplings between all the pairs of level curves, that is to say the cross scalar products of these functions, weighted by a parameter μ with λ = μ / (0.μ +1),
- d'un terme de régularisation et  - a regularization term and
- de l'opposé d'un biais pq. - the opposite of a bias p q .
Procédé d'élaboration d'un discriminateur selon la revendication précédente, caractérisé en ce qu'on a 0<cci< C, C étant un nombre réel tel que C > maxqe[1 Q]— , nq étant le nombre d'observations de la A method of making a discriminator according to the preceding claim, characterized in that 0 <cci <C, where C is a real number such that C> max qe [1 Q] -, n being the number q of observations of the
nq  nq
classe q, en ce qu'une variable d'écart positive μ, est associée à chaque observation x, de sorte que fq(Xi)- pq + μ,≥ 0 et en ce que la somme à minimiser comporte en outre un terme d'erreur pondéré par C. class q, in that a variable of positive difference μ, is associated with each observation x, so that f q (Xi) - p q + μ, ≥ 0 and in that the sum to be minimized further comprises a C-weighted error term
6. Procédé d'élaboration d'un discriminateur selon l'une des revendications 2 à 5, caractérisé en ce que λ= 1 /Q. 7. Procédé d'élaboration d'un discriminateur selon l'une des revendications 2 à 6, caractérisé en ce que le terme de régularisation est la somme des normes deux au carré des fonctions de discrimination ou la somme de leurs normes un. 6. Process for producing a discriminator according to one of claims 2 to 5, characterized in that λ = 1 / Q. A method of constructing a discriminator according to one of claims 2 to 6, characterized in that the regularization term is the sum of the two standard squared discrimination functions or the sum of their norms one.
8. Procédé d'élaboration d'un discriminateur selon l'une des revendications précédentes, caractérisé en ce que l'étape de construction de la règle de décision comprend la sous-étape suivante : déterminer des règles d'affectation à partir desdites fonctions de discrimination. 8. Process for producing a discriminator according to one of the preceding claims, characterized in that the step of constructing the decision rule comprises the following substep: determining assignment rules from said discriminating functions.
9. Procédé d'élaboration d'un discriminateur selon l'une des revendications précédentes, caractérisé en ce que les objets sont extraits d'images acquises par un dispositif d'imagerie. 9. Process for producing a discriminator according to one of the preceding claims, characterized in that the objects are extracted from images acquired by an imaging device.
10. Programme d'ordinateur comprenant des instructions de code permettant d'effectuer les étapes du procédé selon l'une quelconque des revendications 1 à 9, lorsque ledit programme est exécuté sur un ordinateur. A computer program comprising code instructions for performing the steps of the method of any one of claims 1 to 9 when said program is run on a computer.
1 1 . Procédé de discrimination d'un objet candidat obtenu par un dispositif d'acquisition muni d'un capteur, qui comprend les étapes suivantes :1 1. A method of discriminating a candidate object obtained by an acquisition device provided with a sensor, which comprises the following steps:
- extraction de caractéristiques de cet objet acquis, conformément à l'extraction de caractéristiques du procédé d'élaboration d'un discriminateur selon l'une des revendications 1 à 9, les caractéristiques de cet objet constituant une observation candidate xc, . application d'une règle de décision à l'observation xc qui comprend les sous-étapes suivantes : extraction of characteristics of this acquired object, according to the extraction of characteristics of the process for producing a discriminator according to one of claims 1 to 9, the characteristics of this object constituting a candidate observation x c ,. application of a decision rule to observation x c which includes the following substeps:
- calcul pour xc des valeurs des fonctions de discrimination prédéfinies dans le procédé d'élaboration d'un discriminateur, calculating for x c values of the predefined discriminating functions in the process for producing a discriminator,
- application de règles d'affectation prédéfinies dans le procédé d'élaboration d'un discriminateur.  - application of predefined assignment rules in the process of developing a discriminator.
12. Programme d'ordinateur comprenant des instructions de code permettant d'effectuer les étapes du procédé selon la revendication 1 1 , lorsque ledit programme est exécuté sur un ordinateur. A computer program comprising code instructions for performing the steps of the method of claim 11 when said program is run on a computer.
PCT/EP2013/064829 2012-07-13 2013-07-12 Method of formulating a multiclass discriminator WO2014009548A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1201998 2012-07-13
FR1201998A FR2993381B1 (en) 2012-07-13 2012-07-13 METHOD FOR PRODUCING A MULTI-CLASS DISCRIMINATOR

Publications (1)

Publication Number Publication Date
WO2014009548A1 true WO2014009548A1 (en) 2014-01-16

Family

ID=47553119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/064829 WO2014009548A1 (en) 2012-07-13 2013-07-12 Method of formulating a multiclass discriminator

Country Status (2)

Country Link
FR (1) FR2993381B1 (en)
WO (1) WO2014009548A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649068A (en) 1993-07-27 1997-07-15 Lucent Technologies Inc. Pattern recognition system using support vectors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649068A (en) 1993-07-27 1997-07-15 Lucent Technologies Inc. Pattern recognition system using support vectors

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
"Computational Optimization", 1999, SPRINGER US, Boston, MA, ISBN: 978-1-46-155197-3, article ERIN J. BREDENSTEINER ET AL: "Multicategory Classification by Support Vector Machines", pages: 53 - 79, XP055067709, DOI: 10.1007/978-1-4615-5197-3_5 *
B.E. BOSER; I.M. GUYON; V.N. VAPNIK: "Proceedings of the fifth annual workshop on Computational learning theory", 1992, ACM, article "A training algorithm for optimal margin classifiers", pages: 144 - 152
CORTES C ET AL: "Support Vector Networks", MACHINE LEARNING, KLUWER ACADEMIC PUBLISHERS, BOSTON, US, vol. 20, no. 3, 1995, pages 273 - 297, XP002386458, ISSN: 0885-6125 *
KRISTIN P. BENNETT ET AL: "Duality and Geometry in SVM Classifiers", INTERNATIONAL CONFERENCE ON MACHINE LEARNING, 29 June 2000 (2000-06-29), XP055067710 *
LIANG TANG ET AL: "A multi-class large margin classifier", JOURNAL OF ZHEJIANG UNIVERSITY SCIENCE A, vol. 10, no. 2, February 2009 (2009-02-01), pages 253 - 262, XP055067701, ISSN: 1673-565X, DOI: 10.1631/jzus.A0820122 *
NANCULEF ET. AL.: "AD-SVMs: A light extension of SVMs for multicategory classification", INTERNATIONAL JOURNAL OF HYBRID INTELLIGENT SYSTEMS, vol. 6, no. 2, 2009, XP055067693 *
ROBERT JENSSEN ET AL: "A Multi-Class Support Vector Machine Based on Scatter Criteria", 2009, XP055067700, Retrieved from the Internet <URL:http://www.eecs.tu-berlin.de/fileadmin/f4/TechReports/2009/tr-2009-14.pdf> [retrieved on 20130621] *
SILVIO BORER: "New support vector algorithms for multicategorical data applied to real-time object recognition", 2003, Lausanne, CH, XP055067692, Retrieved from the Internet <URL:http://infoscience.epfl.ch/record/33301/files/EPFL_TH2826.pdf> [retrieved on 20130621] *
STEFANO LODI ET AL: "Single-Pass Distributed Learning of Multi-Class SVMs using Core-Sets", SIAM INTERNATIONAL CONFERENCE ON DATA MINING, 29 April 2010 (2010-04-29), pages 257 - 268, XP055067698 *
VOLKAN VURAL ET AL: "Multi-Class Classifiers and Their Underlying Shared Structure", INTERNATIONAL JOINT CONFERENCE ON ARTIFICIAL INTELLIGENCE, 11 July 2009 (2009-07-11), pages 1267 - 1272, XP055067704 *
YANN GUERMEUR: "Combining Discriminant Models with New Multi-Class SVMs", PATTERN ANALYSIS & APPLICATIONS, vol. 5, no. 2, 7 June 2002 (2002-06-07), pages 168 - 179, XP055067705, ISSN: 1433-7541, DOI: 10.1007/s100440200015 *

Also Published As

Publication number Publication date
FR2993381B1 (en) 2015-05-15
FR2993381A1 (en) 2014-01-17

Similar Documents

Publication Publication Date Title
US20140270489A1 (en) Learned mid-level representation for contour and object detection
US9953244B2 (en) Apparatus and method for single look main lobe and sidelobe discrimination in spectral domain images
EP2786314B1 (en) Method and device for following an object in a sequence of at least two images
EP3707676A1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
US20150356350A1 (en) unsupervised non-parametric multi-component image segmentation method
EP3149705A1 (en) Method and device for estimation of a quality index of a 3-d image of a piece of composite material
EP3032463B1 (en) Method and device for tracking characters on a plurality of images of a video stream of a text
EP3857512A1 (en) Method, computer program and system for object detection and location in a three-dimensional scene
EP1792278B1 (en) Method for detecting and tracking punctual targets, in an optoelectronic surveillance system
EP2517152B1 (en) Method of object classification in an image observation system
CN116612308A (en) Abnormal data detection method, device, equipment and storage medium
EP2491517B1 (en) Method and system for evaluating the class of test data in a large-dimension data space
US20230134508A1 (en) Electronic device and method with machine learning training
WO2014009548A1 (en) Method of formulating a multiclass discriminator
FR3123748A1 (en) ANNOTATION-FREE MACHINE LEARNING ENHANCED BY ADAPTIVE GROUPING IN OPEN SET OF CLASSES
CN112052863A (en) Image detection method and device, computer storage medium and electronic equipment
CN111950629A (en) Method, device and equipment for detecting confrontation sample
Zhang et al. A robust RGB‐D visual odometry with moving object detection in dynamic indoor scenes
Kais Jameel et al. Face identification using conditional generative adversarial network
Liu et al. Multiple feature fusion‐based video face tracking for IoT big data
FR3139212A1 (en) System and method for constructing adaptive streaming data partitioning structures
KR102627176B1 (en) Method for embodying occlusion of virtual object
FR3064069B1 (en) NON-DESTRUCTIVE CONTROL OF AERONAUTICAL PARTS BY A RADIOGRAPHY SYSTEM
WO2023170303A1 (en) Method for detecting anomalies using a global-local model
FR3130061A1 (en) Simultaneous localization and mapping method integrating self-supervised temporal masking and machine learning model to generate such masking.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13735340

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13735340

Country of ref document: EP

Kind code of ref document: A1