FR3139212A1 - Système et procédé de construction de structures adaptatives de partitionnement de données en flux - Google Patents

Système et procédé de construction de structures adaptatives de partitionnement de données en flux Download PDF

Info

Publication number
FR3139212A1
FR3139212A1 FR2208605A FR2208605A FR3139212A1 FR 3139212 A1 FR3139212 A1 FR 3139212A1 FR 2208605 A FR2208605 A FR 2208605A FR 2208605 A FR2208605 A FR 2208605A FR 3139212 A1 FR3139212 A1 FR 3139212A1
Authority
FR
France
Prior art keywords
data
partitioning
distribution
stationarity
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2208605A
Other languages
English (en)
Inventor
Pierre BLANCHART
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2208605A priority Critical patent/FR3139212A1/fr
Publication of FR3139212A1 publication Critical patent/FR3139212A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Il est proposé un dispositif de partitionnement de données apte à recevoir un ensemble de données initial et un ou plusieurs ensembles de données additionnels, et configuré pour effectuer :- au moins une opération pour générer un arbre de partitionnement associé à des sous-structures comprenant chacune une distribution de données de construction issue dudit ensemble initial ;- au moins une opération pour insérer ledit ensemble additionnel dans ledit arbre, lesdites sous-structures comprenant au moins une distribution de données insérée issue dudit ensemble additionnel ;- au niveau de chaque sous-structure une comparaison de ladite distribution de données de construction avec ladite distribution de données insérée. Le dispositif est configuré pour déterminer une valeur d’évaluation de la stationnarité des données insérées par rapport aux données de construction à partir de ladite comparaison, puis mettre à jour le partitionnement de données dudit arbre à partir de ladite valeur d’évaluation. Figure pour l’abrégé : [Fig.4]

Description

Système et procédé de construction de structures adaptatives de partitionnement de données en flux
La présente invention concerne de manière générale le domaine du partitionnement de données, et en particulier un système et un procédé non-supervisé de construction de structures de partitionnement de données adaptatives à l’insertion de flux de données non-stationnaires.
Les grandes quantités de données accumulées dans de nombreux domaines permettent d’aborder des problèmes spécifiques comme la détection d’anomalies, la détection de changements ou encore la détection d’objets, grâce à des approches d’apprentissage telles que par exemple les approches d’apprentissage profond (ou « deep learning » en langue anglo-saxonne). Ces approches sont efficaces pour traiter certains des problèmes mentionnés. Cependant, elles ne passent pas à l’échelle sur des données massives et ne peuvent pas non plus s’adapter à des données se présentant sous forme de flux non-stationnaire, c’est-à-dire des données comprenant une distribution qui change au cours du temps du fait de l’arrivée de nouveaux groupes de données. Il est connu d’utiliser des systèmes de construction de structures de partitionnement afin de traiter au préalable des données massives et permettre de focaliser les traitements coûteux de certains processus d’apprentissage sur des ensembles de données plus réduits et stationnaires au cours du temps.
Les systèmes connus de construction de structures de partitionnement de données sont basés sur des procédés de partitionnement récursifs de distribution des données et en particulier des calculs, dans des espaces de grande dimension, d’axes optimisant certaines statistiques caractéristiques de multi-modalité des données. Les procédés de partitionnement reposent par exemple sur des expertises de longue date des statistiques d’ordre supérieur de type kurtosis. De tels systèmes permettent de générer des structures de partitionnement à partir d’un ensemble de donnée initial et comprenant des groupements (ou partitions) de données a priori cohérentes initialement (c’est-à-dire constitués d’éléments appartenant essentiellement à un seul groupe de données ayant une même étiquette).
Cependant, à l’insertion de nouvelles données (ou de flux de données) dans de telles structures initiales, la projection des données sur un axe de partitionnement peut être substantiellement altérée, modifiant la cohérence d’un ou plusieurs groupements de la structure. Ceci traduit en particulier la présence de nouvelles modalités (au sens de modalités statistiques) non anticipées (ou non présentes) dans les données initiales utilisées pour construire la structure. Ces nouvelles modalités sont spécifiquement issues de ces nouvelles données insérées. Une telle situation correspond à une ‘non-stationnarité’ des données insérées par rapport aux données initiales.
Aujourd’hui, il n’existe aucun système ou procédé de construction de structures de partitionnement de données permettant de répondre aux problèmes d’insertion de données dans une structure de partitionnement initiale, les nouvelles données étant non-stationnaires par rapport au données de construction de cette structure.
Il existe ainsi un besoin pour un système et un procédé capable d’améliorer la construction de structures de partitionnement de données et en particulier l’insertion de flux de données non-stationnaires dans des structures de partitionnement afin de générer des partitions de données statistiquement et sémantiquement cohérents.
La présente invention vient améliorer la situation en proposant un dispositif de partitionnement de données apte à recevoir des données transmises par au moins une source de données, les données comprenant un ensemble de données initial et un ou plusieurs ensembles de données additionnels . Le dispositif est configuré pour effectuer :
- au moins une opération de partitionnement initiale pour générer un arbre de partitionnement de données initial à partir de l’ensemble des données initial , l’arbre étant associé à sous-structures comprenant chacune une distribution de données de construction issue de l’ensemble de données initial , et
- au moins une opération d’insertion pour insérer l’ensemble de données additionnels dans l’arbre de partitionnement de données initial , les sous-structures comprenant en outre au moins une distribution de données insérée issue de l’ensemble de données additionnels .
Le dispositif est en outre configuré pour effectuer au niveau de chaque sous-structure une comparaison de la distribution de données de construction avec la distribution de données insérée et pour déterminer une valeur d’évaluation de la stationnarité des données insérées par rapport aux données de construction de l’arbre de partitionnement de données initial à partir de la comparaison. Le dispositif de partitionnement de données est également configuré pour mettre à jour le partitionnement de données de l’arbre à partir de la valeur d’évaluation.
Dans des modes de réalisation, l’opération de partitionnement initiale peut comprendre la détermination d’un axe de projection de la distribution de données de construction pour former au moins deux sous-ensembles de données distincts issus de la distribution de données de construction . L’opération d’insertion de l’ensemble de données additionnels peut être effectuée au niveau de chaque sous-structure en prenant en compte l’axe de projection .
Selon certains modes de réalisation, la comparaison peut comprendre une détermination d’une distance entre la projection de la distribution de données de construction et la projection de la au moins une distribution de données insérée , la distance pouvant être par exemple la distance EMD.
Le dispositif peut être en outre configuré pour effectuer au moins une nouvelle opération de partitionnement, en réponse à une détection d’une condition de non-stationnarité des données. La nouvelle opération de partitionnement de données peut être effectuée au niveau d’au moins une sous-structure à partir de la distribution de données et de la au moins une distribution de données insérée de manière à générer un arbre de partitionnement de données modifié . La condition de non-stationnarité des données peut être vérifiée si la valeur d’évaluation de la stationnarité des données est supérieure à un seuil de non-stationnarité des données .
Avantageusement, la nouvelle opération de partitionnement peut comprendre la détermination d’un nouvel axe de projection d’un ensemble de données de construction pour former au moins deux nouveaux sous-ensembles de données distincts issus de l’ensemble de données de construction . L’ensemble de données de construction peut comprendre la distribution de données de construction et la au moins une distribution de données insérée .
Le seuil de non-stationnarité des données peut être préalablement fixé. La valeur d’évaluation de la stationnarité peut être égale à la valeur de comparaison des projection telle que la valeur de comparaison satisfait la condition de non-stationnarité des données : .
Alternativement, Le seuil de non-stationnarité des données peut être ajusté en fonction d’une probabilité de fausse alarme fixée . La détermination de la valeur d’évaluation de la stationnarité peut comprendre la mise en œuvre d’un test statistique basé sur une détection a contrario de non-stationnarités des données.
Dans certains modes de réalisation, la valeur d’évaluation de la stationnarité de la détection a contrario peut être déterminée à partir d’une fonction de répartition définie à partir de la valeur de comparaison des projections , la condition de non-stationnarité des données étant telle que : .
L’invention fournit également un système de construction de structures de partitionnement de données comprenant au moins une source de données, le dispositif de partitionnement de données et un module d’exploitation. Le module d’exploitation est configuré pour déterminer au moins un score de pureté moyenne associé à une distribution de données d’une sous-structure et pour évaluer la qualité de l’arbre de partitionnement de données à partir du au moins un score de pureté moyenne déterminé.
L’invention fournit également un procédé mis en œuvre par un dispositif de partitionnement de données comprenant les étapes consistant à :
- Recevoir un ensemble de données initial depuis au moins une source de données ;
- Effectuer au moins une opération de partitionnement initiale pour générer un arbre de partitionnement de données initial à partir de l’ensemble des données initial , l’arbre étant associé à sous-structures comprenant chacune une distribution de données de construction issue de l’ensemble de données initial ;
- Recevoir un ou plusieurs ensembles de données additionnels depuis au moins une source de données ;
- Effectuer au moins une opération d’insertion pour insérer l’ensemble de données additionnels dans l’arbre de partitionnement de données initial , les sous-structures comprenant en outre au moins une distribution de données insérée issue de l’ensemble de données additionnels ;
- Effectuer au niveau de chaque sous-structure une comparaison de la distribution de données de construction avec la distribution de données insérée et déterminer une valeur d’évaluation de la stationnarité des données insérées par rapport aux données de construction de l’arbre de partitionnement de données initial à partir de la comparaison ; et
- Mettre à jour l’arbre de partitionnement de données à partir de la valeur d’évaluation.
Le système et le procédé incrémental d’identification de non-stationnarités selon les modes de réalisation de l’invention permettent d’améliorer la construction de structures de partitionnement de données et en particulier l’insertion de flux de données dans des structures de partitionnement.
Ils permettent notamment de générer une solution de mise à jour partielle de la structure et adaptive aux nouvelles modalités statistiques présentes dans les données insérées afin de former une structure finale comprenant des groupements (ou partitions) de données statistiquement et sémantiquement cohérents, garantissant ainsi des propriétés d’exploitation de données pour des applications à des processus d’apprentissage.
Description des figures
D’autres caractéristiques, détails et avantages de l’invention ressortiront à la lecture de la description faite en référence aux dessins annexés donnés à titre d’exemple.
La est un schéma représentant une structure globale d’un système de construction de structures de partitionnement de données, selon des modes de réalisation de l’invention.
La représente deux exemples d’application sur une même image satellite, selon des modes de réalisation de l’invention.
La est un schéma représentant un arbre de partitionnement de données et un graphique illustrant la partition d’une distribution de données par un axe intelligent, selon des modes de réalisation de l’invention.
La est un schéma représentant un arbre de partitionnement de données et un graphique illustrant la partition de deux distributions de données par un axe intelligent, selon des modes de réalisation de l’invention.
La est un schéma représentant un arbre de partitionnement de données et un graphique illustrant la partition d’un ensemble de données contenant deux distributions de données par un axe intelligent, selon des modes de réalisation de l’invention.
La est un organigramme représentant un procédé de génération d’un arbre de partitionnement de données, selon des modes de réalisation de l’invention.
La est un organigramme représentant un procédé d’insertion de données et de comparaison des projections de données, selon des modes de réalisation de l’invention.
La est un organigramme représentant un procédé de mise à jour d’un arbre de partitionnement de données, selon des modes de réalisation de l’invention.
Des références identiques sont utilisées dans les figures pour désigner des éléments identiques ou analogues. Pour des raisons de clarté, les éléments représentés ne sont pas à l’échelle.
Description détaillée
La représente schématiquement une structure globale d’un système 10 de construction de structures de partitionnement de données, selon certains modes de réalisation de l’invention.
Le système 10 de construction de structures de partitionnement de données comprend des sources de données 12 et un dispositif de partitionnement de données 100.
Les sources de données 12 comprennent un ou plusieurs ensembles de données pouvant être compris et/ou acquis par le système 10.
Dans des modes de réalisation, une source de données peut être un capteur d’acquisition de données associé à l’acquisition d’un ou plusieurs signaux mono- ou multidimensionnels, tels que des signaux acoustiques, des signaux visuels, des signaux associés à des grandeurs physiques (température, pression), etc.
Selon certains modes de réalisation, une source de données peut comprendre une interface de réception (non représentée sur les figures) destinée à recevoir des données à travers différents systèmes annexes, tels que des capteurs d’acquisition de données par exemple.
Les données comprises dans les sources de données 12 peuvent donc être d’un ou plusieurs types. Par exemple, il peut s’agir d’images, de séquences audio et/ou de vidéos et/ou des données multimédia. Plus généralement, les données des sources de données 12 peuvent être tout type de données à catégoriser et peuvent être acquises par un capteur. Un ensemble de données peut faire référence à une grande quantité de données (c’est-à-dire de gros volumes de données encore appelés « données massives »), correspondant par exemple à plusieurs téraoctets de données.
En outre, les données peuvent être réceptionnées (ou considérées à traiter) en flux (ou en séries temporelles) de manière continue et/ou discontinue. Les flux de données peuvent être stationnaires et/ou non-stationnaires.
Tel qu’utilisé ici, le terme « non-stationnarité » fait référence à une série temporelle de données vérifiant des principes de non-stationnarité déterministe. De façon similaire, le terme « stationnarité » peut être associé à une série temporelle de données vérifiant une propriété dite de « stationnarité forte », c’est-à-dire pour laquelle la distribution des données ne change pas avec le temps et l’arrivée de nouvelle données. Mathématiquement, une série temporelle de données est dite stationnaire au sens fort si pour toute fonction mesurable, les termes et vérifient une même loi.
Le dispositif de partitionnement de données 100 est configuré pour effectuer une opération de partitionnement de données, c’est-à-dire pour partitionner (ou scinder) une partie et/ou l’ensemble des données compris dans les sources de données 12 en un certain nombre de sous-ensembles de données (appelés aussi ‘groupements’ ou ‘partitions’).
Le système 10 de construction de structures de partitionnement de données (et donc le dispositif 100) peut être utilisé comme un des processeurs de données mis en œuvre dans un système de traitement de données provenant d’un système antennaire et/ou d’imagerie par exemple (non représenté sur les figures) monté à bord d’un satellite ou d’une station d’acquisition de données et de contrôle sol, pour des missions spatiales, météorologiques et/ou scientifiques.
Par exemple et sans limitation, les sources de données 12 peuvent comprendre une image définie par un certain nombre de pixels ou groupements de pixels (appelé également « patches »). Le découpage d’une image en patches peut être effectué à partir d’un procédé de fenêtre glissante. Les données peuvent être par exemple des paquets d’informations brutes ou d’informations prétraitées (c’est-à-dire dérivées de données brutes, encore appelées « descripteurs »). Des descripteurs peuvent être des caractéristiques, de forme ou de texture par exemple, extraites généralement de patches. Des informations brutes peuvent être des valeurs colorimétriques (selon le code RGB ou le code LAB notamment) associées chacune à un pixel de l’image. Le dispositif de partitionnement de données 100 peut ainsi être configuré pour partitionner l’image en différentes catégories de pixels ou de patches associées chacune à une étiquette (ou « label » en langue anglo-saxonne), selon un ou plusieurs critères prédéfinis. La illustre un tel exemple de réalisation de l’invention. Les éléments (a) et (b) de la représentent une même image satellite, comprenant des zones de forêt et des zones de champs dont les pixels ou les patches ont été regroupés, suite à une opération de partitionnement de données, respectivement en une première catégorie de pixels (zones z1 en gris clair sur la (a) associées à une étiquette ‘zones de forêt’) et en une deuxième catégorie de pixels (zones z2 en gris foncé sur la (b) associées à une étiquette ‘zones de champs’). Dans l’exemple de l’image satellite présenté sur la , les critères de partitionnement des pixels peuvent être définis à partir des informations colorimétriques de l’image initiale (par exemple les ‘zones de forêt’ sont associées à un code RGB compris dans intervalle représentant le « vert foncé » et les ‘zones de champs’ sont associées à un code RGB compris dans intervalle représentant le « jaune »).
Le dispositif de partitionnement de données 100 peut par exemple comprendre un module de traitement 140 et un module de sauvegarde 160.
Une opération de partitionnement de données peut être effectuée par le dispositif de partitionnement de données de manière récursive (ou itérative) sur des ensembles et sous-ensembles des données compris dans les sources de données 12, de manière prédéfinie et/ou en réponse à une commande émise par le module de traitement 140 par exemple.
Le dispositif de partitionnement de données 100 est alors configuré pour générer un index, à partir d’une ou de plusieurs opérations de partitionnement de données.
Tel qu’utilisé ici, le terme d’« index » (ou index de données) fait référence un structure de partitionnement, appelée aussi arbre de partitionnement. Une fonctionnalité de l’indexation de données est, par exemple, de permettre la sélection rapide de un ou plusieurs sous-ensembles de données, d’un ensemble de données, associés à une nouvelle donnée injectée (ou insérée) dans cet ensemble de données.
Ainsi, le dispositif de partitionnement de données 100 est configuré pour effectuer une opération d’insertion de données, c’est-à-dire pour insérer, dans un index initial noté préalablement généré à partir d’un ensemble des données initial noté , un ou plusieurs ensembles de données additionnels notés tel que et . Le ou les ensembles de données additionnels sont réceptionnées (ou considérées à traiter) en flux dans les sources de données 12.
L’index initial comprend un certain nombre de sous-ensembles de données, issues d’opérations de partitionnement effectuées à partir de l’ensemble des données initial . Ainsi, l’index initial comprend sous-structures, encore appelées « nœuds » et notées tel que et . Chaque nœud de l’index initial comprend une partition de données, notée et associée à une distribution de données au sens statistique (comprenant par exemple des parties et/ou l’ensemble des données à partitionner). La partition de données est issue de l’ensemble des données initial et utilisée pour construire une partie de l’index initial . L’ensemble des données initial est par exemple noté . L’ensemble des données initial et/ou les partitions (ou distributions) de données sont encore appelées ci-après ‘données historiques de construction de l’index initial ’.
En réponse à l’insertion de chaque ensemble de données additionnel , chaque nœud d’un index modifié noté peut être associé à deux ensembles de données. Le premier ensemble de données est encore appelé ‘ensemble de données de construction’, noté , et comprend au moins une distribution de données . Le deuxième ensemble de données est encore appelé ‘ensemble de données de insérées’, noté , et comprend au moins une partition de données insérées , issue d’un ensemble de données additionnel .
Le dispositif de partitionnement de données 100 peut être en outre configuré pour comparer au niveau de chaque nœud les distributions de données et , et pour évaluer chacune des différentes comparaisons de l’index initial en fonction d’un seuil de ‘non-stationnarité des données’ noté .
Le dispositif de partitionnement de données 100 est configuré pour ensuite mettre à jour au moins partiellement l’index initial , c’est-à-dire pour effectuer au moins une opération de partitionnement de données au niveau d’au moins un nœud à partir d’un ensemble des distributions de données répartis entre les deux ensembles de données et .
Un tel dispositif de partitionnement de données 100 permet ainsi de générer des structures de partitionnement de données qui sont adaptatives à l’insertion de flux de données non-stationnaires.
Le dispositif de partitionnement de données 100 peut être configuré pour effectuer de manière récursive une opération de partitionnement sur les sous-ensembles des données engendrés par chacune des opérations de partitionnement à partir d’au moins un nœud .
Le dispositif de partitionnement de données 100 (via par exemple le module de traitement 140) est ainsi apte à générer un index modifié , en fonction de la ou des opérations de partitionnement des données effectuées à partir de la mise à jour d’au moins un nœud . La génération de l’index modifié permet notamment une adaptation aux nouvelles modalités statistiques présentes dans les données insérées .
La figure 3(a) représente schématiquement un exemple d’index et plus précisément un arbre de partitionnement binaire, c’est-à-dire basé sur un découpage en deux, de manière récursive, de distributions de données à partir d’un ensemble de données initial .
Les figures 4(a) et 5(a) représentent la modification de l’index initial suite à l’insertion des ensembles de données additionnels selon certains modes de réalisation de l’invention.
Comme illustré sur les figures 3(a), 4(a) et 5(a), dans une structure de partitionnement binaire, les nœuds peuvent également être notés . Selon cette notation, fait référence à un niveau de profondeur de l’arbre de partitionnement binaire et fait référence à un degré de largeur de l’arbre. La profondeur maximale de l’arbre binaire peut être notée tel que , et pour chaque niveau . De plus, chaque partition de données, notée , d’un nœud génère deux nœuds appelés aussi ‘nœud fils’, par exemple et . Un nœud générant d’autres nœuds est appelé ‘nœud parent’. Les nœud fils sont alors associés chacun à une distribution de données (pouvant être partitionnées), respectivement et . Ainsi, chaque niveau de l’arbre binaire représente une partition de l’ensemble de données initial noté tel qu’exprimé dans l’équation (01) suivante :
(01)
Un nœud comprenant une distribution de données n’ayant pas subi d’opération de partitionnement, désigne un nœud « feuille ».
Comme illustré sur la , le module de traitement 140 du dispositif de partitionnement de données 100 peut comprendre une unité de projection 142 configurée pour mettre en œuvre la ou les opérations de partitionnement.
En particulier, l’unité de projection 142 peut être configurée pour déterminer le ou les axes de projection possibles associés respectivement à des parties et/ou l’ensemble des données à partitionner. Les axes de projection mettant en évidence différentes distributions de données intrinsèques aux sources de données 12 sont appelés ‘axes intelligents’. L’unité de projection 142 est alors configurée pour choisir (ou rechercher par itération par exemple) le ou les axes intelligents associés à une ou plusieurs distribution des données parmi au moins certains axes de projection possibles déterminés préalablement par exemple.
Il est à noter que dans des espaces de données de grande dimension, les axes intelligents choisis pour générer un index ont pour but d’optimiser certaines statistiques caractéristiques de la multi-modalité des données dans ces espaces et de garantir la cohérence sémantique des différents sous-ensembles de données de cet index. Les axes intelligents choisis permettent d’effectuer des découpages de données dans des zones dites « zones de faible densité de données » situées entre les modes et permettent de garantir l’intégrité d’ensembles denses de données.
Dans des modes de réalisation, les opérations de partitionnement des données peuvent reposer sur des statistiques d’ordre supérieur de type kurtosis (moment d’ordre 4). Le kurtosis (encore appelé « coefficient d’acuité » ou « coefficient d’aplatissement ») désigne une mesure réalisée sur une distribution de données, utilisée notamment en théorie des probabilités et en statistique, représentant une répartition des données par rapport à une ‘distribution normale’ vérifiant une loi normale.
En particulier, un axe intelligent (caractérisé par exemple par un vecteur directeur) peut être obtenu en minimisant le calcul du kurtosis de la projection d’une distribution des données sur cet axe (la minimisation est effectuée par rapport à d’autres projections sur d’autres axes déterminés). Par définition et du fait des propriétés du kurtosis, une projection binaire d’une distribution des données a une valeur minimale (par exemple proche de un, le kurtosis étant supérieur à 1) et deux ou plusieurs « bosses » ou « pics », encore appelées ‘modes’, de part et d’autre d’une ou plusieurs valeurs centrales prédéterminées (par exemple zéro). En particulier, le procédé de minimisation du kurtosis de données centrées réduites peut consister à déterminer l’axe suivant lequel la distribution des données est la plus bimodale possible, avec deux modes situés de part et d’autre d’une valeur centrale (0 dans le cas de données centrées). À l’extrême, un kurtosis de 1 sur des données centrées réduites correspond à une distribution de données composées de deux Dirac situées en -1 et 1. En raison de cette propriété, le critère de minimum de kurtosis est particulièrement adapté au procédé de partitionnement binaire.
Les arbres de partitionnement binaire sont associés à une classe générique d’algorithmes de partitionnement générant une indexation multi-résolution d’un jeu de données. Chaque nœud d’un arbre de partitionnement binaire peut posséder deux nœuds fils, appelés nœud ‘gauche’ et nœud ‘droit’ conventionnellement, qui résultent de la partition binaire d’un ensemble ou sous-ensemble de données par un hyperplan séparateur, ou de façon équivalente suivant les coordonnées de projection des points sur un axe normal à cet hyperplan.
Un exemple de projection binaire d’une distribution des données sur un axe intelligent est représenté par l’histogramme 1D de la figure 3(b) composé d’un mode ‘gauche’ et d’un mode ‘droit’, et présentant un ‘creux’ en ‘zéro’. Chacun des modes d’une projection de distributions des données sur un axe intelligent correspond à la projection d’une partition de données (i.e. sous-ensemble de données). L’arbre de partitionnement binaire sur la figure 3(a) est par exemple initialisé selon un découpage en deux de l’ensemble de données initial pour former les deux sous-ensembles de données et tels que représentés sur la figure 3(b) illustrant une représentation de la distribution de données (c’est-à-dire la distribution), selon les coordonnées de l’axe intelligent appliqué. Par exemple et sans limitation, cette représentation (aussi notée ) peut être un histogramme 1D normalisé.
Selon certains modes de réalisation, les axes intelligents et autres paramètres de partitionnement déterminés par l’unité de projection 142 peuvent être issus de méthodes de partitionnement classiques. Les arbres de partitionnement peuvent être par exemple et sans limitation :
– des arbres dits « arbres k-d » (abréviation d'arbre à k dimensions) dont la méthode de partitionnement permet d’effectuer des partitions binaires suivant les différents axes de coordonnées des données ;
– des arbres dits « arbres PCA » (abréviation d'arbre à analyse des composants principaux) dont la méthode de partitionnement permet de partitionner les données en chaque nœud suivant le premier axe principal d’un sous-ensemble de données correspondant à ce nœud, comme décrit dans les articles “Refinements to nearest-neighbor searching ink-dimensional trees” de R. F. Sproull 1991, Algorithmica, 6(1-6):579–589, et “A fast nearest-neighbor algorithm based on a principal axis search tree” de J. McNames 2001, IEEE Transactions on pattern analysis and machine intelligence, 23(9):964–976 ;
– des arbres dits « arbres 2Means » (ou « arbres 2M ») dont la méthode de partitionnement utilise un axe obtenu en joignant les centres de deux clusters résultant du regroupement (ou ‘clustering’) binaire d’un sous-ensemble de données correspondant à un nœud, comme décrit dans les articles “A branch and bound algorithm for computing k-nearest neighbors” de K. Fukunaga and P. M. Narendra 1975, IEEE transactions on computers, 100(7):750–753, 1975, et “Scalable recognition with a vocabulary tree” de D. Nister and H. Stewenius 2006, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), volume 2, pages 2161–2168. Les arbres 2Means peuvent notamment être utilisés en imagerie satellitaire pour effectuer des clustering hiérarchiques appelés « dyadic-kmeans clustering », comme décrit dans l’article “Cluster structure evaluation of dyadic k-means algorithm for mining large image archives” de H. Daschiel and M. P. Datcu 2003, In Image and Signal Processing for Remote Sensing VIII, volume 4885, pages 120–130. International Society for Optics and Photonics ;
– des arbres dits « arbres random projection » dont la méthode de partitionnement utilise la projection des données sur un ou plusieurs axes aléatoires et dont l’optimisation de la structure porte alors sur la détermination d’un seuil de « découpe intelligent », comme décrit dans l’article “Random projection trees and low dimensional manifolds” de S. Dasgupta and Y. Freund 2008, In Proceedings of the fortieth annual ACM symposium on Theory of computing, pages 537–546 ;
– des arbres dits « arbres Maximum-Margin » dont la méthode de partitionnement utilise la séparation des données en chaque nœud suivant un hyperplan de marge maximale calculé en utilisant un algorithme de « maximum margin clustering », décrit dans l’article “Maximum margin clustering” de L. Xu, J. Neufeld, B. Larson, and D. Schuurmans 2005, In Advances in neural information processing systems, pages 1537–1544 ; et
– d’autres arbres dont la méthode de partitionnement autorise par exemple certains sous-ensembles de nœuds fils à posséder des regroupements de données de recouvrement, comme décrit dans l’article “An investigation of practical approximate nearest neighbor algorithms” de T. Liu, A. W. Moore, K. Yang, and A. G. Gray 2005, In Advances in neural information processing systems, pages 825–832.
Dans d’autres modes de réalisation, les axes intelligents déterminés par l’unité de projection 142 peuvent être des axes dits « axes mini-kurtiques » pour lesquels l’unité de projection 142 peut utiliser une méthode de partitionnement comprenant différentes étapes. Ces étapes peuvent comprendre les étapes consistant à :
– Acquérir plusieurs jeux de données, par exemple des images, et les organiser dans une matrice de données ayant une première dimension égale à la dimension d’un jeu de données, par exemple la taille d’une image, et une seconde dimension égale au nombre d’acquisitions dans le jeu de données ;
– Centrer et ortho-normaliser la matrice de données, de manière à transformer la matrice de données en une matrice dont les composantes selon la seconde dimension ont une moyenne nulle, une norme unité et sont orthogonales deux à deux. Cette étapes peut être mise en œuvre au moyen d’une analyse en composantes principales par exemple appliquée de manière à réduire la première dimension de la matrice de données ;
– Rechercher au moins un axe de projection tel que la projection de la matrice de données sur cet axe présente un kurtosis minimal ; cette recherche peut notamment être mise en œuvre en recherchant, pour au moins un couple de composantes de la matrice de données selon la seconde dimension, une combinaison linéaire de ce couple ayant un kurtosis minimal, par exemple, en recherchant une matrice de rotation de Givens, définie par un angle de rotation θ, pour laquelle le produit le couple de composantes et de cette matrice de rotation de Givens présente un kurtosis minimal pour l’une de ses deux composantes ou présente une différence maximale entre les kurtosis des deux composantes ; et
– Partitionner les données en au moins deux groupes ou groupements distincts de données en fonction du signe des composantes de la matrice de données projetées sur chaque axe de projection obtenu.
L’utilisation d’axes mini-kurtiques permet de modéliser de manière précise et compacte une distribution des données initiale. Par ailleurs, l’utilisation d’axes mini-kurtiques permet d’obtenir des arbres de partitionnement ayant des performances supérieures en termes de pureté moyenne des feuilles, lors d’insertion de données en flux, par rapport aux autres arbres de partitionnement connus de l’homme du métier. De plus, l’utilisation d’axes mini-kurtiques donne lieu à des mises à jour moins fréquentes de la structure d’index au fur et à mesure des itérations d’insertion de données en flux. Chaque axe mini-kurtique utilisé pour effectuer une partition binaire des données correspond à une direction dite « direction de bimodalité maximale » dans un espace des données.
Dans des modes de réalisation, la construction d’un arbre de partitionnement (binaire notamment) peut prendre en compte la profondeur , ainsi que d’éventuels paramètres de construction de la procédure de calcul de l’axe de partitionnement. En particulier, le procédé de calcul de l’axe intelligent peut comprendre la mise en œuvre d’un axe mini-kurtique ou d’un des axes utilisés dans une méthode de partitionnement classique. Le procédé de calcul de l’axe intelligent peut également comprendre la mise en œuvre alternée de plusieurs types d’axes suivant un paramètre de construction. Par ailleurs, l’unité de projection 142 peut être configurée pour déterminer un premier axe intelligent principal défini à partir d’une bi-modalité marquée de la distribution des données initiale , et pour appliquer un seuil de découpe des modes de projection selon une valeur fixée, par exemple zéro dans le cas où les données sont centrées avant projection sur l’axe intelligent.
Ainsi, la génération d’un index effectuée par le dispositif de partitionnement de données 100 peut comprendre une ou plusieurs opérations de partitionnement associées chacune à une étape de détermination d’un axe intelligent spécifique et répétées plusieurs fois sur des distributions de données successives, de façon hiérarchique ou non. Par exemple, une étape de détermination d’un axe intelligent à partir d’une distribution des données (avec étant défini tel que ) peut être effectuée par l’unité de projection 142, telle que la distribution des données correspond à un des sous-ensembles de données générés à partir d’une étape antérieure de détermination d’un axe intelligent sur une autre distribution des données du nœud parent .
Le module de traitement 140 (et/ou l’unité de projection 142) peut comprendre des unités de calcul indépendantes (non représentées sur les figures). Ainsi, le module de traitement 140 peut être configuré pour déterminer les différents axes intelligents de nœuds situés à une même profondeur de l’arbre, de façon simultanée sur ces différentes unités de calcul. De façon générale, un nœud fils peut être construit à partir du moment où le nœud parent existe. De ce fait, l’unité de projection 142 peut être configurée pour générer un planificateur de tâches apte à administrer la construction de différentes nœuds donnés en fonction de l’existence d’un nœud parent et d’une ou plusieurs ressources de calcul disponibles par exemple.
Dans certains modes de réalisation, le module de traitement 140 peut comprendre une file de priorité comprenant au moins un élément. La génération d’un index effectuée par le module de traitement 140 peut alors être implémentée en utilisant cette file de priorité. Par exemple et de façon non limitative, un élément de la file de priorité peut correspondre au traitement d’une opération de partitionnement d’un nœud (c’est-à-dire, à la détermination d’un axe intelligent à partir d’une distribution des données ). En outre, le module de traitement 140 peut être configuré pour générer un ou plusieurs éléments dans la file de priorité en réponse au traitement d’un nœud . La file de priorité peut être de type FIFO (First In, First Outselon l’expression anglo-saxonne signifiant littéralement “premier entré, premier sorti ») et les éléments générés peuvent être ajoutés en queue de file de priorité.
En particulier, pour une structure de partitionnement binaire telle qu’illustrée sur la figure 3(a), une file de priorité de type FIFO engendre une construction de l’arbre en largeur d’abord (i.e. selon l’indice ). Ce type de parcours de construction l’arbre est particulièrement adapté à une distribution du calcul en générant des séquences contigües de tâches similaires correspondant aux traitements à effectuer sur les nœuds de l’arbre à un niveau de profondeur donnée. Les nœuds situés à une profondeur donnée correspondent à des tâches de partitionnement indépendantes pouvant donc être parallélisées sur des unités de calcul indépendantes.
Dans des modes de réalisation, le module de traitement 140 peut comprend une horloge interne associé à un instant . A l’initialisation de l’index initial , le paramètre vérifie et à l’insertion d’un ensemble de données additionnel , le paramètre vérifie . Par exemple et sans limitation, les instants et peuvent être des horodatages et/ou des intervalles de temps. Dans d’autres modes de réalisation, les instants et peuvent être associés à des boucles d’itérations d’insertion de données.
Dans des modes de réalisation, le module de traitement 140 peut en outre être configuré pour sauvegarder un index (par exemple, l’index initial généré et/ou le ou les index modifiés) dans le module de sauvegarde 160 du dispositif de partitionnement de données 100. En particulier, un index peut être sauvegardé en prenant compte des différents nœuds (ou ) qui le caractérisent. Par exemple, le module de sauvegarde 160 peut être configuré pour enregistrer chaque nœud sous la forme d’une matrice d’éléments générées par le module de traitement 140.
Dans des modes de réalisation, à l’initialisation de l’index initial , chaque nœud (éventuellement noté ) peut comprendre dans le module de sauvegarde 160 :
– l’indice de nœud (ou équivalent à ) et éventuellement l’identité de l’index associé ;
– l’indice du nœud ‘parent’ (par exemple , ou pour un arbre binaire : ou ), et/ou l’indice du ou des nœuds fils (par exemple , ou pour un arbre binaire : et ) ;
– un ensemble de données de construction comprenant initialement la distribution de données (ou ) ;
– les paramètres (correspondant à des coordonnées pouvant être normalisées) de l’axe intelligent noté (ou ).
Selon certains modes de réalisation, chaque nœud peut comprendre en outre, dans le module de sauvegarde 160, l’indice de nœud (ou ) et optionnellement l’identité de l’index associé.
Avantageusement, un nœud peut en outre comprendre, dans le module de sauvegarde 160, des paramètres de transformation de données notés . Une transformation de données peut être appliquée par le module de traitement 140 à chaque donnée du nœud (c’est-à-dire, chaque donnée d’un ensemble des données, comme par exemple ). La transformation de données peut être appliquée avant projection de la donnée sur un axe intelligent .
Dans des modes de réalisation, pour certains type d’axes intelligents (par exemple, pour un axe intelligent de type mini-kurtique), une transformation (ou procédé) de ‘blanchiment’ des données avant projection peut être appliqué. Un procédé de blanchiment correspond notamment à une succession d’étapes comprenant une étape de centrage, une étape de décorrélation et une étape de normalisation suivant chacun des axes principaux. La transformation de type blanchiment des données peut être définie par l’équation (02) suivante :
(02)
Dans l’équation (02) :
– le terme fait référence à un vecteur de centrage de l’ensemble des données , c’est-à-dire par exemple la moyenne des données de constructions du nœud ;
– le terme fait référence à une matrice contenant un certain nombre de vecteurs propres normalisés qui définissent un sous-espace de projection des données ; et
– le terme fait référence à une matrice diagonale contenant l’inverse des valeurs propres associées à chaque vecteur propre.
Il est à noter que, la distribution de données (ou ) du nœud noté est la distribution de données utilisée pour déterminer les coordonnées de l’axe intelligent . Ainsi à , l’ensemble de données de construction est égale à la distribution de données issue de l’ensemble des données initial .
Dans des modes de réalisation, chaque nœud peut également comprendre, dans le module de sauvegarde 160, la représentation de la distribution des coordonnées de projection des données sur l’axe intelligent .
L’homme du métier comprendra que chaque nœud feuille d’un index peut ne pas comprendre, dans le module de sauvegarde 160, d’indice de nœuds fils ni de paramètres d’axe intelligent. De façon similaire, le nœud (ou ) peut ne pas comprendre, dans le module de sauvegarde 160, d’indice de nœud parent.
Dans des modes de réalisation, à l’insertion d’un ensemble de données additionnel , chaque nœud (dans le module de sauvegarde 160) peut comprendre en outre l’ensemble de données insérées comprenant au moins une distribution de données , dite distribution de données insérée (ou ajoutée). Une distribution de données distribution insérée est notamment issue de l’application de l’axe intelligent du nœud parent à un ensemble de données . L’axe intelligent étant déterminé à l’initialisation de l’index initial . Ainsi, à , l’ensemble de données insérées peut être égal par exemple à l’ensemble de données inséré au nœud .
Par ailleurs, dans des modes de réalisation, chaque nœud peut comprendre, dans le module de sauvegarde 160, les représentations et associées respectivement à l’ensemble de données de construction et à l’ensemble de données insérées selon les mêmes coordonnées de l’axe intelligent .
Dans des modes de réalisation, lors d’une opération d’insertion d’une distribution de données dans un nœud , le module de traitement 140 peut être configuré pour appliquer une transformation de données à la distribution de données insérée avant projection sur l’axe intelligent .
En particulier, dans un cas d’utilisation d’un axe mini-kurtique, le module de traitement 140 peut être configuré pour mettre en œuvre le ‘blanchiment’ d’une donnée compris dans une distribution de données insérée en un nœud selon la transformation de données définie dans l’équation (02), puis pour exécuter le partitionnement de cette donnée d’insertion selon l’équation (03) suivante :
(03)
L’équation (03) correspond à un embranchement dit conditionnel. Par exemple et sans limitation, la projection d’une donnée d’insertion dans un index binaire permet d’aiguiller la donnée d’insertion dans le nœud fils ‘droit’ si la condition (03) est vérifiée, ou dans le nœud fils ‘gauche’ sinon.
Tel qu’illustré sur la figure 4(a) et la figure 4(b), un ensemble de données additionnel est inséré dans l’arbre de partitionnement binaire à un instant . L’application de l’axe intelligent du nœud à la distribution de données induit un partitionnement de données en deux distributions de données et qui sont injectées respectivement dans les nœuds et . Dans ce cas, un ensemble de données de construction est égal à , et un ensemble de données insérées est égal à .
Un index (binaire par exemple) peut être généré de sorte que, pour chaque groupement de données, il est possible de trouver un axe dont chaque mode (‘gauche’ ou ‘droit’ par exemple) est composé entièrement d’éléments de ce groupement. Alternativement, lors du partitionnement de données, un groupement de données peut être réparti sur plusieurs axes, en fonction de certains critères (par exemple un ‘critère d’arrêt’) fixés lors de la construction de l’arbre. Ainsi, si un histogramme 1D d’un index initial correspondant à la projection d’une distribution de données sur un axe intelligent est substantiellement modifié lors de l’insertion de nouvelles données (comme illustré sur la (a) et la (b)), alors ces nouvelles données correspondent à de nouveaux groupements absents des données initiales utilisées pour construire l’index initial. Ces nouvelles données sont donc non-stationnaires par rapport aux données de constructions initiales, ce qui implique une mise à jour du nœud et donc de la définition de l’axe intelligent associé pour tenir compte des nouveaux groupements de données.
En particulier, les représentations et illustrées sur la figure 4(b) montrent une distribution de données différente par rapport à (en particulier une distribution nulle ou quasi-nulle), ce qui reflète une non-stationnarité des données entre la distribution de données et la distribution de données , chacune projetée sur l’axe intelligent du nœud .
Comme illustré sur la figure 1, le module de traitement 140 peut comprendre une unité d’évaluation 144. Cette unité d’évaluation 144 peut être configurée pour comparer au niveau de chaque nœud des distributions de données, et plus particulièrement pour comparer les représentations et des ensembles de données et projetées sur l’axe intelligent . En d’autres termes, l’unité d’évaluation 144 peut être configurée déterminer une valeur de comparaison notée des ensembles de données et .
L’unité d’évaluation 144 peut en outre être configurée pour évaluer chacune des différentes valeurs de comparaisons en fonction d’un seuil de non-stationnarité des données . Par exemple, l’unité d’évaluation 144 peut être apte à déterminer une valeur d’évaluation de la stationnarité de l’ensemble de données insérées par rapport à l’ensemble de données de construction . Ainsi, en chaque nœud , la valeur d’évaluation est notamment issue de la valeur de comparaison et est examinée en fonction du seuil de non-stationnarité des données , afin de détecter chaque non-stationnarité de données insérées dans un index.
Dans des modes de réalisation, le dispositif de partitionnement de données 100 peut être configuré pour effectuer, au niveau du nœud , une ou plusieurs opérations d’insertion de données , le nœud pouvant alors comprendre également, dans le module de sauvegarde 160 :
– l’ensemble de données de construction ; et
– l’ensemble de données insérées .
Selon certains modes de réalisation, la détermination des valeurs de comparaison de données par l’unité d’évaluation 144 peut être effectuée en utilisant toute méthode d’évaluation de dissemblance entre deux distributions de données adaptée, comme par exemple, une méthode de calcul de distance entre représentations (ou histogrammes) et .
Un exemple de méthode d’évaluation de dissemblance entre deux distributions qui peut être utilisée est la méthode de calcul d’une distance appelée « distance du cantonnier» ou encore EMD (acronyme de l’expression anglo-saxonne « earth mover's distance »), décrite dans l’article “A distance metric for multidimensional histograms” de M.Werman, S. Peleg, and A. Rosenfeld 1985, Computer Vision, Graphics, and Image Processing, 32(3):328–336.
En particulier, la mise en œuvre de la méthode de calcul EMD en un nœud permet de déterminer la valeur de comparaison de données selon l’équation (04) suivante :
(04)
Dans un premier mode de réalisation, la valeur d’évaluation de la stationnarité peut être la valeur de comparaison déterminée en un nœud selon l’équation (04). Par ailleurs, le seuil de non-stationnarité permettant de détecter une non-stationnarité entre l’ensemble de données de construction et l’ensemble de données insérées peut être prédéfini ou prédéterminé. Dans ce cas, l’unité d’évaluation 144 peut être par exemple configurée pour vérifier si la valeur de comparaison est strictement supérieure au seuil de non-stationnarité , tel que :
(05)
Dans le mode de réalisation où la condition de non-stationnarité des données est définie par l’équation (05), si la valeur de la comparaison est strictement supérieure au seuil de non-stationnarité , alors une non-stationnarité au nœud est détectée.
Dans d’autres modes de réalisation, le seuil de non-stationnarité peut être ajusté par rapport à une probabilité de fausse alarme fixée notée (qui peut être par exemple une probabilité de fausse alarme souhaitée ou cible), définie à l’échelle de l’index considéré. Dans ce cas, le seuil de non-stationnarité peut être déterminé en fonction du nombre de nœuds de l’index. Pour une probabilité de fausse alarme constante, le module de traitement 140 détectera un nombre constant de non-stationnarités (égal à ), à chaque itération d’insertion de données en flux.
L’unité d’évaluation 144 peut être alors configurée pour mettre en œuvre un test statistique basé sur un principe de détection a contrario de non-stationnarités. Un tel principe est par exemple décrit dans l’article “From gestalt theory to image analysis: a probabilistic approach” de A. Desolneux, L. Moisan, and J.-M. Morel, 2007, Springer Science & Business Media, volume 34.
En particulier, l’unité d’évaluation 144 peut être configurée pour déterminer à l’échelle d’un index considéré :
– une première hypothèse telle qu’une « hypothèse nulle notée » correspond à l’hypothèse selon laquelle il n’y a pas de non-stationnarité détectée au nœud ; et
– une variable aléatoire associée aux observations (c’est-à-dire aux différentes valeurs de comparaisons à chaque nœud , une valeur de comparaison correspondant à une distance entre les histogrammes et ).
L’unité d’évaluation 144 peut en outre être apte à déterminer à chaque nœud une distribution cumulative notée (aussi appelée fonction de répartition) telle que définie dans l’équation (06) suivante :
(06)
Dans ces modes de réalisation, la détermination de la valeur d’évaluation de la stationnarité en un nœud consiste à évaluer la distribution cumulative selon l’équation (06).
Dans ce cas, l’unité d’évaluation 144 peut être apte à comparer la valeur d’évaluation (ou valeur de la fonction de répartition ) par rapport à la probabilité de fausse alarme fixée et indépendante du nœud considéré, tel que :
(07)
Dans le mode de réalisation correspondant à l’équation (07), si au nœud , la valeur de la fonction de répartition est supérieure au taux de fausses alarmes fixé , alors une non-stationnarité des données insérées est détectée au nœud . Inversement, si la valeur de la fonction de répartition est strictement inférieure au taux de fausses alarmes fixé , alors l’absence de non-stationnarité des données insérées est vérifiée au nœud . En d’autres termes, la vérification de cette condition signifie que la probabilité d’observer des valeurs supérieures ou égales à est trop faible pour que la valeur ait été observée par hasard.
Ainsi, si au nœud la valeur de la fonction de répartition est inférieure à un taux de fausses alarmes prédéfini , une seconde hypothèse notée correspondant à la « détection d’une non-stationnarité » pour la valeur , l’hypothèse n’est vraisemblablement pas valide pour expliquer cette réalisation de la variable aléatoire . Autrement dit, la valeur contredit la loi de sous l’hypothèse nulle .
Il est à noter que l’utilisation du principe de détection « a contrario » de non-stationnarités permet au seuil de non-stationnarité de s’ajuster en fonction des opérations d’insertion et/ou des opérations de partitionnement par opposition à une valeur du seuil de non-stationnarité préalablement établie.
Dans le cas particulier illustré sur la figure 4(b), les nouvelles données correspondent exclusivement à un mode préalablement existant puisque les représentations et montrent un sous-ensemble de données vide par rapport à , chaque mode associé à une projection de données sur un axe intelligent comprenant un poids. Ainsi, dans ce cas, l’exclusivité de répartition des données selon une distribution de données modifie uniquement le poids des modes, et non les paramètres de position et de forme des groupements de données des nœuds fils. Dans le mode de réalisation d’utilisation d’axes mini-kurtiques pour le partitionnement de donnée, il n’est pas nécessaire de recalculer l’axe intelligent puisque l’axe défini initialement reste optimal au sens du minimum de kurtosis, même en cas de changement des poids des groupements. Dans ce cas particulier et selon un mode de réalisation simple avec un seuil de non-stationnarité préalablement établi , la distance EMD entre les représentations et définie à l’équation (05) est inférieure au seuil de non-stationnarité et donc une non-stationnarité n’est pas détectée. Alternativement, selon un mode de réalisation complexe avec un seuil de non-stationnarité ajusté par rapport à une probabilité de fausse alarme , une non-stationnarité peut être détectée.
Il est à noter que, la reconstruction de la structure par mises à jour successives n’a d’impact que sur la quantité de calculs effectués, et non sur la qualité de l’index (en termes de pureté moyenne des feuilles). Ainsi, dans certains modes de réalisation, le dispositif de partitionnement de données 100 peut être configuré pour exécuter (ou déclencher) au nœud une mise à jour dite ‘mise à jour induite par comparaison’. Cette mise à jour induite par comparaison est exécutée au nœud en réponse à la détection d’une non-stationnarités de données au nœud suite à une opération d’insertion de données . Dans ce cas, le dispositif de partitionnement de données 100, via l’unité de projection 142 par exemple, peut alors être configuré pour effectuer une opération de partitionnement sur l’ensemble de données de construction alors modifié et défini par . Cette opération de partitionnement génère ainsi de nouvelles coordonnées d’axe intelligent, noté , alors enregistrées dans le module de sauvegarde 160. L’ensemble de données insérées du nœud (dans le module de sauvegarde 160) est alors vidé. La représentation associée à l’ensemble de données de construction selon les coordonnées de l’axe intelligent peut alors être mis à jour par le dispositif de partitionnement de données 100 (dans le module de sauvegarde 160), la représentation étant alors nulle.
Par exemple, tel que illustré sur la figure 4(a), un ensemble de données additionnel est inséré dans l’arbre de partitionnement binaire à un instant . Suite à la détection d’une non-stationnarité de données au nœud entre la distribution de données et la distribution de données projetées sur l’axe intelligent et illustrées sur la figure 4(b), à un instant , l’arbre de partitionnement binaire est mis à jour, et un axe intelligent est généré à partir d’une opération de partitionnement sur l’ensemble de données de construction modifié correspondant alors au nouvel ensemble de données de construction , également noté . En particulier, et est vidé. La projection de sur l’axe intelligent (i.e. la représentation illustrée sur la figure 5(b)) induit un partitionnement de données en deux distributions de données, notées { } et { }, injectées respectivement dans les nœuds et comme représenté sur la (a).
Dans des modes de réalisation, le dispositif de partitionnement de données 100 peut être configuré pour exécuter, au nœud , une autre mise à jour dite ‘mise à jour résultante’. Cette mise à jour résultante est exécutée au nœud en réponse à une mise à jour exécutée au nœud parent . Par exemple, une mise à jour résultante peut être exécutée au niveau du nœud , en réponse à une mise à jour induite par comparaison exécutée au nœud parent dont les coordonnées d’axe intelligent ont été modifiés, ainsi que les sous-ensembles de données résultant de la projection de l’ensemble de données de construction sur l’axe intelligent . L’ensemble de données insérées du nœud est alors vidé, dans le module de sauvegarde 160. La représentation associée à l’ensemble de données de construction selon les coordonnées de l’axe intelligent peut alors être mis à jour par le dispositif de partitionnement de données 100 dans le module de sauvegarde 160, la représentation étant alors nulle.
Dans l’exemple représenté sur la figure 5(a) et la figure 5(b), les deux distributions de données et sont insérées respectivement dans les nœuds et suite à la mise à jour induite par comparaison exécutée au nœud parent . En réponse à cette mise à jour au nœud , des mises à jour résultantes peuvent être exécutées aux nœuds et telles que des axes intelligent et peuvent être générés. De façon similaire, des mises à jour résultantes peuvent être exécutées aux nœuds , , et en réponse aux mises à jour résultantes précédentes exécutées aux nœuds et .
Il est à noter que lorsqu’une non-stationnarité est détectée en un nœud , l’ensemble de la sous-structure de l’index est mis à jour en dessous de ce nœud. Ainsi, dans des modes de réalisation, le dispositif de partitionnement de données 100 peut être apte à répertorier, en chaque nœud , la ou les mises à jour à exécuter. Par exemple et sans limitation, suite à une opération d’insertion de données, un nœud peut être associé à une mise à jour induite par comparaison et/ou une ou plusieurs mises à jour résultantes d’une mise à jour induite par comparaison à effectuer en un nœud parent. Dans ce cas, le dispositif de partitionnement de données 100 peut être configuré pour exécuter en priorité (au moyen de l’opération consistant à répertorier des mises à jour à exécuter) la mise à jour induite par comparaison associée au nœud parent le plus proche de la racine de l’index (c’est-à-dire ayant la profondeur par exemple la plus faible dans un arbre binaire), puis pour exécuter les mises à jour résultante associées à l’ensemble des nœuds fils, par exemple selon une profondeur croissante dans l’arbre par exemple.
Avantageusement, dans le mode de réalisation associé à l’équation (07) et utilisant un seuil de non-stationnarité ajusté par rapport à une probabilité de fausse alarme , le dispositif de partitionnement de données 100 peut être configuré pour conserver les valeurs historiques issues des itérations précédentes, selon un facteur d’oubli noté , par exemple dans le module de sauvegarde 160.
L’utilisation du facteur d’oubli permet notamment de contrer l’effet de changement d’échelle des valeurs entre itérations de flux de données successives à insérer, notamment lors de la détermination de la fonction de répartition en chaque nœud . Ainsi, les mises à jour induites par comparaison dépendent de l’historique des données pour contrer les changements de dynamiques des valeurs entre itérations de flux.
En effet, il est à noter qu’un index initial est construit sur une ‘vision’ très partielle d’un ensemble global de données . Ainsi, à une première insertion de données additionnelles , le dispositif de partitionnement de données 100 peut détecter un grand nombre de non-stationnarités, avec des valeurs élevées pour chacune des valeurs de comparaison . Dans le mode de réalisation simple avec un seuil de non-stationnarité préalablement déterminé , à une insertion de données additionnelles , le dispositif de partitionnement de données 100 peut déterminer des valeurs plus faibles pour chacune des comparaisons et ainsi détecter moins, voire beaucoup moins de non-stationnarités, ce qui engendre notamment une décroissance du nombre de mises à jour induites par comparaison de la structure d’index avec le nombre d’insertions. Alternativement, selon le mode de réalisation de l’équation (07) utilisant un seuil de non-stationnarité ajusté par rapport à une probabilité de fausse alarme , le nombre de mises à jour induites par comparaison de la structure d’index reste constant. Ainsi, un facteur d’oubli entre itérations permet dans ce cas de « régler » la sensibilité du mécanisme de détection des non-stationnarités de données insérées, et permet d’autoriser la mise à jour de l’index dans les itérations ultérieures de flux, même pour des valeurs plus faibles de valeurs de comparaison .
Il est à noter que les enregistrements en chaque nœud de l’indice du nœud parent et/ou de l’indice du ou des nœuds fils, de l’ensemble de données de construction, des paramètres de l’axe intelligent et de l’ensemble de données insérées sont suffisants pour effectuer des insertions de nouvelles données dans un index et pour effectuer des améliorations complémentaires des modes de réalisation de l’invention. En particulier, l’enregistrement spécifique des indices d’insertion des données, à chaque itération d’opération d’insertion et dans chaque nœud, permet une indexation multi-résolution du jeu de données complet .
Le procédé algorithmique de découpage récursif de l’espace, selon les modes de réalisation de l’invention, permet la distribution des calculs sur des unités de traitement parallèles avec mémoires non partagées, ce qui rend possible l’analyse de grandes quantités de données.
Comme illustré sur la , le système 10 peut notamment comprendre en outre un module d’exploitation 18 configuré pour appliquer des traitements de données spécifiques à l’aide d’algorithmes, par exemple fortement supervisés, et selon des conditions d’application strictes sur des données stationnaires et des volumes de données restreints.
Le module d’exploitation 18 peut également être configuré pour évaluer la performance de la génération d’index (i.e. la génération d’arbre), c’est-à-dire pour effectuer une évaluation ‘sémantique’ de la cohérence des partitions de la structure, et en particulier pour calculer la performance en termes de pureté moyenne des partitions formées.
Dans des modes de réalisation, les données de constructions et données insérées en flux peuvent être étiquetées selon une pluralité de étiquettes. Ces étiquettes peuvent par exemple être prédéfinies et au moins certaines des données (ou éléments) des sources de données 12 peuvent être associées (ou annotées) à une ou plusieurs de ces étiquettes.
Le module d’exploitation 18 peut ainsi être configuré pour calculer un score de pureté d’une ou plusieurs partitions de données formées dans un index binaire, par exemple aux nœuds . Le module d’exploitation 18 peut également être configuré pour déterminer un score de pureté moyenne d’une même profondeur d’un arbre binaire, en particulier à partir de scores calculés de pureté des partitions de données.
Il est à noter qu’une partition de données peut être associée à un score de pureté égal à 1, si elle est constituée entièrement d’éléments associés à une même étiquette. Inversement, une partition de données peut être associée à un score de pureté égale à , si elle est constituée d’éléments associés de manière uniforme à toute la pluralité de étiquettes. Le calcul de score de pureté d’une partition de données au nœud peut être défini comme le rapport entre le cardinal de l’étiquette majoritaire des éléments de la partition de données et le nombre total de données annotées au nœud .
Avantageusement, le score de pureté moyenne à une même profondeur d’un l’arbre binaire peut correspondre à une moyenne pondérée des scores de pureté calculés de l’ensemble des nœuds , étant prédéfini. La pondération peut être choisie comme un nombre de données annotées par partition. Ce choix de pondération a l’avantage d’éviter aux étiquettes ayant peu d’éléments annotés de peser de façon excessive dans la détermination de la pureté moyenne.
A une même profondeur d’un l’arbre binaire, un score de pureté moyenne peut être égal à 1, si chaque partition de données des nœuds associés est pure, c’est-à-dire constituée uniquement d’éléments associés à une même étiquette.
Avantageusement, le module d’exploitation 18 peut également être configuré pour déterminer (ou évaluer) la qualité d’un index de partitionnement de données à partir d’un ou plusieurs scores de pureté moyenne déterminés.
Les différents éléments du système 10, c’est-à-dire notamment le dispositif de partitionnement de données 100, les sources de données 12 et le module d’exploitation 18, peuvent être couplés à un bus de données 11.
La est un organigramme décrivant un procédé de construction d’un arbre initial de partitionnement de données, mis en œuvre par un dispositif de partitionnement de données 100, selon des modes de réalisation de l’invention. Ce procédé est notamment agnostique par rapport au type choisi d’axe intelligent à calculer.
A l’étape 600, un ensemble de donnée initial est reçu, et le premier nœud de l’index est initialisé, tel que pour , l’ensemble de données de construction du nœud est défini par , ou pour une structure binaire .
A l’étape 602, différents paramètres de constructions de l’index initial sont reçus. Ces paramètres de constructions peuvent comprendre par exemple la profondeur de l’arbre de partitionnement binaire , et/ou le ou les types d’axes intelligents choisis, et des éléments d’utilisation associés.
A l’étape suivante ou aux étapes 604 et 608, le ou les indices du premier nœud sont initialisés. Par exemple, est initialisé à , ou pour une structure binaire les indices et sont initialisés respectivement à et , désignant un paramètre d’incrémentation de l’indice , et étant lui-même initialisé à la valeur , à l’étape 606.
A l’étape 610, l’axe intelligent associé à la distribution des données (ou plus généralement l’ensemble de données de construction ) du nœud est déterminé.
A l’étape 612, la distribution des données (ou plus généralement l’ensemble de données de construction ) est projetée sur l’axe intelligent résultant de la détermination des distributions de données issues du partitionnement de la distribution du nœud . Les nœuds fils du nœud sont alors initialisés, par exemple aux valeurs respectives et pour une structure binaire.
Aux étapes 614 et 616, si les indices et atteignent les valeurs de certains paramètres de constructions de l’index, alors la construction de l’arbre de partitionnement est terminée, et en particulier l’arbre est enregistrée à l’étape 618 via notamment la sauvegarde des différentes éléments caractéristiques liées aux nœuds . Sinon, le ou les indices du nœud sont incrémentés, tel que par exemple , ou pour une structure binaire (à l’étape 620) et (à l’étape 622).
L'homme du métier comprendra aisément que certaines étapes peuvent être réalisées de manière simultanée et/ou selon un ordre différent, par exemple selon un ordre défini par le module de traitement 140.
La est un organigramme décrivant un procédé d’insertion de données dans un arbre de partitionnement, ainsi que d’évaluation des données insérées par rapport aux données de construction de cet arbre, mis en œuvre par un dispositif de partitionnement de données 100, selon des modes de réalisation de l’invention.
A l’étape 700, l’arbre de partitionnement (via les différentes éléments liées aux nœuds ) est reçu. En outre, à l’étape 700, un ensemble de donnée additionnel est reçu, et le premier nœud de l’index est initialisé tel qu’à , l’ensemble de donnée additionnel est ajouté à l’ensemble de données insérées du nœud , ou pour une structure binaire .
Les étapes 704, 706, 708, 714, 716, 720 et 722 sont des étapes d’initialisation et d’incrémentation du ou des indices associées aux nœuds de l’index de partitionnement. L'homme du métier comprendra aisément que ces étapes sont analogues aux étapes 604, 606, 608, 614, 616, 620 et 622 associées aux indices des nœuds dans le procédé de construction d’un arbre de partitionnement de données.
A l’étape 710, l’ensemble de données insérées (et notamment la distribution des données ) est projetée sur l’axe intelligent , résultant de la détermination des distributions de données insérées et issues du partitionnement de la distribution des données .
A l’étape 712, la projection de l’ensemble de données insérées (comprenant notamment la distribution des données ) est comparée à la projection de l’ensemble de données de construction (comprenant notamment la distribution des données ) afin de déterminer une valeur de comparaison .
A l’étape 718, la modification de l’arbre de partitionnement est terminée et les distributions de données insérées et leur projection sur les axes intelligents sont sauvegardées pour chaque nœud .
L'homme du métier comprendra aisément que le procédé d’insertion de données dans un arbre de partitionnement et le procédé d’évaluation des données insérées peuvent être réalisés de manière simultanée.
La est un organigramme décrivant un procédé de mise à jour d’un arbre de partitionnement, mis en œuvre par un dispositif de partitionnement de données 100, selon des modes de réalisation de l’invention.
A l’étape 800, l’arbre de partitionnement modifié par l’insertion de données, ainsi que les informations d’évaluation (déterminées à l’étape 712 par exemple) sont reçus.
A l’étape 802, le type de seuil de non-stationnarité est déterminé, comme par exemple le seuil préalablement déterminé ou à ajuster par rapport à une probabilité de fausse alarme à déterminer. En fonction de ces seuils, des éléments d’évaluation de la stationnarité des données peuvent être déterminées, comme par exemple l’hypothèse nulle et la valeur aléatoire pour la ‘détection a contrario’.
A l’étape 804, les valeurs d’évaluation de la stationnarité sont déterminées en chaque nœud en fonction des valeurs de comparaison , puis sont comparées au seuil de non-stationnarité afin de déterminer si l’ensemble de données insérées (comprenant notamment la distribution des données ) sont stationnaires par rapport à l’ensemble de données de construction (et notamment la distribution des données ). Par exemple, une valeur d’évaluation de la stationnarité des données est égale la valeur de comparaison ou déterminée en fonction de la valeur de comparaison pour obtenir une fonction de répartition pour la ‘détection a contrario’.
A l’étape 806, la priorisation des mises à jours induites par comparaison est déterminée à partir de l’ensemble des non-stationnarités détectées pour obtenir une liste d’un certain nombre de nœuds à mettre à jour.
Les étapes 808, 816 et 820 sont des étapes d’initialisation et d’incrémentation du ou des indices associées à la liste de nœuds , et de l’index de partitionnement à mettre à jour (mises à jours induites par comparaison).
A l’étape 810, au nœud , l’ensemble de données inséré est vidé et l’ensemble de données de construction est réinitialisé (i.e. modifié) pour comprendre toutes les distributions des données .
A l’étape 812, l’axe intelligent associé à l’ensemble de données de construction est déterminé (tel que pour l’étape 610). Par ailleurs, l’ensemble de données de construction est projetée sur l’axe intelligent résultant de la détermination des nouveaux ensembles de données de construction des nœuds fils (tel que pour l’étape 612).
A l’étape 814, pour chaque nœud fils modifié issue de la mise à jour du nœud , une mise à jour résultante est effectuée en reprenant par exemple les étapes 610 et 612 du procédé de construction de l’arbre.
A l’étape 818, l’arbre de partitionnement mis à jour est terminé et les ensemble de données résultantes (et leur projection sur les axes intelligents) sont sauvegardés pour chaque nœud .
L’invention peut être mise en œuvre dans de nombreuses applications et dans des domaines techniques variés. Le dispositif de partitionnement de données 100 et les procédés selon les modes de réalisation de l’invention peuvent être utilisés par exemple dans des systèmes industriels (systèmes de cybersécurité, processus de fabrication par exemple) ou militaire, dans le domaine bancaire ou fiscal, dans des dispositifs d’imagerie (imagerie satellitaire par exemple), de diagnostic médical ou d'aide au diagnostic médical. L’invention s’applique plus généralement à tout domaine pour lequel il existe un besoin de partitionnement de données.
Par exemple et sans limitations, les dispositifs de partitionnement de données 100 peuvent être utilisés sur des images de surveillance satellitaire et aérienne haute résolution, notamment pour la détection d’anomalies, la détection d’objets, la détection de changements, la visualisation, ou encore la recherche de cibles.
L’homme du métier comprendra que l’invention peut être mise en œuvre en tant que programme d’ordinateur comportant des instructions pour son exécution. Le programme d’ordinateur peut être enregistré sur un support d’enregistrement lisible par un processeur. La référence à un programme d'ordinateur qui, lorsqu'il est exécuté, effectue l'une quelconque des fonctions décrites précédemment, ne se limite pas à un programme d'application s'exécutant sur un ordinateur hôte unique. Au contraire, les termes programme d'ordinateur et logiciel sont utilisés ici dans un sens général pour faire référence à tout type de code informatique (par exemple, un logiciel d'application, un micro logiciel, un microcode, ou toute autre forme d'instruction d'ordinateur) qui peut être utilisé pour programmer un ou plusieurs processeurs pour mettre en œuvre des aspects des techniques décrites ici. Les moyens ou ressources informatiques peuvent notamment être distribués ("Cloud computing"), éventuellement selon des technologies de pair-à-pair. Le code logiciel peut être exécuté sur n'importe quel processeur approprié (par exemple, un microprocesseur) ou cœur de processeur ou un ensemble de processeurs, qu'ils soient prévus dans un dispositif de calcul unique ou répartis entre plusieurs dispositifs de calcul (par exemple tels qu’éventuellement accessibles dans l’environnement du dispositif). Le code exécutable de chaque programme permettant au dispositif programmable de mettre en œuvre les processus selon l'invention, peut être stocké, par exemple, dans le disque dur ou en mémoire morte. De manière générale, le ou les programmes pourront être chargés dans un des moyens de stockage du dispositif avant d'être exécutés. L'unité centrale peut commander et diriger l'exécution des instructions ou portions de code logiciel du ou des programmes selon l'invention, instructions qui sont stockées dans le disque dur ou dans la mémoire morte ou bien dans les autres éléments de stockage précités.
Le dispositif de partitionnement de données 100 peut être implémenté sur une unité de calcul distribué comprenant une pluralité de cœurs physiques (par exemple 16 cœurs). Les modes de réalisation de l’invention sont particulièrement adaptés à une telle implémentation distribuée ainsi qu’à un portage sur des technologies hardware multi-cœur, ce qui permet d’obtenir une réponse rapide à une requête utilisateur quelle que soit la taille du modèle de classification considéré. Le dispositif de partitionnement de données 100 peut être est implémenté dans différents langages, tels que le langage C++.
L'invention n'est pas limitée aux modes de réalisation décrits ci-avant à titre d’exemple non limitatif. Elle englobe toutes les variantes de réalisation qui pourront être envisagées par l'homme du métier. En particulier, l’homme du métier comprendra que l’invention n’est pas limitée aux différents procédés de comparaison des données et d’évaluation de leur stationnarité.

Claims (10)

  1. Dispositif de partitionnement de données (100) apte à recevoir des données transmises par au moins une source de données (12), les données comprenant un ensemble de données initial et un ou plusieurs ensembles de données additionnels , le dispositif (100) étant configuré pour effectuer :
    - au moins une opération de partitionnement initiale pour générer un arbre de partitionnement de données initial à partir dudit ensemble des données initial , ledit arbre étant associé à sous-structures comprenant chacune une distribution de données de construction issue de l’ensemble de données initial , et
    - au moins une opération d’insertion pour insérer ledit ensemble de données additionnels dans l’arbre de partitionnement de données initial , lesdites sous-structures comprenant en outre au moins une distribution de données insérée issue de l’ensemble de données additionnels ,
    le dispositif (100) étant en outre configuré pour effectuer au niveau de chaque sous-structure une comparaison de ladite distribution de données de construction avec ladite distribution de données insérée et pour déterminer une valeur d’évaluation de la stationnarité des données insérées par rapport aux données de construction de l’arbre de partitionnement de données initial à partir de ladite comparaison,
    le dispositif de partitionnement de données (100) étant configuré pour mettre à jour le partitionnement de données dudit arbre à partir de ladite valeur d’évaluation.
  2. Dispositif (100), selon la revendication 1, dans lequel ladite opération de partitionnement initiale comprend la détermination d’un axe de projection de ladite distribution de données de construction pour former au moins deux sous-ensembles de données distincts issus de la distribution de données de construction , et dans lequel ladite opération d’insertion dudit ensemble de données additionnels est effectué au niveau de chaque sous-structure en prenant en compte ledit axe de projection .
  3. Dispositif (100), selon la revendication 2, dans lequel ladite comparaison comprend une détermination d’une distance entre la projection de ladite distribution de données de construction et la projection de ladite au moins une distribution de données insérée , ladite distance étant par exemple la distance EMD.
  4. Dispositif (100), selon l’une des revendication précédentes, dans lequel le dispositif (100) est en outre configuré pour effectuer au moins une nouvelle opération de partitionnement, en réponse à une détection d’une condition de non-stationnarité des données, ladite nouvelle opération de partitionnement de données étant effectuée au niveau d’au moins une sous-structure à partir de ladite distribution de données et de ladite au moins une distribution de données insérée de manière à générer un arbre de partitionnement de données modifié , ladite condition de non-stationnarité des données étant vérifiée si ladite valeur d’évaluation de la stationnarité des données est supérieure à un seuil de non-stationnarité des données .
  5. Dispositif (100), selon la revendication 4, et dans lequel ladite nouvelle opération de partitionnement comprend la détermination d’un nouvel axe de projection d’un ensemble de données de construction pour former au moins deux nouveaux sous-ensembles de données distincts issus dudit ensemble de données de construction , ledit ensemble de données de construction comprenant ladite distribution de données de construction et ladite au moins une distribution de données insérée .
  6. Dispositif (100), selon l’une des revendications 4 ou 5, dans lequel ledit seuil de non-stationnarité des données est préalablement fixé, et dans lequel ladite valeur d’évaluation de la stationnarité est égale à ladite valeur de comparaison des projection telle que la valeur de comparaison satisfait la condition de non-stationnarité des données : .
  7. Dispositif (100), selon l’une des revendications 4 ou 5, dans lequel ledit seuil de non-stationnarité des données est ajusté en fonction d’une probabilité de fausse alarme fixée , et dans lequel la détermination de ladite valeur d’évaluation de la stationnarité comprend la mise en œuvre d’un test statistique basé sur une détection a contrario de non-stationnarités des données.
  8. Dispositif (100), selon la revendication 7, dans lequel ladite valeur d’évaluation de la stationnarité de ladite détection a contrario est déterminée à partir d’une fonction de répartition définie à partir de la valeur de comparaison des projections , la condition de non-stationnarité des données étant telle que : .
  9. Système de construction de structures de partitionnement de données (10) comprenant au moins une source de données (12), le dispositif de partitionnement de données (100) selon l’une des revendications 1 à 8, et un module d’exploitation (18), dans lequel le module d’exploitation (18) est configuré pour déterminer au moins un score de pureté moyenne associé à une distribution de données d’une sous-structure et pour évaluer la qualité de l’arbre de partitionnement de données à partir dudit au moins un score de pureté moyenne déterminé.
  10. Procédé mis en œuvre par un dispositif de partitionnement de données (100), caractérisé en ce que le procédé comprend les étapes consistant à :
    - Recevoir (600) un ensemble de données initial depuis au moins une source de données (12) ;
    - Effectuer (606 à 620) au moins une opération de partitionnement initiale pour générer un arbre de partitionnement de données initial à partir dudit ensemble des données initial , ledit arbre étant associé à sous-structures comprenant chacune une distribution de données de construction issue de l’ensemble de données initial ;
    - Recevoir (700) un ou plusieurs ensembles de données additionnels depuis au moins une source de données (12) ;
    - Effectuer (704 à 716) au moins une opération d’insertion pour insérer ledit ensemble de données additionnels dans l’arbre de partitionnement de données initial , lesdites sous-structures comprenant en outre au moins une distribution de données insérée issue de l’ensemble de données additionnels ;
    - Effectuer (802 à 806) au niveau de chaque sous-structure une comparaison de ladite distribution de données de construction avec ladite distribution de données insérée et déterminer une valeur d’évaluation de la stationnarité des données insérées par rapport aux données de construction de l’arbre de partitionnement de données initial à partir de ladite comparaison ; et
    - Mettre à jour (808 à 818) ledit arbre de partitionnement de données à partir de ladite valeur d’évaluation.
FR2208605A 2022-08-29 2022-08-29 Système et procédé de construction de structures adaptatives de partitionnement de données en flux Pending FR3139212A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2208605A FR3139212A1 (fr) 2022-08-29 2022-08-29 Système et procédé de construction de structures adaptatives de partitionnement de données en flux

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2208605A FR3139212A1 (fr) 2022-08-29 2022-08-29 Système et procédé de construction de structures adaptatives de partitionnement de données en flux
FR2208605 2022-08-29

Publications (1)

Publication Number Publication Date
FR3139212A1 true FR3139212A1 (fr) 2024-03-01

Family

ID=84819819

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2208605A Pending FR3139212A1 (fr) 2022-08-29 2022-08-29 Système et procédé de construction de structures adaptatives de partitionnement de données en flux

Country Status (1)

Country Link
FR (1) FR3139212A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2792153A1 (fr) * 1999-04-09 2000-10-13 Canon Kk Procede de determination d'une partition pour inserer un signal de marquage et procede de decodage associe
FR2842672A1 (fr) * 2002-07-22 2004-01-23 Inst Nat Rech Inf Automat Dispositif et procede de decodage robuste de codes arithmetiques
US20090164182A1 (en) * 2007-12-21 2009-06-25 Schlumberger Technology Corporation Multipoint geostatistics method using branch runlength compression and local grid transformation
EP4002852A1 (fr) * 2019-07-19 2022-05-25 LG Electronics Inc. Procédé et dispositif de codage/décodage d'image à l'aide d'un filtrage, et procédé de transmission de flux binaire

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2792153A1 (fr) * 1999-04-09 2000-10-13 Canon Kk Procede de determination d'une partition pour inserer un signal de marquage et procede de decodage associe
FR2842672A1 (fr) * 2002-07-22 2004-01-23 Inst Nat Rech Inf Automat Dispositif et procede de decodage robuste de codes arithmetiques
US20090164182A1 (en) * 2007-12-21 2009-06-25 Schlumberger Technology Corporation Multipoint geostatistics method using branch runlength compression and local grid transformation
EP4002852A1 (fr) * 2019-07-19 2022-05-25 LG Electronics Inc. Procédé et dispositif de codage/décodage d'image à l'aide d'un filtrage, et procédé de transmission de flux binaire

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
A. DESOLNEUXL. MOISANM. MOREL: "From gestalt theory to image analysis: a probabilistic approach", SPRINGER SCIENCE & BUSINESS MEDIA, vol. 34, 2007
D. NISTERH. STEWENIUS: "Scalable recognition with a vocabulary tree", IEEE COMPUTER SOCIETY CONFÉRENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR'06, vol. 2, 2006, pages 2161 - 2168, XP010923119, DOI: 10.1109/CVPR.2006.264
DE J. MCNAMES: "A fast nearest-neighbor algorithm based on a principal axis search tree", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 223, no. 9, 2001, pages 964 - 976, XP001133374, DOI: 10.1109/34.955110
H. DASCHIELM. P. DATCU: "Cluster structure évaluation of dyadic k-means algorithm for mining large image archives", IN IMAGE AND SIGNAL PROCESSING FOR REMOTE SENSING VIII, vol. 4885, 2003, pages 120 - 130
K. FUKUNAGAP. M. NARENDRA, IEEE TRANSACTIONS ON COMPUTERS, vol. 100, no. 7, 1975, pages 750 - 753
L. XUJ. NEUFELDB. LARSOND. SCHUURMANS, IN ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, 2005, pages 1537 - 1544
M.WERMANS. PELEGA. ROSENFELD: "A distance metric for multidimensional histograms", COMPUTER VISION, GRAPHICS, AND IMAGE PROCESSING, vol. 32, no. 3, 1985, pages 328 - 336, XP055055910, DOI: 10.1016/0734-189X(85)90055-6
MCNAMES J: "A FAST NEAREST-NEIGHBOR ALGORITHM BASED ON A PRINCIPAL AXIS SEARCH TREE", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 23, no. 9, 2 September 2001 (2001-09-02), pages 964 - 976, XP001133374, ISSN: 0162-8828, DOI: 10.1109/34.955110 *
R. F. SPROULL: "Refinements to nearest-neighbor searching ink-dimensional trees", ALGORITHMICA, vol. 6, no. 1-6, 1991, pages 579 - 589
S. DASGUPTAY. FREUND: "Random projection trees and low dimensional manifolds", IN PROCEEDINGS OF THE FORTIETH ANNUAL ACM SYMPOSIUM ON THEORY OF COMPUTING, 2008, pages 537 - 546

Similar Documents

Publication Publication Date Title
US20230115700A1 (en) Automated generation of machine learning models
Savani et al. Intra-processing methods for debiasing neural networks
FR2990035A1 (fr) Systeme et procede d'extraction exploitant des etiquettes de niveau de categorie
FR2968426A1 (fr) Calcul de comparaison asymetrique a grande echelle pour integrations binaires
US20220027757A1 (en) Tuning classification hyperparameters
US20190311258A1 (en) Data dependent model initialization
FR3030846A1 (fr) Representation semantique du contenu d'une image
EP3857512A1 (fr) Procede, programme d'ordinateur et systeme de detection et localisation d'objet dans une scene tridimensionnelle
WO2010066563A1 (fr) Dispositif a architecture pipeline de flot de donnees pour la reconnaissance et la localisation d'objets dans une image par balayage de fenetres de detection
Brandes et al. Environmentally adaptive automated recognition of underwater mines with synthetic aperture sonar imagery
US20230094415A1 (en) Generating a target classifier for a target domain via source-free domain adaptation using an adaptive adversarial neural network
US20240143426A1 (en) System for early detection of operational failure in component-level functions within a computing environment
KR102357531B1 (ko) 딥러닝 기반의 강수 유형 분류 방법
FR3091355A1 (fr) Système et procédé d’identification de source radar
FR3082962A1 (fr) Determination automatique et auto-optimisee des parametres d'execution d'une application logicielle sur une plateforme de traitement de l'information
US11295229B1 (en) Scalable generation of multidimensional features for machine learning
FR3139212A1 (fr) Système et procédé de construction de structures adaptatives de partitionnement de données en flux
Zuo et al. FedViT: Federated continual learning of vision transformer at edge
EP4252162A1 (fr) Procédé d'évaluation de la performance d'un algorithme de prédiction et dispositifs associés
FR3123748A1 (fr) Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes
Hahn et al. Bayesian nonparametric unmixing of hyperspectral images
Sperandio Recherche de séries temporelles à l’aide de DTW-preserving shapelets
Farquhar et al. Radial bayesian neural networks: Beyond discrete support in large-scale bayesian deep learning
WO2023170303A1 (fr) Methode pour la detection d'anomalie utilisant un modele global-local
US20230367271A1 (en) Systems and methods for time-series data processing in machine learning systems

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240301