WO2012007489A1 - Processeur d'analyse situationnelle - Google Patents

Processeur d'analyse situationnelle Download PDF

Info

Publication number
WO2012007489A1
WO2012007489A1 PCT/EP2011/061910 EP2011061910W WO2012007489A1 WO 2012007489 A1 WO2012007489 A1 WO 2012007489A1 EP 2011061910 W EP2011061910 W EP 2011061910W WO 2012007489 A1 WO2012007489 A1 WO 2012007489A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
memory
situations
attributes
segments
Prior art date
Application number
PCT/EP2011/061910
Other languages
English (en)
Inventor
Jean-Pierre Malle
Original Assignee
Ensuite Informatique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ensuite Informatique filed Critical Ensuite Informatique
Priority to CN201180044029.4A priority Critical patent/CN103262103B/zh
Priority to US13/809,564 priority patent/US9349097B2/en
Priority to EP11730694.4A priority patent/EP2593909A1/fr
Publication of WO2012007489A1 publication Critical patent/WO2012007489A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/283Multi-dimensional databases or data warehouses, e.g. MOLAP or ROLAP
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Definitions

  • the present invention relates to a data processing device designed for programming expert systems or artificial intelligence systems simulating human reasoning by being able to implement induction reasoning.
  • a dedicated data processing device including statistical processing, data mining ("datamining" in the English terminology), the design of decision support tools, diagnostics, the prediction or approximation, the design of simulators, machine learning systems or learning aids and generally the design of situation analysis systems or situation analysis.
  • a processor takes bits sequences into input, transforms them through series of logic gates, and derives another sequence of bits at the output. It is the series of logic gates that determines the calculation that the processor makes.
  • This series predetermined in the program, depends on a user-impregnated model according to the rules of formal logic, and based on known situations.
  • These models can take extremely varied forms, from quantitative models for market finance to mechanical models for engineering.
  • the principle z, genera! consists in analyzing real phenomena to predict results from the application of one or more models at a given level of approximation.
  • neural networks have been developed which have proven to be more efficient than conventional processor architectures, particularly in signal and information processing (telecommunications, finance, meteorology), statistical processing (marketing), ranking and recognition of form
  • the present invention proposes an alternative data processing device which, through the observation of situations, makes it possible to analyze data, and to predict other situations, without being dependent on a model or structure of data. physical or logical implementation.
  • situation is meant here a more or less complex and more or less vague information describing a particular action or state.
  • the situation arises from an observation by a human being or a machine and can be as real as imaginary,
  • the present invention proposes a data processing device, its architecture being able to be physical or logical and forming a situational analysis processor.
  • an inference engine implementing, in parallel or in series, inference rules grouped together in libraries, said rules being programmed to regenerate a sequence comprising at least one segment of the memory, by creating, deleting or modifying them at their implementing in at least one memory space at least one datum and / or at least one attribute value and / or at least one connectivity link,
  • resource allocation means activating or deactivating the inference rules according to a priority rule
  • data extraction means identified by programming and / or by at least one chosen attribute value and / or at least one link of connectedness chosen; and / or located in one or more selected segments of the memory, to one or more outgoing information flows.
  • the memory is organized into at least three dimensions, including at least one temporal dimension associating with the data one or more attributes making it possible to date the storage of the data, an idiosyncratic dimension associating with the data one or more attributes making it possible to determine the relative specificity of the data , a conceptual dimension associating with the data one or more attributes allowing to hierarchize the data according to levels of abstraction;
  • the first space of the memory containing attributes of the data is constituted by even levels identified as levels of situations, and the second space of the memory containing relationships between data is constituted by odd levels identified as levels of connectivity;
  • At least one inference rule implemented by the inference engine induces a level of 2k + 1 connectivity abstraction from a situation 2k abstraction level and / or a 2k + abstraction level. 2 of hypersituation from a level of abstraction 2k + 1 of connectivity;
  • the priority rule implemented by the resource allocation means is a function of the hierarchy of the segments of memory to be regenerated, of predefined parameters of the inference rules and of the interval separating the activation occurrences of the rules of inference;
  • the memory is connected to a mass storage space in which segments can be saved
  • the data extraction means choose singular situations, situations that have varied, and plausible forecast situations.
  • This innovative device opens up great prospects in many economic fields using tools of analysis, prediction and simulation. It is able to receive one or more situational flows as input, to extract situations from them, to distinguish the important elements and to continuously apply treatments to it, to detect phenomena and to foresee evolutions of solutions, in particular by induction.
  • this device is not constrained by a model or an architecture of impiementation, and therefore adapts permanently. It is able, like the human brain, to focus on the essentials by managing its resources. Finally, its possibilities appear much more universal than those of any current expert system, partitioned in a particular field.
  • the device according to the invention is asynchronous, non-deterministic, and proves neither connectionist nor computational since its power is both in its structure and its logic. It accepts sequential operation as parallel.
  • the present invention proposes a physical implementation of a situational analysis processor, namely an information processing system comprising at least one processing unit, at least one memory unit, a first interface with at least one stream. of incoming information and a second interface with at least one outgoing information flow, characterized in that it implements the architecture of the processing device according to the first aspect of the invention.
  • said processing unit comprises at least one core-core processor
  • said processing unit impales a neural network structure.
  • the present invention provides a computer program product comprising program code instructions which, when executed, implement the architecture of the device according to the first aspect of the invention.
  • FIG. 1 is a diagram of an embodiment of a device according to the invention.
  • FIG. 2 is a diagram of an advantageous embodiment of a situational memory used by the invention.
  • FIG. 3 is a diagram showing how the device according to the invention can integrate into a computing environment. DETAILED DESCRIPTION OF A PREFERRED EMBODIMENT
  • the basic unit in situational analysis is the situation. This can be more or less true (for "past” situations), more or less plausible (for "future” situations).
  • IDcolor (mouse, 001, black); black COLOR attribute
  • OBJ Object
  • HUM Human
  • Situations may not be coded in natural language to escape the ambiguities inherent in common vocabularies.
  • the syntax used to describe situations is arbitrary but must be adapted to computer tools.
  • the language chosen is a metaianguage, in particular the XML language (extensible markup language or Extensible Markup Language in English terminology).
  • the processing device 1 according to the invention is capable of working on the situations and situatrons described in this form.
  • the memory 10 is a situational memory, structured to retain the data necessary for the situational analysis. This memory 10 is organized in two spaces.
  • the first space contains the attributes of the stored data, that is to say directly situations, situatrons, or groups of situations or situatrons.
  • the second space contains links of connectivity between the stored data, that is to say the relations of connectivity between the situations and situatrons of the first space.
  • Connectivity links will be established when situatrons are present in common situations, or share common indices. Thus, in the previous example, being connected to a computer creates a connection link between different mice.
  • This second space is a dual space of the first, in fact it is a space of induced functions.
  • the situatrons, the attributes of a situatron and the links of connectedness are thus induced by observation and thus created as information is acquired or when unobserved situations are induced. may be deleted when they become obsolete, and may be changed if they evolve or become inaccurate. Their types are not predefined, and can adapt to any circumstance.
  • the memory 10 has a specific organization, an example of which is shown in FIG. 2. This organization follows one or more dimensions, each associated with attributes, and divided into one or more hierarchical segments. Each segment is characterized by one or more attribute values or ranges of particular attribute values. Data is populated by creating, deleting or modifying the attribute values characterizing these segments, which defines them a place in the memory 10.
  • these dimensions are three in the preferred embodiment. This results in an organization in the form of an assembly of cubes 101, each cube being characterized by a unique combination of one segment by dimension.
  • the first dimension is a temporal dimension, and makes it possible to date the storage of the data.
  • the date of the memorization of the data remains distinct from the date of the facts carried by the situation, the latter being able to be the object of one or several distinct attributes, but not related to those of the temporal dimension .
  • the segments of the temporal dimension correspond to periods. It extends on the X axis in Figure 2.
  • information about the battle of Marignan can be stored in memory as follows:
  • IDC country, 1000, "Italy”
  • Segment 5 - Faraway rest Then, on May 7, 2010, the situational scene on the Battle of Marignan, observed on April 30, 2010, will be in segment 4.
  • IDC name, army, "Swiss”
  • This new information is housed in Segment 2 and brings the event situation 1001 fully back to Segment 2.
  • the second dimension is an idiosyncratic dimension.
  • idiosyncratic we mean “who constitutes the specificity, the singularity of someone or something”.
  • This dimension is indeed related to the level of incidence, which generally encompasses any criterion making a remarkable data, and in particular the singularity or the relative specificity of the data.
  • an "orange mouse” will be a situation with a strong singularity in a universe where we usually observe white mice. This dimension extends on the Y axis in Figure 2.
  • the third dimension is a conceptual dimension. It associates with the data one or more attributes allowing to hierarchize the data according to levels of abstraction. Each level of abstraction defines a segment of the conceptual dimension, which is called an abstraction plane 100. These planes 100 extend over the Z axis and represent increasingly evolved forms of situational knowledge as they progress. as one gains the upper layers.
  • the duality of the memory is implemented in the form of an alternation of situations pics 100a and connectivity frames 100b: the set of even levels 100a is a partition of the situation space, and the set of odd levels 100b is a partition of the connectivity space,
  • Level 0 contains situations, situatrons and groups of situations and situatrons.
  • Level 1 contains relations of connectivity between situations and situatrons of the first level. Continuing the previous example, it will be for the first series of situations and situatrons, links of connectivity between: SourisOOl and ordiOOl; OrdiOOl and userOOl; UserOOl and mouseOOl (this last link being induced);
  • Level 2 contains hypersituations, hypersituations and hypersituations and hypersituations induced by an analysis of second level connectivity. From the connectivity link of the lower level, it is possible to induce a hypersituatron MOUSE or COMPUTER or
  • Level 3 hyperconnectivity which corresponds to the links of connectedness established between hypersituatrons and hypersituations of level 2;
  • the memory 10 is connected to a mass storage space 16 in which all or part of this memory can be saved.
  • a mass storage space 16 in which all or part of this memory can be saved.
  • memory cubes will be saved.
  • This interaction with a mass storage space is advantageously implemented in the form of a permutation ("swapping" in English terminology) by the skilled person. It allows you to work on several contexts from one to the other, or to work with situational memories larger than the addressability of the processor.
  • the device 1 comprises means 1 1 for integrating one or more incoming information flows.
  • These integration means 1 1 (or situational integrator) recognize in the information flow or flows of situations approaching the situations already present in the memory 10. New situations and new situations are produced from the flow data. These data are structured and their attributes defined in accordance with the organization of the memory 10.
  • the situational integrator could be a module that reads lists of computer mouse sales presented as XML feeds on the input ports. He interprets the flows and separates the information for:
  • the integrator advantageously loads the situations and situatrons them in:
  • the memory 10 contains data.
  • An inference engine 14 implements processes that will apply to all or part of the memory 10. These processes are loaded from a library 15 and are called inference rules 141. At each rule launch, a sequence comprising at least one segment of memory will be scanned, and the associated memory regenerated. By regenerate means here create, delete or modify at least one data item and / or at least one attribute value and / or at least one connectivity link in at least one space of the memory.
  • a treatment that can be performed by the inference engine 100 on an abstraction level 100 can be applied to levels of the same parity.
  • the rules of inference include all the treatments that may be interesting to apply.
  • the choice of these rules 141 depends on the desired effects, and is to the appreciation of the person skilled in the art according to the field of application for which the architecture is implemented.
  • Temporalization consists of dragging the situations and the situatrons concerned from one temporal segment to another.
  • the "reduction” consists of removing situational indices as they slide into segments of the past. This operation is based on the observed use of the indices.
  • - “Aggregation” consists of bringing together several situatrons that no longer need to be discerned into a single aggregate inheriting the main properties of the situatrons and replacing them with the aggregate whenever possible.
  • Prediction consists in applying situational phenomena to observed situations in order to predict future situations.
  • the "plausabiiisation” is to prefer in the situations envisaged those related to past situations that have been realized.
  • a rule is used to induce a level of 2k + 1 connectivity abstraction from a situation abstraction level 2k. and a rule making it possible to induce a level of 2k + 2 hypersituation abstraction from a level of 2k + 1 connectivity abstraction, that is, to generate a higher level from the previous one.
  • the new connectivity links can be deduced according to the rules of connectivity declared in the library, induced by the observation and generalization of past connections, statistics according to the connectivities distributed in situational memory, probabilistic on Bayesian subsets, genetic by mutation of previous connectivity circles, etc.
  • the second of these two rules is more simply a generalization of a group of situations and situatrons from a number of cases of connectivity greater or less depending on the level of importance.
  • Means 13 of resource allocation manage the distribution of processing times between different treatments. For this, they have a law of priority according to which they activate or deactivate the rules of inference. There must never be too many active rules at once, otherwise the capacity of the system will be exceeded.
  • the priority law allows both a spatial hierarchy of the memory cubes 101 to be processed, and a temporal hierarchy of the rules 141 to be launched.
  • this distribution is carried out according to a so-called "essentiality" criterion.
  • essentiality we calculate the criterion of essentiality for a rule and we launch the rule or rules for which it is maximum if they are not yet activated.
  • the criterion of essentiality on the memory cubes 101 is then calculated, the sequence is generated by sorting the segments according to a decreasing criticality, and the cubes are processed according to this rule. sequence, which stops when the rule is deactivated.
  • the essentiality of the memory cubes depends on predefined parameters inherent to the current rule. For example the larger groups of situations will be preferred for rules to establish connectivity links. In addition, advantageously, the most abstract, the most recent, and the most singular memory cubes will have the maximum essentiality, also by analogy with human reflection.
  • the essentiality of the rules also depends on predefined parameters ranking the rules, with equal context. But above all, the essentiality of a rule of inference depends on the interval separating its activation occurrences. The longer the rule has been inactive, the more its essentiality increases. This allows you to perform all kinds of treatment regularly.
  • the concentrator can be designed as a treatment stack in which the most essential treatments are at the top of the stack, the least essential at the bottom. The last treatment arrived is at the end of the stack with the essentiality of the "present" segment.
  • the concentrator scans the entire stack at a fixed frequency and recalculates each cycle the level of essentiality of the treatments according to different parameters. For example, the following parameters can be retained: - D: their waiting time. At each passage of the concentrator, D is incremented by a fixed amount, for example 0.25;
  • T the temporality of the associated memory cube. T takes a value representing the order of the temporal segment (from 1 to N, 1 characterizing the oldest segment)
  • I the incidence of the associated memory cube. I takes a value representing the order of the incidence segment (from 1 to N, 1 characterizing the segment of lesser incidence);
  • A the level of abstraction of the associated memory cube.
  • A takes a value representing the order of the level of abstraction (from 1 to N, 1 characterizing the lowest level).
  • each treatment can for example be defined as unique or permanent: a single treatment will come out of the stack when it is realized while a permanent treatment is placed at the tail of the stack and will be renewed. It can also be set as active or deferred: active processing is supported by the hub while delayed processing is waiting in the stack for its time, the hub ignoring delayed processing that has not completed. Permanent deferred processing can also be defined as to be launched on a fixed date or at a fixed frequency.
  • Developer Means 12 for extracting data make it possible to deliver an information flow by means of which the results of the numerous processing cycles carried out by the inference engine 14 can be collected on the memory 10.
  • the means 12 identify data within the memory 10 according to different non-exclusive principles of each other.
  • the targeted data can be defined according to attribute values, or their belonging to a related group.
  • the extraction means listen to one or more memory cubes.
  • the extraction criteria can also be predefined arbitrarily by programming.
  • the information flow composed by the data extraction means 12 is composed of:
  • the extraction means are able to select singular situations (new, abnormal) or situations that have varied (situational phenomena);
  • the invention proposes an information processing system.
  • This is a physical implementation of the architecture of the processing device 1 according to the first aspect of the invention.
  • This information processing system is for example in the form of a co-processor.
  • the processing system comprises a processing unit, dedicated to the execution of the rules of inference.
  • a processing unit dedicated to the execution of the rules of inference.
  • it is a microprocessor microprocessor. Indeed, as we saw the situation analysis allows the parallel processing of data, with the ability to simultaneously activate multiple rules.
  • this processing unit can implement a neural network around several "cells" elementary treatment. Such a network is particularly suitable for learning.
  • the processing system also comprises a memory unit, for example a random access memory of the RAM type. This is where the memory 10 of the situational architecture will be housed.
  • the system also comprises a mass memory 16, such as a hard drive, to perform the data swapping described previously.
  • Two interfaces are also necessary, one for the incoming information flow or flows to the integration means 11, and the other for the outgoing information flow (s) provided by the data extraction means (12). data.
  • a situational analysis co-processor can be purely logical, and emulated as a program of a workstation.
  • the invention relates to a computer program product comprising program code instructions which, when executed, implement the previously described situational analysis processor architecture.
  • the integration means 1 1 can be particularly adapted to the internet through which the data to be recovered are abundant. For example, data can be generated by browsing one or more customers in a store. It may be interesting to understand the situations in which they place themselves during a purchase, or precisely a non-purchase.
  • the results of the situational analysis obtained via the data extraction means 12 can be transmitted to the client himself, for example to help him to make his choice: if he looks for a computer mouse, the analysis of the situations of the previous buyers can allow him to determine a suitable product.
  • the data can of course also be transmitted and exploited by experts, especially alerts on abnormal situations.

Abstract

La présente invention concerne un dispositif de traitement de données caractérisé en ce qu'il comprend en combinaison: une mémoire (10) organisée d'une part en deux espaces, l'un contenant des attributs décrivant les données stockées, et l'autre contenant des liens de connexité entre les données stockées, et d'autre part suivant une ou plusieurs dimensions associées chacune à des attributs et divisées en un ou plusieurs segments hiérarchisés, les données étant renseignées en créant, supprimant ou modifiant des valeurs d'attributs caractérisant ces segments; des moyens (11) d'intégration d'un ou plusieurs flux entrants d'information qui analysent ces flux pour déterminer les données qui les composent et pour structurer ces données et leurs attributs conformément à l'organisation de ladite mémoire (10); un moteur (14) d'inférence mettant en œuvre en parallèle ou en série des règles (141) d'inférences regroupées dans des bibliothèques (15), lesdites règles (141) étant programmées pour régénérer une séquence comprenant au moins un segment de la mémoire, en créant, supprimant ou modifiant lors de leur mise en œuvre dans au moins un espace de la mémoire au moins une donnée et/ou au moins une valeur d'attribut et/ou au moins un lien de connexité, des moyens (13) d'allocation de ressources activant ou désactivant les règles (141) d'inférence en fonction d'une règle de priorité, des moyens (12) d'extraction de données, identifiées par programmation et/ou par au moins une valeur d'attribut choisie et/ou au moins un lien de connexité choisi; et/ou localisées dans un ou plusieurs segments choisi de la mémoire (10), vers un ou plusieurs flux sortants d'information. La présente invention concerne également un système de traitement d'informations et un produit programme d'ordinateur à ce sujet.

Description

Titre : Processeur d'analyse situationnelle
DOMAINE TECHNIQUE GENERAL La présente invention concerne un dispositif de traitement de données conçu pour la programmation de systèmes experts ou de systèmes d'intelligence artificielle simulant le raisonnement humain en pouvant mettre en œuvre des raisonnements par induction.
Plus précisément elle concerne un dispositif de traitement de données dédié notamment aux traitements statistiques, au forage de données ("datamining" dans la terminologie anglo-saxonne), à la conception d'outils d'aide à la décision, aux diagnostics, à la prévision ou à l'approximation, à la conception de simulateurs, de systèmes d'apprentissage automatique ou d'aide à l'apprentissage et d'une manière générale la conception de systèmes d'analyse de situations ou analyse situationnelle.
ETAT DE L'ART Les processeurs informatiques permettent depuis plus de 50 ans d'effectuer en des temps toujours plus courts des millions de calculs. Par leur puissance, ils sont de plus en plus utilisés comme outils d'analyse et de prédiction.
Cependant, l'architecture de traitement des données mise en œuvre par les processeurs présente des limitations et des contraintes. Un processeur prend en entrée des séquences de bits, les transforme à travers des séries de portes logiques, et en déduit une autre séquence de bits en sortie. C'est la série de portes logiques qui détermine le calcul qu'effectue le processeur. Cette série, prédéterminée dans le programme, dépend d'un modèle impiémenté par l'utilisateur selon les règles de la logique formelle, et basé sur des situations connues. Ces modèles peuvent prendre des formes extrêmement variées, depuis les modèles quantitatifs pour la finance de marché jusqu'aux modèles mécaniques pour l'ingénierie. Le principe z, généra! consiste à analyser des phénomènes réels pour prévoir des résultats à partir de l'application d'un ou plusieurs modèles à un niveau d'approximation donné.
A l'intérieur du modèle un processeur s'avère très performant, mais reste d'une part incapable de sortir des limites dudit modèle et demeure également nécessairement contraint par les limites inhérentes aux règles de la logique algorithmique. De plus, si le modèle présente des imperfections dès l'origine, celles-ci affecteront la qualité des résultats, voire la pertinence du modèle lui-même.
Une autre approche connue a consisté à développer des dispositifs de traitement de données à l'architecture inspirée de la structure physique du cerveau humain sous la forme de réseau de neurones artificiels. Ce type d'architecture, dont la fonction est déterminée par la structure du réseau, met en œuvre un processus d'apprentissage qui permet d'acquérir, de stocker et d'utiliser des connaissances en utilisant notamment le principe d'induction par inférence.
Différents types de réseau de neurones ont été développés qui se sont avérés pour certains plus efficaces que les architecture à processeur classique notamment dans le traitement des signaux et des informations (télécommunications, finances, météorologie), les traitements de nature statistique (marketing), le classement et la reconnaissance de forme
(imagerie, reconnaissance de caractères).
Ces architectures produisent cependant des résultats qui restent très dépendants d'une part de la structure du réseau (les types de réseaux différent selon leur topologie, les fonctions d'agrégation et/ou de seuillage utilisées) et d'autre part du modèle d'apprentissage choisi qui rend nécessaire une phase d'ajustement du réseau.
La présente invention propose un dispositif de traitement de données alternatif qui, à travers l'observation de situations, permet d'analyser des données, et de prédire d'autres situations, sans être dépendant d'un modèle ou d'une structure d'implémentation physique ou logique.
On entend ici par "situation" une information plus ou moins complexe et plus ou moins floue décrivant une action ou un état particulier. La situation est issue d'une observation par un être humain ou une machine et peut être autant réelle qu'imaginaire,
PRESENTATION DE L'INVENTION
La présente invention propose un dispositif de traitement de données, son architecture pouvant être physique ou logique et formant un processeur d'analyse situationneile.
Pour cela est proposé un dispositif de traitement de données caractérisé en ce qu'il comprend en combinaison :
- une mémoire organisée
d'une part en deux espaces, l'un contenant des attributs décrivant les données stockées, et l'autre contenant des liens de connexité entre les données stockées,
et d'autre part suivant une ou plusieurs dimensions associées chacune à des attributs et divisées en un ou plusieurs segments hiérarchisés, les données étant renseignées en créant, supprimant ou modifiant des valeurs d'attributs caractérisant ces segments ;
- des moyens d'intégration d'un ou plusieurs flux entrants d'information qui analysent ces flux pour déterminer les données qui les composent et pour structurer ces données et leurs attributs conformément à l'organisation de ladite mémoire ;
- un moteur d'inférence mettant en œuvre en parallèle ou en série des règles d'inférences regroupées dans des bibliothèques, lesdites règles étant programmées pour régénérer une séquence comprenant au moins un segment de la mémoire, en créant, supprimant ou modifiant lors de leur mise en œuvre dans au moins un espace de la mémoire au moins une donnée et/ou au moins une valeur d'attribut et/ou au moins un lien de connexité,
- des moyens d'allocation de ressources activant ou désactivant les règles d'inférence en fonction d'une règle de priorité,
- des moyens d'extraction de données, identifiées par programmation et/ou par au moins une valeur d'attribut choisie et/ou au moins un lien de connexité choisi ; et/ou localisées dans un ou plusieurs segments choisi de la mémoire, vers un ou plusieurs flux sortants d'information.
Selon d'autres caractéristiques avantageuses et non limitatives de l'invention :
- la mémoire est organisée en au moins trois dimensions, dont au moins une dimension temporelle associant aux données un ou plusieurs attributs permettant de dater la mémorisation des données, une dimension idiosyncratique associant aux données un ou plusieurs attributs permettant de déterminer la spécificité relative des données, une dimension conceptuelle associant aux données un ou plusieurs attributs permettant de hiérarchiser les données selon des niveaux d'abstraction ;
- le premier espace de la mémoire contenant des attributs des données est constitué par des niveaux pairs identifiés comme des niveaux de situations, et le second espace de la mémoire contenant des relations entre données est constitué par des niveaux impairs identifiés comme des niveaux de connexités ;
- au moins une règle d'inférence mise en œuvre par le moteur d'inférence induit un niveau d'abstraction 2k+1 de connexité à partir d'un niveau d'abstraction 2k de situation et/ou un niveau d'abstraction 2k+2 d'hypersituation à partir d'un niveau d'abstraction 2k+1 de connexité ;
- la règle de priorité mise en œuvre par les moyens d'allocation de ressource est fonction de la hiérarchie des segments de mémoire à régénérer, de paramètres prédéfinis des règles d'inférence et d'intervalle séparant les occurrences d'activation des règles d'inférence ;
- la mémoire est connectée à un espace de stockage de masse dans lequel des segments peuvent être sauvegardés ;
- les moyens d'extraction de données choisissent des situations singulières, des situations ayant varié, et des situations prévisionnelles plausibles.
Ce dispositif innovant ouvre de grandes perspectives dans de nombreux domaines économiques utilisant des outils d'analyse, de prédiction et de simulation. Il est capable de façon autonome de recevoir en entrée un ou plusieurs flux situationnels, d'en extraire des situations, de distinguer les éléments importants et de lui appliquer en continu des traitements, de détecter des phénomènes et de prévoir des évolutions de solutions, notamment par induction.
Les avantages sont multiples : ce dispositif n'est pas contraint par un modèle ou une architecture d'impiémentation, et s'adapte donc en permanence. Il est capable, à l'instar du cerveau humain, de se concentrer sur l'essentiel en gérant ses ressources. Enfin, ses possibilités apparaissent bien plus universelles que celles de n'importe quel système expert actuel, cloisonné dans un domaine particulier.
Le dispositif selon l'invention est asynchrone, non déterministe, et s'avère ni connexionniste ni computationniste puisque sa puissance est à la fois dans sa structure et sa logique. Il accepte un fonctionnement séquentiel comme parallèle.
La présente invention propose selon un deuxième aspect une implémentation physique de processeur d'analyse situationnelie, à savoir un système de traitement d'informations comprenant au moins une unité de traitement, au moins une unité de mémoire, une première interface avec au moins un flux d'information d'entrant et une deuxième interface avec au moins un flux d'informations sortant, caractérisée en ce qu'elle met en œuvre l'architecture du dispositif de traitement selon le premier aspect de l'invention.
Selon d'autres caractéristiques avantageuses et non limitatives de l'invention :
- ladite unité de traitement comprend au moins un processeur muiti-cœur ;
- ladite unité de traitement impiémente une structure de réseau neuronal.
La présente invention propose selon un troisième aspect un produit programme d'ordinateur comprenant des instructions de code de programme qui lorsqu'elles sont exécutées, mettent en œuvre l'architecture du dispositif selon le premier aspect de l'invention. BREVE DESCRIPTION DES FIGURES
D'autres caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description qui va suivre d'un mode de réalisation préférentiel. Cette description sera donnée en référence aux dessins annexés dans lesquels :
- la figure 1 est un schéma d'un mode de réalisation d'un dispositif selon l'invention;
- la figure 2 est un schéma d'un mode de réalisation avantageux d'une mémoire situationnelle utilisée par l'invention.
- La figure 3 est un schéma montrant comment le dispositif selon l'invention peut s'intégrer dans un environnement informatique. DESCRIPTION DETAILLEE D'UN MODE DE REALISATION PREFERE
Comme indiqué plus haut, l'unité élémentaire en analyse situationnelle est la situation. Celle-ci peut être plus ou moins vraie (pour les situations « passées »), plus ou moins plausible (pour les situations « futures »).
Les situations sont composées d'objets informatifs qui ont été nommés ici « situatrons ». Chaque situatron est une donnée manipulabie et peut être présent dans une ou plusieurs situations. Il est décrit par un ensemble d'attributs, les « indices », qui peuvent être plus ou moins précis ou cohérents. Ces attributs peuvent évoluer au cours du temps.
Ainsi, « Matthieu rédige une demande de brevet » est une situation. On peut décrire cette situation selon plusieurs points de vue et selon différents niveaux de détail. Ainsi « La souris noire de l'ordinateur de Matthieu » compose également une situation nous informant sur la situation générale. Dans cette situation, la souris noire, l'ordinateur, la demande de brevet et Matthieu sont des situatrons.
A un niveau de détail encore plus fin, le fait que la souris soit connectée à l'ordinateur et le fait que Matthieu possède cet ordinateur composent deux situations particulières à partir de ces mêmes situatrons. Les informations contenues dans ces situations peuvent être codées de la manière suivante : OBJ(sourisOOI ) ; situatron SOURIS
IDCicouleur, sourisOOl , noire) ; attribut COULEUR noire
OBJ(ordinateurOOI ) ; situatron ORDINATEUR
SIT(connecté, sourisOOl , ordinateurOOl ) ; situation SOURIS connectée à i'ORDINATEUR
HUM(userOOI ) ; situatron UTILISATEUR
IDG(prenom, userOOl , Matthieu) ; attribut PRENOM Matthieu
SIT(utiliser, ordinateurOOl , userOOl ) ; situation l'UTILISATEUR Matthieu utilise I'ORDINATEUR Dans cet exemple il a été choisi de manière arbitraire que les codes
OBJ (Objet) et HUM (Humain) identifient des situatrons, en permettant la distinction entre objets et personnes. Le code IDC (Indice) permet d'associer un attribut à un situatron et le code SIT (Situation) de décrire une situation composée à partir des situatrons précédemment définis. L'invention n'est toutefois pas limitée à cette syntaxe en particulier, et l'homme du métier saura l'adapter, notamment en introduisant d'autres codes, par exemple SPA (espace) qui désignerait un lieu.
Les situations peuvent ainsi ne pas être codées en langage naturel pour échapper aux ambiguïtés inhérentes aux vocabulaires courants. La syntaxe utilisée pour décrire les situations est arbitraire mais doit être adaptée aux outils informatiques. Avantageusement, le langage choisi est un métaiangage, en particulier le langage XML (langage extensible de balisage ou Extensible Markup Language dans la terminologie anglo- saxonne).
Le dispositif 1 de traitement selon l'invention est capable de travailler sur les situations et les situatrons décrits sous cette forme.
Ce qui va suivre est une description avantageuse d'un mode de réalisation de ce dispositif 1 , en référence au schéma représenté figure 1 . Il comprend une mémoire organisée 10, des moyens 1 1 d'intégration d'un flux entrant d'information, un moteur d'inférence 14, des moyens 13 d'allocation de ressources, des moyens 12 d'extraction de données vers un flux sortant d'information,
Mémoire
La mémoire 10 est une mémoire situationnelle, structurée pour conserver les données nécessaires à l'analyse situationnelle. Cette mémoire 10 s'organise en deux espaces. Le premier espace contient les attributs des données stockées, c'est-à-dire directement des situations, des situatrons, ou des groupes de situations ou situatrons. Le second espace contient des liens de connexité entre les données stockées, c'est-à-dire les relations de connexité entre les situations et situatrons du premier espace.
Les liens de connexités seront établis dès lors que des situatrons seront présents dans des situations communes, ou partagent des indices communs. Ainsi, dans l'exemple précédent, le fait d'être connecté à un ordinateur créé un lien de connexité entre différentes souris.
Ce deuxième espace est un espace dual du premier, en effet c'est un espace de fonctions induit.
Les situatrons, les attributs d'un situatron et les liens de connexités sont donc induits de l'observation et créés ainsi au fur et à mesure que l'on acquiert de l'information ou que l'on induit des situations non observées, ils peuvent être supprimés quand ils deviennent obsolètes, et ils peuvent être modifiés s'ils évoluent ou s'ils s'avèrent inexacts. Leurs types ne sont pas prédéfinis, et peuvent s'adapter à toute circonstance.
La mémoire 10 possède une organisation spécifique, dont un exemple est représenté sur la figure 2. Cette organisation suit une ou plusieurs dimensions, associées chacune à des attributs, et divisées en un ou plusieurs segments hiérarchisés. Chaque segment est caractérisé par une ou plusieurs valeurs d'attribut ou plages de valeurs d'attributs particulières. Les données sont renseignées en créant, supprimant ou modifiant les valeurs d'attributs caractérisant ces segments, ce qui leur définit une place dans la mémoire 10.
En particulier, ces dimensions sont au nombre de trois dans le mode de réalisation préféré. Cela entraîne une organisation sous forme d'un assemblage de cubes 101 , chaque cube étant caractérisé par une combinaison unique d'un segment par dimension.
- la première dimension est une dimension temporelle, et permet de dater la mémorisation des données. La date de la mémorisation de la donnée (date d'observation) reste distincte de la date des faits portés par la situation, cette dernière pouvant faire l'objet d'un ou plusieurs attributs distincts, mais sans lien avec ceux de la dimension temporelle. Les segments de la dimension temporelle correspondent à des périodes. Elle s'étend sur l'axe X dans la figure 2.
Ainsi par exemple, les informations concernant la bataille de Marignan pourront être stockées dans la mémoire de la manière suivant :
OBS(30 avril 2010) ; date de l'observation
S ÎT(rem porter une victoire, roi001 , evenementOOl , Iieu001 ) ; situation de combat
HUM(roi001 ) ; situatron acteur
!DC(nom, roiOO « François 1 er ») ; indice associé au situatron
EVT(evenementOOI ) ; situatron événement
IDCititre, evenementOOl , « bataille de Marignan ») ; indice associé au situatron
IDCidate, evenementOOl , 1515) ; indice associé au situatron
SPA(iieu001 ) ; situatron de lieu
IDC(pays, Iieu001 , « Italie ») ; indice associé au situatron
Dans cet exemple on peut établir une segmentation temporelle de la mémoire en définissant les périodes suivante :
Segment 1 - Futur = tout ce qui est à venir
Segment 2 - Présent - dernières 24h Segment 3 - Passé proche = 3 jours précédents
Segment 4 - Passé intermédiaire = dans le mois
Segment 5 - Passé lointain = reste Alors, à la date du 7 mai 2010, la scène situationnelle sur la bataille de Marignan, observée le 30 avril 2010, se retrouvera dans le segment 4.
Si le même jour (7 mai 2010) des informations sur Marignan sont introduites qui précisent que les Suisses ont été vaincus lors de cette bataille le 13 septembre, elles pourront elles-mêmes être stockées de la manière suivante :
OBS(7 mai 2010) ;
SITYperdre une bataille, armeeOQI , evenementOOl ) ;
GRP(armeeOOI ) ;
IDC(nom, armeeOOl , « Suisses ») ;
IDC(date, evenementOOl , 13 septembre 1515) ; modification de l'indice
Ces nouvelles informations se logent dans le segment 2 et font remonter intégralement le situatron evenementOOl dans le segment 2.
Le découpage de la mémoire en segments temporels permet ainsi de conserver une image « historique » de chaque situation qui peut se représenter, dans notre exemple de Marignan, de la manière suivante :
Segment 2 :
SIT(perdre une bataille, armeeOOl , evenementOOl )
GRP(armeeûÛI )
IDC(nom, armeeOOl , « Suisses »)
EVT(evenement0Q1 )
IDC(titre, evenementOOl , « bataille de Marignan »)
IDC(date, evenementOOl , 13 septembre 1515)
Segment 4 :
SIT(remporter une victoire, roi001 , evenementOOl , Iieu001 ) HUM(roi001 )
!DC(nom, roiQO « François I er »)
SPA(iieuOOI )
IDCipays, Iieu001 , « Italie »)
- la seconde dimension est une dimension idiosyncratique. Par « idiosyncratique », on signifie « qui constitue la spécificité, la singularité de quelqu'un ou quelque chose ». Cette dimension est en effet liée au niveau d'incidence, qui englobe de façon générale tout critère rendant une donnée remarquable, et en particulier la singularité ou la spécificité relative des données. Pour revenir à notre exemple des souris, une « souris orange » sera un situatron avec une forte singularité dans un univers où l'on observe généralement des souris blanches. Cette dimension s'étend sur l'axe Y dans la figure 2.
- la troisième dimension est une dimension conceptuelle. Elle associe aux données un ou plusieurs attributs permettant de hiérarchiser les données selon des niveaux d'abstraction. Chaque niveau d'abstraction définit un segment de la dimension conceptuelle, qu'on appelle un plan d'abstraction 100. Ces plans 100 s'étendent sur l'axe Z et représentent des formes de plus en plus évoluées de connaissance situationnelle au fur et à mesure que l'on gagne les couches supérieures. Avantageusement, la dualité de la mémoire est implémentée sous la forme d'une alternance de pians de situations 100a et de pians de connexité 100b : l'ensemble des niveaux pairs 100a est une partition de l'espace de situations, et l'ensemble des niveaux impairs 100b est une partition de l'espace de connexité,
* Le niveau 0 contient des situations, des situatrons et des groupes de situations et de situatrons. Exemple : 2 souris noires souris001 et souris002 ; 2 ordinateurs ordi001 et ordi002 ; 2 utilisateurs user001 et user002 ; 2 situations « connecté » ; 2 situations « utiliser » ;
* Le niveau 1 contient des relations de connexité entre les situations et les situatrons du premier niveau. En continuant l'exemple précédent il s'agira, pour la première série de situations et de situatrons, des liens de connexité entre : SourisOOl et ordiOOl ; OrdiOOl et userOOl ; UserOOl et sourisOOl (ce dernier lien étant induit) ;
* Le niveau 2 contient des hypersituations, des hypersituatrons et des groupes d'hypersituations et hypersituatrons induits par une analyse des connexités du second niveau. A partir du lien de connexité du niveau inférieur, on peut induire un hypersituatron SOURIS ou ORDINATEUR ou
UTILISATEUR, ainsi que des hypersituations CONNECTE et UTILISER, Au niveau des hypersituatrons on peut donc, par exemple, CONNECTER la SOURIS à ^ORDINATEUR et UTILISER l'ORDINATEUR par l'UTILISATEUR. ;
* Le niveau 3 l'hyperconnexité qui correspond aux liens de connexités établis entre les hypersituatrons et les hypersituations du niveau 2 ;
* Et ainsi de suite ...
Avantageusement, la mémoire 10 est connectée à un espace de stockage de masse 16 dans lequel tout ou partie de cette mémoire peut être sauvegardés. Par exemple, dans le mode de réalisation préférée dans lequel la mémoire est organisée selon trois dimensions sous forme d'un assemblage de cube, ce sont des cubes mémoire qui seront sauvegardés. Cette interaction avec un espace de stockage de masse est avantageusement mise en oeuvre sous forme d'une permutation (« swapping » en terminologie anglo-saxonne) par l'homme du métier. Elle permet de travailler à la fois sur plusieurs contextes en passant de l'un à l'autre, ou encore de travailler avec des mémoires situationnelles de taille plus importante que celle de la capacité d'adressage du processeur.
Intégrateur
Le dispositif 1 comprend des moyens 1 1 d'intégration d'un ou plusieurs flux entrants d'information. Ces moyens 1 1 d'intégration (ou intégrateur situationnel) reconnaissent dans le ou les flux d'information des situations se rapprochant des situations déjà présentes dans la mémoire 10. De nouvelles situations et nouveaux situations sont produits à partir des données des flux. Ces données sont structurées et leurs attributs définis conformément à l'organisation de la mémoire 10.
Pour prendre un exemple, l'intégrateur situationnel pourrait être un module qui lit des listes de ventes de souris d'ordinateurs présentées sous forme de flux XML sur les ports d'entrée. Il interprète les flux et sépare les informations pour :
* Placer les situations et les situatrons dans la mémoire 10 ; * Placer les instructions dans le concentrateur de traitement 13.
Dans le cas d'un mode de réalisation dans lequel la mémoire est divisée en plusieurs dimensions et segments, l'intégrateur charge avantageusement les situations et les situatrons dans :
* Le segment de temporalité contenant la date courante (« Présent ») ;
* Le segment idiosyncratique de niveau d'incidence le plus fort ;
* Le segment d'abstraction déterminé selon le paramétrage de l'intégrateur ; Moteur d'inférence
Grâce aux moyens 1 1 d'intégration, la mémoire 10 contient des données. Un moteur 14 d'inférence met en œuvre des traitements qui vont s'appliquer à tout ou partie de la mémoire 10. Ces traitements sont chargés depuis une bibliothèque 15 et sont appelés règles 141 d'inférence. A chaque lancement de règles, une séquence comprenant au moins un segment de mémoire va être balayée, et la mémoire associée régénérée. Par régénérer, on entend ici créer, supprimer ou modifier au moins une donnée et/ou au moins une valeur d'attribut et/ou au moins un lien de connexité dans au moins un espace de la mémoire. En particulier, dans le mode de réalisation préféré décrit ici, un traitement effectuable par le moteur 14 d'inférence sur un niveau d'abstraction 100 peut s'appliquer aux niveaux de même parité.
Toutefois tout système informatique dispose d'une capacité finie, et l'application récursive des traitements prendrait rapidement un temps exponentiel. C'est pourquoi chaque traitement ne concerne en général qu'une partie de la mémoire 10. Des segments sont traités en priorité, puis d'autres suivant la séquence décrite précédemment, avant qu'un autre traitement ne devienne plus prioritaire (voir « concentrateur » plus bas). Les traitements peuvent d'ailleurs être exécutés en série comme en parallèle.
Les règles 141 d'inférence englobent tous les traitements qu'il peut être intéressant d'appliquer. Le choix de ces règles 141 dépend des effets recherchés, et est à l'appréciation de l'homme du métier en fonction du domaine d'application pour lequel l'architecture est mise en œuvre.
Les exemples suivants de règles 141 possibles peuvent être cités : - L'« unification » consiste à reconnaître dans un situatron récent un situatron plus ancien ou dans une situation une situation déjà connue et effectuer la substitution et le cas échéant le complément d'information par fusion des éléments.
- La « temporalisation » consiste à glisser les situations et les situatrons concernés d'un segment temporel vers un autre.
- La « réduction » consiste à supprimer des indices de situatrons au fur et a mesure qu'ils glissent dans des segments de passé. Cette opération repose sur l'usage constaté des indices.
- La « banalisation » consiste à glisser des situatrons et des situations entre les niveaux d'importance. Le glissement peut être des deux sens selon que la chose devient banale ou que son importance se renforce compte tenu des évolutions des autres situations.
- L' « agrégation » consiste à rassembler plusieurs situatrons ne nécessitant plus d'être discernés en un agrégat unique héritant des propriétés principales des situatrons et de les remplacer par l'agrégat chaque fois que cela est possible. - La « prédiction » consiste à appliquer des phénomènes situationnels sur des situations constatées afin de prévoir les situations à venir.
- La « réalisation » consiste à trouver dans le présent des situations répondant aux prévisions effectuées et de les rapprocher.
- La « plausabiiisation » consiste à préférer dans les situations prévues celles connexes à des situations passées ayant été réalisées.
En particulier, dans le cas d'un mode de réalisation avec des couches d'abstraction alternées, on utilise une règle permettant d'induire un niveau d'abstraction 2k+1 de connexité à partir d'un niveau d'abstraction 2k de situation et une règle permettant d'induire un niveau d'abstraction 2k+2 d'hypersituation à partir d'un niveau d'abstraction 2k+1 de connexité, c'est- à-dire de générer un niveau supérieur à partir du précédent.
Pour la première de ces deux règles, de nombreuses possibilités existent notamment : les nouveaux liens de connexité peuvent être déduits selon des règles de connexité déclarées dans la bibliothèque, induits de l'observation et de la généralisation de connexités du passé, statistiques selon les connexités distribuées dans la mémoire situationnelle, probabilistes sur des sous ensembles bayesiens, génétiques par mutation des cercles de connexité antérieurs, etc.
La seconde de ces deux règles consiste plus simplement en une généralisation d'un groupe de situations et situatrons à partir d'un nombre de cas de connexités plus ou moins grand en fonction du niveau d'importance.
Concentrateur
Des moyens 13 d'allocation de ressources (ou concentrateur) gèrent la répartition des temps de traitement entre les différents traitements. Pour cela, ils disposent d'une loi de priorité selon laquelle ils activent ou désactivent les règles 141 d'inférence. Il ne doit jamais y avoir trop de règles actives à la fois, sous peine de dépasser la capacité du système. La loi de priorité permet à la fois une hiérarchie spatiale des cubes mémoire 101 à traiter, et une hiérarchie temporelle des règles 141 à lancer.
Dans un cas comme dans l'autre, de nombreux paramètres sont pris en compte. Avantageusement, cette répartition s'effectue selon un critère dit « d'essentialité ». A tout instant, on calcule le critère d'essentiaiité pour une règle et on lance la ou les règles pour lesquelles il est maximal si elles ne sont pas encore activées. En cas de lancement d'une règle, on calcule alors le critère d'essentialité sur les cubes mémoire 101 (à traiter par ladite règle), on génère la séquence en triant les segments selon une essentialité décroissante, et on traite les cubes selon cette séquence, celle-ci s'interrompant en cas de désactivation de la règle.
Tout d'abord, l'essentialité des cubes mémoire dépend de paramètres prédéfinis inhérents à la règle en cours. Par exemple les plus grands groupes de situations seront préférés pour des règles visant à établir des liens de connexité. En outre, avantageusement, les cubes de mémoire les plus abstraits, les plus récents, et les plus singuliers auront l'essentialité maximale, également par analogie avec la réflexion humaine.
Ensuite, l'essentialité des règles dépend également de paramètres prédéfinis hiérarchisant les règles, à contexte égal. Mais surtout l'essentialité d'une règle 141 d'inférence dépend de l'intervalle séparant ses occurrences d'activation. Plus la règle est inactive depuis longtemps, plus son essentialité augmente. Cela permet d'effectuer régulièrement toutes les sortes de traitement.
Dans un mode de réalisation préférentiel on peut concevoir le concentrateur comme une pile de traitements dans laquelle les traitements les plus essentiels se situent en haut de la pile, les moins essentiels en bas. Le dernier traitement arrivé se place en fin de pile avec l'essentialité du segment « présent ».
Dans ce mode, le concentrateur balaye selon une fréquence fixe toute la pile et recalcule à chaque cycle le niveau d'essentialité des traitements en fonction de différents paramètres. Les paramètres suivants peuvent par exemple être retenus : - D : leur délai d'attente. A chaque passage du concentrateur, D est incrémenté d'une quantité fixe, par exemple 0,25 ;
- T : la temporalité du cube de mémoire associé. T prend une valeur représentant l'ordre du segment de temporalité (de 1 à N, 1 caractérisant le segment le plus ancien)
- I : l'incidence du cube de mémoire associé. I prend une valeur représentant l'ordre du segment d'incidence (de 1 à N, 1 caractérisant le segment de moindre incidence) ;
- A : le niveau d'abstraction du cube de mémoire associé. A prend une valeur représentant l'ordre du niveau d'abstraction (de 1 à N, 1 caractérisant le niveau le plus bas).
L'essentiaiité E peut alors avantageusement être représentée par la formule suivante : E = D + I + T + A. ou par toute autre formule du type E- f(D, I, T, A), notamment E = d*D + i*l + t*T + a*A avec (d, i, t, a) des coefficients adaptés.
L'invention n'est toutefois limitée ni à un mode de calcul spécifique de l'essentiaiité, ni à une liste prédéfinie de paramètres. En outre, dans le mode de réalisation décrit, les traitements peuvent être caractérisés afin de contrôler leur mode d'exécution par le concentrateur. Ainsi, chaque traitement peut par exemple être défini comme unique ou comme permanent : un traitement unique sortira de la pile lorsqu'il sera réalisé alors qu'un traitement permanent réalisé se replace en queue de pile et sera reconduit. Il peut également être défini comme actif ou comme différé : un traitement actif est pris en charge par le concentrateur alors qu'un traitement différé patiente dans la pile en attendant son heure, le concentrateur ignorant les traitements différés qui ne sont pas arrivés à terme. Un traitement différé permanent peut également être défini comme devant être lancé à date fixe ou selon une fréquence fixe.
Révélateur Des moyens 12 d'extraction de données (ou révélateur) permettent de délivrer un flux informatif grâce auquel l'on pourra collecter les résultats des nombreux cycles de traitement effectués par le moteur 14 d'inférence sur la mémoire 10, Les moyens 12 identifient des données à l'intérieur de la mémoire 10 selon différents principes non exclusifs les uns des autres. Ainsi les données ciblées peuvent être définies selon des valeurs d'attribut, ou leur appartenance à un groupe connexe. D'un autre coté, c'est leur place dans la mémoire qui peut être importante, dans ce cas les moyens 12 d'extraction écoutent un plusieurs cubes mémoire. Les critères d'extraction peuvent également être prédéfinis arbitrairement par programmation.
Avantageusement, le flux informatif composé par les moyens 12 d'extraction de données est composé:
- d'une part d'alertes : dans ce cas les moyens d'extraction sont aptes à sélectionner des situations singulières (nouvelles, anormales) ou des situations ayant varié (phénomènes situationnels) ;
- et d'autre part de mises en situations : Ces dernières correspondent à des situations prévisionnelles prédites et présentes dans les cubes mémoire des segments à venir et plausibles.
Processeur physique d'analyse situationnelle
L'invention propose selon un second aspect un système de traitement de l'information. Il s'agit d'une implémentation physique de l'architecture du dispositif 1 de traitement selon le premier aspect de l'invention. Ce système de traitement de l'information est par exemple sous la forme d'un co-processeur.
Le système de traitement comprend une unité de traitement, dédiée à l'exécution des règles 141 d'inférence. Avantageusement c'est un co- processeur muiticoeur. En effet, comme on a vu l'analyse situationnelle permet le traitement parallèle des données, avec la possibilité d'activer simultanément plusieurs règles. Alternativement, cette unité de traitement peut implémenter un réseau neuronal autour de plusieurs « cellules » élémentaires de traitement. Un tel réseau est particulièrement adapté à l'apprentissage.
Le système de traitement comprend également une unité de mémoire, par exemple une mémoire vive de type RAM, C'est là que sera hébergée la mémoire 10 de l'architecture situationnelle, Optionnellement, le système comprend également une mémoire de masse 16, tel un disque dur, pour pouvoir effectuer la permutation de données décrite précédemment.
Deux interfaces sont aussi nécessaire, l'une pour le ou les flux entrants d'information à destination des moyens 1 1 d'intégration, et l'autre pour le ou les flux sortants d'information fournis par les moyens 12 d'extraction de données.
Outre cette implémentation physique, un co-processeur d'analyse situationnelle peut être purement logique, et être émulé en tant que programme d'un poste de travail. Dans ce dernier cas, l'invention concerne un produit programme d'ordinateur comprenant des instructions de code de programme qui lorsqu'elles sont exécutées, mettent en œuvre l'architecture de processeur d'analyse situationnel précédemment décrit.
Environnement du processeur d'analyse situationnel
Qu'elle soit physique ou logique, l'architecture du dispositif 1 de traitement de données par analyse situationnelle s'intègre facilement à d'autres architectures pour réaliser des outils performants, comme le montre la figure 3, Les moyens 1 1 d'intégration d'information peuvent s'adapter tout particulièrement à internet à travers lequel les données à récupérer sont abondantes. Par exemple, les données peuvent être générées par le parcours d'un ou plusieurs clients dans un magasin. Il peut être intéressant de comprendre les situations dans lesquels ils se placent lors d'un achat, ou justement d'un non-achat.
Les résultats de l'analyse situationnels, obtenus via les moyens 12 d'extraction de données peuvent être transmis au client lui- même, par exemple pour l'aider à faire son choix : s'il cherche une souris d'ordinateur, l'analyse des situations des précédents acheteurs peut lui permettre de déterminer un produit qui iui conviendra. Les données peuvent aussi bien entendu être transmises et exploitées par des experts, en particulier les alertes sur des situations anormales.
Les applications de l'analyse situationnelles s'avèrent toutefois extrêmement vastes, notamment dans le monde de l'internet.

Claims

REVENDICATIONS
1. Dispositif (1 ) de traitement de données caractérisé en ce qu'il comprend en combinaison :
- une mémoire (10) organisée
d'une part en deux espaces, l'un contenant des attributs décrivant les données stockées, et l'autre contenant des liens de connexité entre les données stockées,
et d'autre part suivant une ou plusieurs dimensions associées chacune à des attributs et divisées en un ou plusieurs segments hiérarchisés, les données étant renseignées en créant, supprimant ou modifiant des valeurs d'attributs caractérisant ces segments ;
- des moyens (1 1 ) d'intégration d'un ou plusieurs flux entrants d'information qui analysent ces flux pour déterminer les données qui les composent et pour structurer ces données et leurs attributs conformément à l'organisation de ladite mémoire (10) ;
- un moteur (14) d'inférence mettant en œuvre en parallèle ou en série des règles (141 ) d'inférences regroupées dans des bibliothèques (15), lesdites règles (141 ) étant programmées pour régénérer une séquence comprenant au moins un segment de la mémoire, en créant, supprimant ou modifiant lors de leur mise en uvre dans au moins un espace de la mémoire au moins une donnée et/ou au moins une valeur d'attribut et/ou au moins un lien de connexité,
- des moyens (13) d'allocation de ressources activant ou désactivant les règles (141 ) d'inférence en fonction d'une règle de priorité,
- des moyens (12) d'extraction de données, identifiées par programmation et/ou par au moins une valeur d'attribut choisie et/ou au moins un lien de connexité choisi ; et/ou localisées dans un ou plusieurs segments choisi de la mémoire (10), vers un ou plusieurs flux sortants d'information.
2. Dispositif selon la revendication précédente, caractérisé en ce que la mémoire (10) est organisée en au moins trois dimensions, dont au moins une dimension temporelle associant aux données un ou plusieurs attributs permettant de dater la mémorisation des données, une dimension idiosyncratique associant aux données un ou plusieurs attributs permettant de déterminer la spécificité relative des données, une dimension conceptuelle associant aux données un ou plusieurs attributs permettant de hiérarchiser les données selon des niveaux d'abstraction (100).
3. Dispositif selon la revendication précédente, caractérisé en ce le premier espace de la mémoire contenant des attnbuts des données est constitué par des niveaux pairs (100a) identifiés comme des niveaux de situations, et le second espace de la mémoire contenant des relations entre données est constitué par des niveaux impairs (100b) identifiés comme des niveaux de connexités.
4. Dispositif selon la revendication précédente, caractérisée en ce qu'au moins une règle d'inférence mise en œuvre par le moteur d'inférence induit un niveau d'abstraction 2k+1 de connexité à partir d'un niveau d'abstraction 2k de situation et/ou un niveau d'abstraction 2k+2 d'hypersituation à partir d'un niveau d'abstraction 2k+1 de connexité.
5. Dispositif selon l'une des revendications précédentes, caractérisé en ce que la règle de priorité mise en œuvre par les moyens (13) d'allocation de ressource est fonction de la hiérarchie des segments de mémoire à régénérer, de paramètres prédéfinis des règles (141 ) d'inférence et d'intervalle séparant les occurrences d'activation des règles (141 ) d'inférence.
6. Dispositif selon l'une des revendications précédentes, caractérisé en ce que la mémoire est connectée à un espace de stockage de masse dans lequel des segments peuvent être sauvegardés.
7. Dispositif selon l'une des revendications précédentes, caractérisé en ce que les moyens (12) d'extraction de données choisissent des situations singulières, des situations ayant varié, et des situations prévisionnelles plausibles,
8. Système de traitement d'informations comprenant au moins une unité de traitement, au moins une unité de mémoire, une première interface avec au moins un flux d'information d'entrant et une deuxième interface avec au moins un flux d'informations sortant, caractérisée en ce qu'elle met en œuvre l'architecture du dispositif de traitement selon l'une des revendications précédentes.
9. Système selon la revendication précédente, caractérisée en ce que ladite unité de traitement comprend au moins un processeur multi- cœur.
10. Système selon l'une des revendications 8 ou 9, caractérisée en ce que ladite unité de traitement implémente une structure de réseau neuronal.
11. Produit programme d'ordinateur comprenant des instructions de code de programme qui lorsqu'elles sont exécutées, mettent en œuvre l'architecture du dispositif selon l'une des revendications 1 à 7.
PCT/EP2011/061910 2010-07-13 2011-07-13 Processeur d'analyse situationnelle WO2012007489A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180044029.4A CN103262103B (zh) 2010-07-13 2011-07-13 用于情景分析的处理器
US13/809,564 US9349097B2 (en) 2010-07-13 2011-07-13 Processor for situational analysis
EP11730694.4A EP2593909A1 (fr) 2010-07-13 2011-07-13 Processeur d'analyse situationnelle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1055703 2010-07-13
FR1055703A FR2962823B1 (fr) 2010-07-13 2010-07-13 Processeur d'analyse situationnelle

Publications (1)

Publication Number Publication Date
WO2012007489A1 true WO2012007489A1 (fr) 2012-01-19

Family

ID=43532608

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/061910 WO2012007489A1 (fr) 2010-07-13 2011-07-13 Processeur d'analyse situationnelle

Country Status (5)

Country Link
US (1) US9349097B2 (fr)
EP (1) EP2593909A1 (fr)
CN (1) CN103262103B (fr)
FR (1) FR2962823B1 (fr)
WO (1) WO2012007489A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020122A1 (fr) * 2012-08-01 2014-02-06 Netwave Système de traitement de données de connexion à une plateforme d'un site internet

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2994296B1 (fr) 2012-08-01 2015-06-19 Netwave Procede de traitement de donnees pour analyse situationnelle
FR2994297B1 (fr) 2012-08-01 2015-06-19 Netwave Procede de traitement de donnees de connexion d'une plateforme d'un site internet
JP6105903B2 (ja) * 2012-11-09 2017-03-29 キヤノン株式会社 画像処理装置、画像処理方法、放射線撮影システム及びプログラム
CN107067134A (zh) * 2016-12-21 2017-08-18 全球能源互联网研究院 一种情景序列构建方法及装置
CN107578102A (zh) * 2017-07-21 2018-01-12 韩永刚 一种类神经节点信息处理方法及智能设备
CN110046715A (zh) * 2019-04-24 2019-07-23 戴文跃 一种线索集成系统基础构成
CN110825462A (zh) * 2019-09-23 2020-02-21 苏州车付通信息科技有限公司 智能逻辑分析系统
CN112217697A (zh) * 2020-09-24 2021-01-12 复旦大学 一种物联网设备智能控制系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
EP1855238A1 (fr) * 2006-05-04 2007-11-14 Sap Ag Systèmes et procédés de traitement de données auto-ID

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243529A1 (en) * 1996-03-25 2004-12-02 Stoneman Martin L. Machine computational-processing systems for simulated-humanoid autonomous decision systems
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
US7016877B1 (en) * 2000-08-04 2006-03-21 Enfotrust Networks, Inc. Consumer-controlled limited and constrained access to a centrally stored information account
FR2850512B1 (fr) * 2003-01-28 2005-03-11 Medialive Procede et systeme automatiques et adaptatifs d'analyse et d'embrouillage pour des flux video numeriques
JP4038501B2 (ja) * 2003-09-02 2008-01-30 株式会社東芝 逆モデル計算装置及び逆モデル計算方法
US7668824B2 (en) * 2004-03-01 2010-02-23 Denso Corporation Interface device, inferring system, and visual expression method
US7290238B2 (en) * 2004-05-12 2007-10-30 International Business Machines Corporation Method, system and program product for building an automated datapath system generating tool
CA2564746A1 (fr) * 2005-10-21 2007-04-21 James J. Kinard Methode et appareil pour enseigner une pensee mathematique rigoureuse
US20070192267A1 (en) * 2006-02-10 2007-08-16 Numenta, Inc. Architecture of a hierarchical temporal memory based system
US8126685B2 (en) * 2006-04-12 2012-02-28 Edsa Micro Corporation Automatic real-time optimization and intelligent control of electrical power distribution and transmission systems
FI20070159A0 (fi) * 2007-02-23 2007-02-23 Teknillinen Korkeakoulu Menetelmä informaation integrointiin, valintaan ja esityksen oppimiseen
EP2162853A1 (fr) * 2007-06-29 2010-03-17 Numenta, Inc. Système de mémoire temporelle hiérarchique avec capacité d'inférence améliorée
US20090150907A1 (en) * 2007-12-07 2009-06-11 Microsoft Corporation Mapping between disparate data models via anonymous functions
AU2009217184B2 (en) * 2008-02-20 2015-03-19 Digital Medical Experts Inc. Expert system for determining patient treatment response
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US20100235803A1 (en) * 2009-03-16 2010-09-16 Lara Gramark Method and Apparatus for Automatically Connecting Component Interfaces in a Model Description
US20120137367A1 (en) * 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
EP1855238A1 (fr) * 2006-05-04 2007-11-14 Sap Ag Systèmes et procédés de traitement de données auto-ID

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Oracle Database Data Warehousing Guide 10g Release 2, PASSAGE", ORACLE DATABASE DATA WAREHOUSING GUIDE 10G RELEASE 1 (10.2), ORACLE, REDWOOD CITY, CA, USA, no. PART NO. B14223-02, 31 December 2005 (2005-12-31), pages 20-1 - 20-36, XP002621587 *
FERDINANDO CAMPANILE ET AL: "Adaptable Parsing of Real-Time Data Streams", PARALLEL, DISTRIBUTED AND NETWORK-BASED PROCESSING, 2007. PDP '07 . 15TH EUROMICRO INTERNATIONAL CONFERENCE ON, IEEE, PI, 1 February 2007 (2007-02-01), pages 412 - 418, XP031064189, ISBN: 978-0-7695-2784-0 *
JIM GRAY ET AL: "Data Cube: A Relational Aggregation Operator Generalizing Group-By, Cross-Tab, and Sub-Totals", JOURNAL OF DATA MINING AND KNOWLEDGE DISCOVERY, NORWELL, MA, US, 1 January 1997 (1997-01-01), pages 29 - 53, XP002901286, ISSN: 1384-5810 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020122A1 (fr) * 2012-08-01 2014-02-06 Netwave Système de traitement de données de connexion à une plateforme d'un site internet
FR2994358A1 (fr) * 2012-08-01 2014-02-07 Netwave Systeme de traitement de donnees de connexion a une plateforme d'un site internet

Also Published As

Publication number Publication date
US9349097B2 (en) 2016-05-24
FR2962823B1 (fr) 2012-08-17
CN103262103B (zh) 2016-05-04
US20130179389A1 (en) 2013-07-11
FR2962823A1 (fr) 2012-01-20
CN103262103A (zh) 2013-08-21
EP2593909A1 (fr) 2013-05-22

Similar Documents

Publication Publication Date Title
WO2012007489A1 (fr) Processeur d'analyse situationnelle
Pierson Data science for dummies
Beer The data gaze: Capitalism, power and perception
Yudkowsky Intelligence explosion microeconomics
Bernico Deep Learning Quick Reference: Useful hacks for training and optimizing deep neural networks with TensorFlow and Keras
WO2016087555A1 (fr) Système de simulation, dispositifs, méthodes et programmes correspondants
Klaas Machine learning for finance: principles and practice for financial insiders
EP3213267A1 (fr) Architecture logicielle pour systeme expert
Laborde Learning TensorFlow. js
WO2005081141A2 (fr) Dispositif de simulation du monde réel par traitement asynchrone et chaotique
WO1995008154A1 (fr) Procede de demonstration automatique
Sobrecueva Automated Machine Learning with AutoKeras: Deep learning made accessible for everyone with just few lines of coding
Ulhaq On Deep Research Problems in Deep Learning
Cole Deep Learning with C#,. Net and Kelp. Net: The Ultimate Kelp. Net Deep Learning Guide
FR3097069A1 (fr) Systeme et procede de selection d'action automatisee, mise en oeuvre de ces systeme et procede pour entrainer des machines de prediction et favoriser l'evolution de dispositifs a auto-apprentissage
EP2880557B1 (fr) Procédé de traitement de données de connexion d'une plateforme d'un site internet
Abdulkareem et al. Using ANN to predict gender-based violence in iraq: how AI and data mining technologies revolutionized social networks to make a safer world
US20210056440A1 (en) Synthetic genius machine and knowledge creation system
Destercke Uncertainty representation and combination: new results with application to nuclear safety issues
Vissamsetty Mosquito Image Classification using Convolutional Neural Networks
Swann Being Toward 2048: The Future Troubles of Dasein and Why Existential Phenomenological Psychotherapy Will be Important: Parts I and II.
WO2022090883A1 (fr) Procede d'annotation de donnees d'entrainement
Hao Empirically Validating the Threshold Distribution Assumption in Complex Contagion
Magnaudet et al. What epistemological framework for a science of human-machine interaction?
EP2880558B1 (fr) Procédé de traitement de données pour analyse situationnelle

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180044029.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11730694

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011730694

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13809564

Country of ref document: US