EP3662392A1 - Computer system for displaying the logistical path of entities over time - Google Patents

Computer system for displaying the logistical path of entities over time

Info

Publication number
EP3662392A1
EP3662392A1 EP18762370.7A EP18762370A EP3662392A1 EP 3662392 A1 EP3662392 A1 EP 3662392A1 EP 18762370 A EP18762370 A EP 18762370A EP 3662392 A1 EP3662392 A1 EP 3662392A1
Authority
EP
European Patent Office
Prior art keywords
user
data
server
processing
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18762370.7A
Other languages
German (de)
French (fr)
Inventor
Frédéric Bertrand
Fabien Simon
François ROSSET
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Your Data Consulting
Original Assignee
Your Data Consulting
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR1757550A external-priority patent/FR3069934B1/en
Priority claimed from FR1851477A external-priority patent/FR3078185A1/en
Application filed by Your Data Consulting filed Critical Your Data Consulting
Publication of EP3662392A1 publication Critical patent/EP3662392A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management

Definitions

  • the present invention relates to the field of automatic process analysis by the processing of raw data consisting of a collection of descriptive information of isolated tasks, to calculate recurring sequences, and to provide graphical representations and predictive treatments.
  • the prior art is known from US patent application US2017068705 describing a computer-implemented method for analyzing process data.
  • the method includes receiving an Advanced Process Algebra Execution (APE) instruction, wherein the APE instruction defines a request for process instances from the storage means, and wherein the APE instruction comprises at least one operator. process and executing the APE instruction and reading the Instances process according to the APE instruction from the storage means, and providing the result of the query for further processing.
  • APE Advanced Process Algebra Execution
  • This article is about a comparative analysis of predictive business process monitoring methods that exploit the logs of the completed tasks of a process, in order to calculate predictions about the execution cases of these processes. Prediction methods are tailor-made for specific prediction tasks. The article considers that the accuracy of prediction methods is very sensitive to the available data set, forcing users to perform trial and error and adjust them when applying them in a specific context.
  • This paper studies short-term memory neural networks (LSTMs) as an approach to building accurate models for a wide range of predictive process monitoring tasks. It shows that LSTMs outperform existing techniques in predicting the next event of a current case and its timestamp. Next, we show how to use models to predict the next task to predict the full suite of a current case.
  • LSTMs short-term memory neural networks
  • the TensorFlow article is also known: A System for
  • US Patent Application US 2014214745 is still known describing a method for monitoring one or more update messages sent and received among the components of the distributed network system, the update messages including information associated with a state. of an object on the distributed network describe the state of
  • the object to provide a predictive object state model and predict the occurrence of an artifact in response to the state of
  • the solutions of the prior art are not adapted to the management of several sites, to provide for each site not only predictive information, but also a parameterizable graphical representation of the routes from predictive estimators common to all sites and based on common learning data.
  • the transposition to such a path visualization application for a plurality of sites would require very long computation times for analyzing the data from a large number of data.
  • the number of possible combinatorics may require several tens of hours of computation on a standard calculator.
  • analytical solutions proposed in the prior art do not allow the use of additional data to those of the process and require to recalculate from the totality of the data, without it being possible to update the result incrementally.
  • these analytical solutions only allow the use of data that have no missing values in both the process data and the additional process data.
  • the invention aims to remedy its disadvantages by a computer system that allows a large number of users to access complex models, obtained by deep learning algorithms, from simple connected equipment.
  • the invention relates, according to its most general meaning, to a computer system for viewing routes from the processing of at least one series of input data comprising a list of tasks stamped with the identifier of an object. , the identifier of an action and a temporal information, said system comprising connected "user" computer equipment executing a viewing application and at least one server remote executing an application for calculating a path model from said tables,
  • an administration server comprising means of managing a plurality of user accounts and recording, in the account of each user, tables coming from the user as well as data relating to the specific configuration of the user; the user and the result of the processing performed on a shared computing server
  • At least one shared computing server comprising a graphics processor GPU for executing a deep learning application from the data associated with a user and constructing a digital model then recorded in the user's account on at least one of said administration or calculation servers
  • the equipment of the user executing an application for controlling the calculation, on one of said computing servers, of an analytic or predictive state for the retrieval and visualization of the data corresponding to the result of this calculation on the interface of the user equipment.
  • the computer system further comprises at least one CPU for distributing the computing load between a plurality of shared computing servers.
  • it comprises means for anonymizing the identifiers of the objects and / or the identifiers of the actions of each user, and recording in an encrypted form on the user's account means for converting the anonymized data, the data processed by the computing server (s) consisting exclusively of anonymised data.
  • said encryption is performed by a hash function.
  • a hash function Detailed description of a non-limiting example of
  • FIG. 1 represents a simplified schematic view of the hardware architecture of the system according to the invention
  • FIG. 2 represents a schematic view of the functional architecture of the data preparation.
  • FIG. 3 represents a schematic view of the functional architecture of the data exploitation
  • FIG. 4 represents a schematic view of a first example of a neural network for learning
  • FIG. 5 represents a schematic view of a second example of a neural network for learning
  • FIG. 6 represents a schematic view of a calculation server
  • FIG. 7 represents a detailed schematic view of the hardware architecture of the system according to the invention.
  • FIG. 8 represents a schematic view of a picking warehouse for the implementation of the invention.
  • the system for implementing the invention comprises three main types of resources:
  • server is meant a single computer machine, or a group of computer machines, or a virtual server ("cloud” in English).
  • Connected Equipment Connected equipment (1 to 3) is typically standard equipment such as a cell phone, tablet or computer connected to a computer network, including the Internet.
  • the invention does not require any hardware modification of the connected equipment (1 to 3). Access to services is realized:
  • the invention makes it possible to manage a plurality of users, from one or more shared management servers and from one or more shared calculation servers.
  • Figure 2 shows a schematic view of the functional architecture.
  • the first step is to create an account on the administration server (100).
  • the creation of the account (10) can be done by the administrator director, who then provides the access information to the user, including an identifier and a password and a link to the application or the web page access to the service.
  • the creation of the account (10) can also be achieved by the opening of a session between a connected equipment (1) and the administration server (100), by a session to create an identifier associated with a password .
  • An account can be associated with a plurality of routes, accessible by the same identifier.
  • the creation of a new account (10) also controls the allocation of a specific storage space (50) assigned to the identifier corresponding to the account.
  • the storage space (50) assigned to an identifier is private and inaccessible to other users.
  • this storage space (50) is secure and accessible only by the user having the associated account, excluding access by a third party, including by an administrator.
  • a setting is also made allowing or prohibiting certain features or preferences of the user (for example message language, or displaying a logo or customizing the user interfaces).
  • the identification may be purely declarative, or associated with a secure procedure for example by double or triple identification.
  • the next step (11) consists in creating a configuration digital file (51) of a path resulting in a name, parameters defining the structure of the tables that will be transmitted, for example:
  • the next step (12) is to save in the dedicated storage space (50) a digital data file (52) comprising a series of time-stamped digital records.
  • This recording can be made by transfer from the connected equipment (1), or by a designation the computer address where the data considered for an import is stored via a secure session controlled by the administration server (100).
  • This functionality is performed via a connector between the user's account in the connected equipment (1) and the user's account on the administration server (100), as well as a third application.
  • the input data includes directly transmitted input data (53) or data (54) stored on a remote resource to which the administration server (100) can connect.
  • They consist of time stamped records, for example a table whose structure is for example of the following type:
  • the records may further include additional information or data in the form of strings, names, numeric values or time values such as:
  • This data can be provided by an automatic processing using sensors on a site, or a log file, or the output of an ERP software, or by a manual entry and more generally by any automatic or manual collection system timestamped data relating to events.
  • the data (54) can also be derived from connected systems, from the analysis of the signals exchanged during a communication protocol, for example from the IMSI identifier in a GSM communication protocol, or the unique identifiers of connected objects transported in the LORA type communication protocol.
  • the input data consists of:
  • the step (12) comprises adapting the format of the input data (53, 54) according to the configuration of the configuration file (51), and recording the input data (53) in the converted form ( 55) on the administration server (100), the input data (54) being kept in the original form on the original resource, to enable on-the-fly conversion in the subsequent learning steps.
  • the adaptation consists of standardizing the data structure and eventually converting the format of the dates into a standardized format.
  • the conversion mode is saved to allow processing of the transmitted data later.
  • a detailed path configuration step (13) is then performed by analyzing the converted input files (54, 55) to establish a list (56) of the events identified in the converted input data (54, 55). ).
  • This list (56) can be associated with additional information such as the origin of the event, for example "internal” or “external” or scheduling of events according to a preferred sequence.
  • This list (56) is also stored in the storage space of the client in question, in the configuration file (51) of the course.
  • This solution makes it possible to automate the addition of the additional information (57) to the converted data (54, 55) to record a rich file (60) in the configuration file (51) and to enrich the file on the fly. (54) according to the above addition procedure.
  • the on-the-fly conversion and enrichment alternative makes it possible to implement the invention in real time, whereas the alternative of recording converted and enriched files on the administration server makes it possible to carry out an analysis in deferred time, especially for uses where the input data is refreshed in deferred time.
  • the steps (12) and / or (14) may further comprise an anonymization treatment consisting, for example, in hashing the identifier of each event, and in masking the name of the event, for example by substituting a random title at each event.
  • Figure 3 shows a schematic view of the functional architecture of data mining and model generation.
  • the data thus prepared are used, either in real time or offline, to optionally digital model (73) operated as a computer code (80).
  • the first step (70) of this operation consists in calculating the graph of the courses according to the recordings (54, 55). This calculation is carried out by identifying, for each individual, transitions between two events according to the information timestamp.
  • the result is recorded as a numerical oriented graph (71) whose vertices correspond to the events, and the edges correspond to the transitions with the indication of the direction of travel.
  • This digital graph (71) is stored in the storage space associated with the account, and the configuration file (51) is modified to take into account the information relating to the calculation of a new graph.
  • the use of a server dedicated to the calculation allows the administration server to order the solicitation of the calculation server optimally, and save the digital graphs in the user accounts asynchronously. In this case, it notifies the user of the availability of the digital graph after finalizing the processing.
  • the processing can also provide quality indicators of the obtained digital graph.
  • the digital graph (71) is used during the visualization step (72) in relation to the configuration file (51) containing the list of events (56) and the files (54, 55) as well as the data file (59, 60) to provide data for an application graphic hosted on the administration server (100) for access in web mode via a browser, or an application executed on the terminal (1 to 3) of the user, to provide a visual representation.
  • This visual representation represents the flows as a function of the digital graph (71), with parameterization means such as filtering or addition of statistical information (for example thickness of the features depending on the number of occurrences), and extracting patterns corresponding to typical paths.
  • processing also makes it possible to extract information on individuals and their paths to export them in the form of a digital table after filtering the courses as well as certain numerical or graphical summaries.
  • the processing can also generate an alert in the form of an automatically generated message, for example in the form of an email or SMS .
  • the user orders the creation of a model exploiting all the historical data (54, 55) and the enriched data (59, 60).
  • This processing is very heavy, this processing is not performed on the administration server (100) nor on the connected equipment (1 to 3) but on a dedicated server (200) having at least one graphics card .
  • This server (200) is shared for all users.
  • the treatment is based on deep learning solutions with a LSTM (long / short term memory) two-level neuron network or recurrent neural networks.
  • LSTM long / short term memory
  • They are dynamic systems consisting of interconnected units (neurons) interacting nonlinearly, and where there is at least one cycle in the structure.
  • the units are connected by arches (synapses) that have a weight.
  • the output of a neuron is a nonlinear combination of its inputs.
  • Their behavior can be studied with the theory of bifurcations, but the complexity of this study increases very rapidly with the number of neurons.
  • the treatment is divided into two stages:
  • Figure 4 shows a schematic view of a first example of a neural network for learning.
  • the learning implements four distinct LSTM neuron networks (long / short term memory), depending on the nature of the data to be processed.
  • the first network consists of two layers and applies more particularly to situations where the input data comprise only one temporal information corresponding to the beginning of each event and if the amount of additional data is limited.
  • the first input layer (400) of 100 neurons is common to both networks (410, 420) of the next layer; it performs data training to provide weighted data to the second layer which consists of two sets (410, 420) of 100 neurons each.
  • the first set (410) is specialized for the prediction of the following events. It provides a quality indicator corresponding to the probability of the predicted event.
  • the second set (420) is specialized for predicting the beginning of the next event.
  • Figure 5 shows a schematic view of a second example of a neural network for learning.
  • the second network is constituted by two LSTM (long / short term memory) type layers, and is more particularly applicable to situations where the input data comprise two temporal information corresponding to the beginning and the end of each event, respectively. amount of additional data is important.
  • the first input layer (500) of 100 neurons is common to the four networks (510, 520, 530, 540) of the next layer; it performs data learning to provide weighted data to the second layer which consists of four sets (510, 520, 530, 540) of 100 neurons each.
  • the first set (510) is specialized for the prediction of the following events. It provides a quality indicator corresponding to the probability of the predicted event.
  • the second set (520) is specialized for predicting the end of the current event.
  • the third set (530) is specialized for predicting the beginning of the next event.
  • the fourth set (540) is specialized for predicting the end of the next event.
  • the predictive model is calculated using the KERAS (commercial name) library intended to interface with the TENSORFLOW (trade name) library written in Python (business name) language, allowing the use of graphic cards. for performing the calculations. Exploitation of the predictive model
  • the user controls a query with parameters that determine an existing or virtual starting point in a process.
  • the starting point is represented by a partial course, for example the current course of an individual or a typical partial course or of a particular interest.
  • the processing is iterated recursively, to obtain the complete path and if necessary the total duration and the moment of each new event.
  • the processing is executed on a computer (200) comprising graphic cards.
  • This communication is carried out according to a protocol of the REST API type (commercial name).
  • Figure 6 shows a schematic view of a calculation server.
  • the computing server (200) has a hardware architecture comprising a plurality of processing units or processing cores, or multi-cores (called architectures multi-cores "in English terminology), and / or multi-nodes.
  • Multi-core Central Processing Unit (CPU) CPUs or Graphics Processing Unit (GPU) graphics cards are examples of such hardware architectures.
  • a GPU graphics card includes a large number of computing processors, typically hundreds, the term "many-cores" architecture or massively parallel architecture is then used. Initially dedicated to calculations related to the processing of graphic data, stored in the form of tables of two or three-dimensional pixels, GPU graphics cards are currently used more generally for any type of scientific computation requiring a large computing power and a processing parallel data.
  • OpenMP Open Multi-Processing
  • OpenCL Open Computing Language
  • CUDA Computer Unified Device Architecture
  • the server (200) includes a server machine (201) and a set of four computing devices (202-205).
  • the server machine (201) is adapted to receive the execution instructions and to distribute the execution on the set of computing devices (202-205).
  • GPU graphics cards for example NVIDIA Geforce GTX 1070 cards (trade name).
  • the computing devices (202 to 205) are either physically inside the server machine (201), or inside other machines, or computing nodes, accessible either directly or via a communications network.
  • the computing devices (202 to 205) are adapted to implement executable tasks transmitted by the server machine (201).
  • Each computing device (202 to 205) comprises one or more calculation units (206 to 208).
  • Each computing unit (206 to 208) comprises a plurality of processing units (209 to 210), or processing cores, in a typical "multi-core" architecture of 1920 cores.
  • the server machine (201) comprises at least one processor and a memory capable of storing data and instructions.
  • server machine (201) is adapted to execute a computer program having code instructions implementing a proposed parallel data processing optimization method.
  • a program implementing the proposed parallel data processing optimization method is encoded into a software programming language known as the Python (Business Name) language.
  • Python Software Name
  • a particularly suitable programming language is the TENSORFLOW library (trade name) which can be interfaced with the CUDA language (trade name) and the cuDNN library (trade name).
  • FIG. 7 represents a detailed schematic view of the hardware architecture of the system according to the invention.
  • the system comprises several servers that are common to all users, namely an administration server (100), a graphics card computing server (200) and possibly a data acquisition server (300).
  • an administration server 100
  • a graphics card computing server 200
  • possibly a data acquisition server 300
  • each user accesses the system via a connected equipment (1 to 3) communicating with the servers (100, 200, 300) referred to above.
  • the administration server (100) manages the accounts and the storage spaces of each of the users, as well as the alert sending application.
  • Each user has dedicated storage space for recording:
  • the administration server (100) also comprises a memory for the registration of the computer code of the application controlling the execution either on the local computer or on a remote virtual machine, the generation of the digital graph.
  • the administration server (100) comprises means for the establishment of a secure tunnel with the calculation server (200) for the data exchange necessary for calculating a numerical graph or a predictive model and more usually the data exchanges with the different computing resources.
  • the connected equipment (1 to 3) executes an application (600) directly or via a browser.
  • This application (600) does not perform any storage on the connected equipment (1 to 3), all the data being stored on the administration server (200). This allows access by the user via any connected equipment (1 to 3), and to secure the sensitive data by avoiding permanent recording on unsecured equipment (1 to 3).
  • This application (600) communicates with the administration server (100) for:
  • the application (600) communicates with the calculation server (200) to retrieve on the fly on the connected equipment (1 to 3) the result of the prediction calculation (next event, travel time, etc.) and transmit the piloting instructions for calculating the prediction model.
  • the input data can be constituted by the data coming from connected objects, for example the cell phones of passers-by in a public space, for example an airport or train station hall, a commercial center, a urban site, or supermarket or hospital.
  • the data is picked up by beacons receiving the service signals, by extracting the technical data transported by the communication protocol, for example the IMSI identifier, the time stamp and the signal power.
  • the system according to the invention makes it possible to automate the analysis of displacements and to make displacement flow predictions.
  • the analyzed identifier is for example the Mac address for WIFI or LoraWan type communications.
  • the following description relates to a particular variant, implementing a predictive model which, unlike some known predictive models, is not limited to situations where the intermediate steps are constant, with linear evolution laws, which does not does not correspond to reality, but is adapted to an order picking system comprising a plurality of intermediate positions, with sometimes complex pathways of the articles between the stock and the order shipping station
  • Figure 8 shows an example of organizing a warehouse for the preparation of orders for items, from a limited number of references (a few tens to a few hundred, for a large number orders (tens of thousands), each order containing a few articles or dozens of articles, corresponding to some references, and some articles by references.
  • the order orders (“pursue order" in English) arrive at stream of water with a distribution having one or more maximum and significant variability.
  • the shipment of prepared orders is carried out in batches, for example to allow the grouping of orders according to the useful volume of the carrier. These groupings are organized in parallel, for example for the loading of several zones or dozens of zones, each corresponding to a delivery sector.
  • the general problem is optimizing the organization of the warehouse and the resources allocated to reduce the delay between the arrival of the orders and the loading for the shipment of the orders prepared and regrouped, and to reduce the points of sale. accumulation, even though the forecast data are imperfect.
  • FIG. 8 shows a processing zone for order and order preparation orders.
  • This zone comprises a technical room (101) constituting a control station with an operator and a computer (102) connected to the information system of the article supplier.
  • the commands are received on the computer (102) connected to a printer (103) for printing, upon receipt of each command order, a form comprising:
  • cards (14) are deposited in a bunch of X series, for example by series of 100 cards.
  • the installation also comprises a plurality of preparation stations (106 to 108).
  • Each preparation station (106 to 108) has N cabinets (61 to 62; 71 to 73; 81 to 82) loaded with a stock of part of the available references. Thus, all the references are distributed over the N preparation positions, under form subsets of references, each preparation station (106 to 108) having L p intermediate storage cabinets of a given article reference.
  • each preparation preparation station (106 to 108) is associated one or more reloading stations (106 to 108) of the cabinets.
  • a recharging station (116 to 118) can be associated with several preparation stations.
  • the operator of the preparation station takes a sheet, identifies the articles relating to it, and extracts from the corresponding cabinets the articles referred to, for the quantities mentioned on the sheet and deposit them in a carton (120) associated with a given card.
  • This carton (20) is then moved on conveyor belt (21) to the next preparation station, then sent to one or more palletizing stations (130) where are grouped several cartons for the same delivery area and the same carrier .
  • each of the boxes receives the references of a single preparation station (106 to 108).
  • the pallets are then transported by mobile carriages (31, 32) to the loading area in trucks (33).
  • the routing of the commands, from the order of order to the loading area, is modeled as a graph.
  • the arcs connecting two vertices correspond to real transitions between two vertices, in accordance with the usual formalism of the generalized stochastic Petri nets.
  • probabilistic laws can be determined either from historical data or fixed by an operator, based on expert data or simulation assumptions.
  • the modeling includes an estimate of the distribution (40) of the orders of orders during the day, according to the historical data or according to expert data or simulation hypotheses.
  • Treatment according to the invention is then carried out by a probabilistic calculation of the propagation of orders of orders arriving at the water level at the control station (101), to represent the evolution of the various nodes during the day. , the occupancy rate of each of the nodes and the travel time of each of the command orders.
  • This simulation can be performed by a tool such as the software Cosmos (commercial name) which is a "statistical model checker” published by the Netherlands Normale Su Southerneure of Cachan. Its input formalism is stochastic Petri nets and evaluates formulas of quantitative HASL logic. This logic, based on the linear hybrid automata, makes it possible to describe complex performance indices relating to the execution paths accepted by the automaton. This tool thus provides a way to unify performance evaluation and verification in a very general framework.
  • This cumulative time is calculated using the stochastic logic with hybrid automaton (HASL) applied to the aforementioned modeling system.
  • the result provided by the tool Cosmos (trade name) is a data file describing the evolution in time of the graph, and in particular the temporal evolution of the number of orders in the queue of each of the stations. This calculation can be visualized by a curve represented in FIG.
  • FIG. 10 represents an example of representation of the average value of the cumulative processing time (curve 50) and 99% confidence intervals (curve 51, 52).
  • the overall objective of the invention is to optimize the physical organization of a control processing warehouse in order to anticipate situations preventing the respect of constraints relating to the processing time of the control commands of which only approximate the future flow and in particular to change the allocation of future resources optimally, in near real time.
  • the historical data is recorded in the form of time-stamped log files, from the data provided by each of the workstations.
  • This information may optionally include operators' identifiers in order to improve the relevance of the simulations by taking into account the operators present on each workstation and to optimize the composition of the teams according to the objectives targeted.
  • the invention makes it possible to carry out treatments without requiring data collection means on each of the workstations.
  • the invention is applicable to organizations based on manual operators using paper cards, on stations without equipment for capturing information and / or traceability in real time. Treatment of missing data
  • an auto-encoder or auto-associator
  • An auto-encoder is an artificial neural network used for unsupervised learning of discriminant characteristics.
  • the goal of an auto-encoder is to learn a representation (encoding) of a set of data, usually in order to reduce the size of this set.
  • the concept of auto-encoder is used for the learning of generative models.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention concerns a computer system for displaying paths based on the processing of at least one series of input data comprising a list of time-stamped tasks comprising the identifier of an object, the identifier of an action and a piece of time information, said system comprising a piece of connected "user" computer equipment executing a display application and at least one remote server executing an application for calculating a path model from said tables.

Description

SYSTEME INFORMATIQUE POUR LA VISUALISATION DE PARCOURS  COMPUTER SYSTEM FOR VISUALIZATION OF COURSE
LOGISTIQUE D'ENTITES DANS LE TEMPS  LOGISTICS OF ENTITIES IN TIME
Domaine de 1 ' invention Field of the invention
La présente invention concerne le domaine de l'analyse automatique de processus par le traitement de données brutes constituées par une collection d'informations descriptives de tâches isolées, pour calculer des enchaînements récurrents, et fournir des représentations graphiques et des traitements prédictifs. The present invention relates to the field of automatic process analysis by the processing of raw data consisting of a collection of descriptive information of isolated tasks, to calculate recurring sequences, and to provide graphical representations and predictive treatments.
Etat de la technique State of the art
On connaît dans l'état de la technique la demande de brevet américain US2017068705 décrivant une méthode mise en œuvre par ordinateur pour l'analyse des données de processus. Le procédé comprend la réception d'une instruction APE (Advanced Process Algebra Execution), dans laquelle l'instruction APE définit une requête d'instances de processus à partir des moyens de stockage, et dans lequel l'instruction APE comprend au moins un opérateur de processus et l'exécution de l'instruction APE et la lecture du processus Instances selon l'instruction APE à partir des moyens de stockage, et fournissant le résultat de la requête pour un traitement ultérieur. The prior art is known from US patent application US2017068705 describing a computer-implemented method for analyzing process data. The method includes receiving an Advanced Process Algebra Execution (APE) instruction, wherein the APE instruction defines a request for process instances from the storage means, and wherein the APE instruction comprises at least one operator. process and executing the APE instruction and reading the Instances process according to the APE instruction from the storage means, and providing the result of the query for further processing.
On connaît aussi le compte-rendu du colloque International Conférence on Advanced Information Systems Engineering (CAiSE) 2017 « Prédictive Business Process Monitoring with LSTM Neural Networks », auteurs Niek Tax, Ilya Verenich, Marcello La Rosa, Marlon Dumas.  We also know the report of the conference International Conference on Advanced Information Systems Engineering (CAiSE) 2017 "Predictive Business Process Monitoring with LSTM Neural Networks", authors Niek Tax, Ilya Verenich, Marcello La Rosa, Marlon Dumas.
Cet article concerne une analyse comparative de méthodes de surveillance des processus métier prédictifs exploitant les journaux des tâches achevées d'un processus, afin de calculer des prédictions sur les cas d'exécution de ceux-ci. Les méthodes de prédiction sont appliquées sur mesure pour des tâches de prédiction spécifiques. L'article considère que la précision des méthodes de prédiction est très sensible à l'ensemble de données disponible, ce qui oblige les utilisateurs à procéder à des essais et erreurs et à les ajuster lorsqu'ils les appliquent dans un contexte spécifique. Cet article étudie les réseaux de neurones à mémoire à court terme (LSTM) comme une approche pour construire des modèles précis pour une large gamme de tâches de surveillance de processus prédictifs. Il montre que les LSTM surpassent les techniques existantes pour prédire l'événement suivant d'un cas en cours et son horodatage. Ensuite, nous montrons comment utiliser des modèles pour prédire la tâche suivante afin de prédire la suite complète d'un cas en cours. This article is about a comparative analysis of predictive business process monitoring methods that exploit the logs of the completed tasks of a process, in order to calculate predictions about the execution cases of these processes. Prediction methods are tailor-made for specific prediction tasks. The article considers that the accuracy of prediction methods is very sensitive to the available data set, forcing users to perform trial and error and adjust them when applying them in a specific context. This paper studies short-term memory neural networks (LSTMs) as an approach to building accurate models for a wide range of predictive process monitoring tasks. It shows that LSTMs outperform existing techniques in predicting the next event of a current case and its timestamp. Next, we show how to use models to predict the next task to predict the full suite of a current case.
On connaît aussi l'article TensorFlow: A System for The TensorFlow article is also known: A System for
Large-Scale Machine Learning USENIX Large-Scale Machine Learning USENIX
https : //www.usenix.Q.rq/confe.rence/osdi.l8/technical ... /abadi de M Abadi, Paul Barham, et al. XP061025043. https: //www.usenix.Q.rq/confe.rence/osdi.l8/technical ... / abadi by M Abadi, Paul Barham, et al. XP061025043.
On connaît encore la demande de brevet américaine US 2014214745 décrivant un procédé de surveillance d'un ou plusieurs messages de mise à jour envoyés et reçus parmi les composants du système de réseau distribué, les messages de mise à jour comprenant des informations associées à un état d'un objet sur le réseau distribué décrivent l'état de  US Patent Application US 2014214745 is still known describing a method for monitoring one or more update messages sent and received among the components of the distributed network system, the update messages including information associated with a state. of an object on the distributed network describe the state of
l'objet, pour fournir un modèle d'état d'objet prédictif et prédire l'occurrence d'un artefact en réponse à l'état de the object, to provide a predictive object state model and predict the occurrence of an artifact in response to the state of
1 ' objet . 1. Object .
Inconvénients de l'art antérieur Disadvantages of prior art
Les solutions de l'art antérieur ne sont pas adaptées à la gestion de plusieurs sites, pour fournir pour chaque site non seulement des informations prédictives, mais aussi une représentation graphique paramétrable des parcours à partir d'estimateurs prédictifs communs à l'ensemble des sites et basés sur des données d'apprentissages communes. De plus, la transposition à une telle application de visualisation de parcours pour une pluralité de site nécessiterait des temps de calcul très longs pour l'analyse des données à partir d'un grand nombre de données. Typiquement, pour des fichiers d'entrée de plusieurs téraoctets, le nombre de combinatoires possibles peut nécessiter plusieurs dizaines d'heures de calcul sur un calculateur standard. The solutions of the prior art are not adapted to the management of several sites, to provide for each site not only predictive information, but also a parameterizable graphical representation of the routes from predictive estimators common to all sites and based on common learning data. In addition, the transposition to such a path visualization application for a plurality of sites would require very long computation times for analyzing the data from a large number of data. Typically, for input files of several terabytes, the number of possible combinatorics may require several tens of hours of computation on a standard calculator.
Les solutions de l'art antérieur nécessitent donc des équipements de calcul surdimensionnés pour permettre à l'utilisateur de procéder aux traitements requis.  The solutions of the prior art therefore require oversized computing equipment to allow the user to proceed with the required processing.
Par ailleurs, les solutions analytiques proposées dans l'art antérieur ne permettent pas l'utilisation de données additionnelles à celles du processus et nécessitent de recalculer à partir de la totalité des données, sans qu'il ne soit possible de mettre à jour le résultat de manière incrémental. De plus, ces solutions analytiques ne permettent d'utiliser que des données qui ne présentent aucune valeur manquante aussi bien dans les données du processus que dans les données additionnelles au processus.  Furthermore, the analytical solutions proposed in the prior art do not allow the use of additional data to those of the process and require to recalculate from the totality of the data, without it being possible to update the result incrementally. In addition, these analytical solutions only allow the use of data that have no missing values in both the process data and the additional process data.
Solution apportée par l'invention Solution provided by the invention
L'invention vise à remédier à ses inconvénients par un système informatique permettant à un grand nombre d'utilisateurs d'accéder à des modèles complexes, obtenus par des algorithmes d'apprentissage profond, à partir d'équipements connectés simples. The invention aims to remedy its disadvantages by a computer system that allows a large number of users to access complex models, obtained by deep learning algorithms, from simple connected equipment.
A cet effet l'invention concerne selon son acception la plus générale un système informatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées comportant une liste de tâches horodatées comprenant l'identifiant d'un objet, l'identifiant d'une action et une information temporelle, ledit système comportant un équipement informatique « utilisateur » connecté exécutant une application de visualisation ainsi qu'au moins un serveur distant exécutant une application de calcul d'un modèle de parcours à partir desdites tables, To this end, the invention relates, according to its most general meaning, to a computer system for viewing routes from the processing of at least one series of input data comprising a list of tasks stamped with the identifier of an object. , the identifier of an action and a temporal information, said system comprising connected "user" computer equipment executing a viewing application and at least one server remote executing an application for calculating a path model from said tables,
caractérisé en ce que ledit système comprend :  characterized in that said system comprises:
- un serveur d'administration, comportant des moyens de gestion d'une pluralité de comptes d'utilisateur et d'enregistrement, dans le compte de chaque utilisateur, des tables provenant de l'utilisateur ainsi que des données relatives à la configuration spécifique de l'utilisateur et le résultat des traitements effectués sur un serveur de calcul mutualisé  an administration server, comprising means of managing a plurality of user accounts and recording, in the account of each user, tables coming from the user as well as data relating to the specific configuration of the user; the user and the result of the processing performed on a shared computing server
- au moins un serveur de calcul mutualisé, comportant un processeur graphique GPU pour exécuter une application d'apprentissage profond à partir des données associées à un utilisateur et à construire un modèle numérique enregistré ensuite dans le compte dudit utilisateur sur l'un au moins desdits serveurs d'administration ou de calcul  at least one shared computing server, comprising a graphics processor GPU for executing a deep learning application from the data associated with a user and constructing a digital model then recorded in the user's account on at least one of said administration or calculation servers
l'équipement de l'utilisateur exécutant une application pour commander le calcul, sur l'un desdits serveurs de calcul, d'un état analytique ou prédictif pour la récupération et la visualisation des données correspondant au résultat de ce calcul sur l'interface de l'équipement utilisateur.  the equipment of the user executing an application for controlling the calculation, on one of said computing servers, of an analytic or predictive state for the retrieval and visualization of the data corresponding to the result of this calculation on the interface of the user equipment.
Avantageusement, le système informatique comporte en outre au moins un serveur CPU de répartition de la charge de calcul entre une pluralité de serveurs de calcul mutualisés.  Advantageously, the computer system further comprises at least one CPU for distributing the computing load between a plurality of shared computing servers.
Selon une variante, il comporte des moyens d'anonymisation des identifiants des objets et/ou des identifiants des actions de chaque utilisateur, et d'enregistrement sous une forme chiffrée sur le compte de l'utilisateur des moyens de conversion des données anonymisées, les données traitées par le ou les serveurs de calcul étant exclusivement constituées de données anonymisées.  According to one variant, it comprises means for anonymizing the identifiers of the objects and / or the identifiers of the actions of each user, and recording in an encrypted form on the user's account means for converting the anonymized data, the data processed by the computing server (s) consisting exclusively of anonymised data.
De préférence, ledit chiffrement est réalisé par une fonction de hachage. Description détaillée d'un exemple non limitatif de Preferably, said encryption is performed by a hash function. Detailed description of a non-limiting example of
1 ' invention  The invention
La présente invention sera mieux comprise à la lecture de la description détaillée d'un exemple non limitatif de l'invention qui suit, se référant aux dessins annexés où : The present invention will be better understood on reading the detailed description of a nonlimiting example of the invention which follows, with reference to the appended drawings in which:
la figure 1 représente une vue schématique simplifiée de l'architecture matérielle du système selon 1 ' invention  FIG. 1 represents a simplified schematic view of the hardware architecture of the system according to the invention
- la figure 2 représente une vue schématique de l'architecture fonctionnelle de la préparation des données  FIG. 2 represents a schematic view of the functional architecture of the data preparation.
- la figure 3 représente une vue schématique de l'architecture fonctionnelle de l'exploitation des données  FIG. 3 represents a schematic view of the functional architecture of the data exploitation
- la figure 4 représente une vue schématique d'un premier exemple de réseau de neurones pour l'apprentissage  FIG. 4 represents a schematic view of a first example of a neural network for learning
- la figure 5 représente une vue schématique d'un deuxième exemple de réseau de neurones pour l'apprentissage  FIG. 5 represents a schematic view of a second example of a neural network for learning
- la figure 6 représente une vue schématique d'un serveur de calcul  FIG. 6 represents a schematic view of a calculation server
la figure 7 représente une vue schématique détaillée de l'architecture matérielle du système selon 1 ' invention  FIG. 7 represents a detailed schematic view of the hardware architecture of the system according to the invention
- la figure 8 représente une vue schématique d'un entrepôt de préparation de commandes pour la mise en œuvre de 1 ' invention . Architecture matérielle  FIG. 8 represents a schematic view of a picking warehouse for the implementation of the invention. Hardware architecture
Le système pour la mise en œuvre de 1 ' invention comprend trois types de ressources principales : The system for implementing the invention comprises three main types of resources:
- des équipements connectés (1 à 3 ) , pour chacun des utilisateurs  - connected equipment (1 to 3), for each user
- un serveur d'administration (100)  an administration server (100)
- un serveur de calcul mutualisé (200) a shared computing server (200)
- un serveur de récupération des données (300). Par « serveur » , on entend une machine informatique unique, ou un groupe de machines informatiques, ou un serveur virtuel (« cloud » en anglais). a data recovery server (300). By "server" is meant a single computer machine, or a group of computer machines, or a virtual server ("cloud" in English).
Equipement connecté L'équipement connecté (1 à 3) est typiquement un équipement standard tel qu'un téléphone cellulaire, une tablette ou un ordinateur connecté à un réseau informatique, notamment Internet . Connected Equipment Connected equipment (1 to 3) is typically standard equipment such as a cell phone, tablet or computer connected to a computer network, including the Internet.
L'invention ne nécessite pas de modification matérielle de l'équipement connecté (1 à 3). L'accès aux services est réalisé :  The invention does not require any hardware modification of the connected equipment (1 to 3). Access to services is realized:
soit par l'intermédiaire d'un navigateur permettant de communiquer aux fonctionnalités du serveur d'administration (100)  either via a browser to communicate with the administration server functionalities (100)
- soit par une application dédiée installée sur l'équipement connecté, pour commander les interactions entre l'équipement connecté et le serveur d'administration (100).  or by a dedicated application installed on the connected equipment, to control the interactions between the connected equipment and the administration server (100).
L'invention permet de gérer une pluralité d'utilisateur, à partir d'un ou de plusieurs serveurs d'administration mutualisés et d'un ou de plusieurs serveurs de calcul mutualisés. The invention makes it possible to manage a plurality of users, from one or more shared management servers and from one or more shared calculation servers.
Architecture fonctionnelle Functional architecture
La figure 2 représente une vue schématique de l'architecture fonctionnelle. Figure 2 shows a schematic view of the functional architecture.
La première étape consiste à créer un compte sur le serveur d'administration (100).  The first step is to create an account on the administration server (100).
La création du compte (10) peut être réalisée par l'administrateur directeur, qui fournit alors les informations d'accès à l'utilisateur, notamment un identifiant et un mot de passe ainsi qu'un lien vers l'application ou la page web d'accès au service. La création du compte (10) peut aussi être réalisée par l'ouverture d'une session entre un équipement connecté (1) et le serveur d'administration (100), par une session permettant de créer un identifiant associé à un mot de passe. The creation of the account (10) can be done by the administrator director, who then provides the access information to the user, including an identifier and a password and a link to the application or the web page access to the service. The creation of the account (10) can also be achieved by the opening of a session between a connected equipment (1) and the administration server (100), by a session to create an identifier associated with a password .
Un compte peut être associé à une pluralité de parcours, accessible par le même identifiant.  An account can be associated with a plurality of routes, accessible by the same identifier.
La création d'un nouveau compte (10) commande par ailleurs l'affectation d'un espace de stockage (50) spécifique et affecté à l'identifiant correspondant au compte. L'espace de stockage (50) attribué à un identifiant est privé et inaccessible aux autres utilisateurs. Optionnellement, cet espace de stockage (50) est sécurisé et accessible seulement par l'utilisateur disposant du compte associé, à l'exclusion d'un accès par un tiers, y compris par un administrateur.  The creation of a new account (10) also controls the allocation of a specific storage space (50) assigned to the identifier corresponding to the account. The storage space (50) assigned to an identifier is private and inaccessible to other users. Optionally, this storage space (50) is secure and accessible only by the user having the associated account, excluding access by a third party, including by an administrator.
Lors de la création du compte (10), on procède également à un paramétrage autorisant ou interdisant certaines fonctionnalités ou des préférences de l'utilisateur (par exemple langue des messages, ou affichage d'un logo ou personnalisation des interfaces utilisateur) .  When creating the account (10), a setting is also made allowing or prohibiting certain features or preferences of the user (for example message language, or displaying a logo or customizing the user interfaces).
L'identification peut être purement déclarative, ou associée à une procédure sécurisée par exemple par double ou triple identification.  The identification may be purely declarative, or associated with a secure procedure for example by double or triple identification.
L'étape suivante (11) consiste à créer un fichier numérique de configuration (51) d'un parcours se traduisant par un nom, des paramètres définissant la structure des tables qui seront transmises, par exemple :  The next step (11) consists in creating a configuration digital file (51) of a path resulting in a name, parameters defining the structure of the tables that will be transmitted, for example:
Nature de l'objet à suivre : par exemple « client », « produit », « tâche »,...  Nature of the object to follow: for example "customer", "product", "task", ...
- Domaine : par exemple « service » , « industrie » qui permettra d'adapter les interfaces utilisateurs.  - Domain: for example "service", "industry" which will make it possible to adapt the user interfaces.
L'étape suivante (12) consiste à enregistrer dans l'espace de stockage dédié (50) un fichier numérique de données (52) comprenant une série d'enregistrements numériques horodatés. Cet enregistrement peut être réalisé par transfert depuis l'équipement connecté (1), ou encore par une désignation de l'adresse informatique où sont enregistrées les données considérées pour une importation via une session sécurisée commandée par le serveur d'administration (100). The next step (12) is to save in the dedicated storage space (50) a digital data file (52) comprising a series of time-stamped digital records. This recording can be made by transfer from the connected equipment (1), or by a designation the computer address where the data considered for an import is stored via a secure session controlled by the administration server (100).
Cette fonctionnalité est réalisée via un connecteur entre le compte de l'utilisateur dans l'équipement connecté (1) et le compte de l'utilisateur sur le serveur d'administration (100), ainsi qu'une tierce application.  This functionality is performed via a connector between the user's account in the connected equipment (1) and the user's account on the administration server (100), as well as a third application.
Structure des données d'entrée (53, 54) Structure of the input data (53, 54)
Les données d'entrée comprennent des données d'entrée transmises directement (53) ou des données (54) enregistrées sur une ressource distante à laquelle le serveur d'administration (100) peut se connecter. Elles sont constituées par des enregistrements horodatés, par exemple une table, dont la structure est par exemple de type suivant : The input data includes directly transmitted input data (53) or data (54) stored on a remote resource to which the administration server (100) can connect. They consist of time stamped records, for example a table whose structure is for example of the following type:
Les enregistrements peuvent comporter en outre des informations ou données additionnelles sous forme de chaînes de caractères, de nom, de valeurs numériques ou de valeurs temporelles telles que : The records may further include additional information or data in the form of strings, names, numeric values or time values such as:
- localisation de l'événement  - location of the event
- descripteur d'une catégorie d'événement  - descriptor of an event category
- un coût de l'événement  - a cost of the event
- un commentaire ou une annotation  - a comment or annotation
Ces données peuvent être fournies par un traitement automatique utilisant des capteurs sur un site, ou un fichier de log, ou la sortie d'un logiciel d'ERP, ou encore par une saisie manuelle et plus généralement par tout système de collecte automatique ou manuelle de données horodatées relatives à des événements . Les données (54) peuvent aussi être issues de systèmes connectés, à partir de l'analyse des signaux échangés lors d'un protocole de communication, par exemple à partir de l'identifiant IMSI dans un protocole de communication GSM, ou les identifiants uniques d'objets connectés transportés dans le protocole de communication de type LORA. This data can be provided by an automatic processing using sensors on a site, or a log file, or the output of an ERP software, or by a manual entry and more generally by any automatic or manual collection system timestamped data relating to events. The data (54) can also be derived from connected systems, from the analysis of the signals exchanged during a communication protocol, for example from the IMSI identifier in a GSM communication protocol, or the unique identifiers of connected objects transported in the LORA type communication protocol.
Enregistrement des données d'entrée Recording input data
Les données d'entrées sont constituées : The input data consists of:
- de données d'entrée (53) transférables sur le serveur d'administration et/ou  input data (53) transferable to the administration server and / or
- de données d'entrée (54) accessibles à la volée depuis une ressources externe.  input data (54) accessible on the fly from an external resource.
L'étape (12) consiste à adapter le format des données d'entrée (53, 54) en fonction de la configuration du fichier de configuration (51), et à enregistrer les données d'entrée (53) sous la forme convertie (55) sur le serveur d'administration (100), les données d'entrée (54) étant conservées sous la forme originelle sur la ressource d'origine, pour permettre une conversion à la volée lors des étapes ultérieures d'apprentissage. L'adaptation consiste à normaliser la structure des données et éventuellement à convertir le format des dates en un format standardisé.  The step (12) comprises adapting the format of the input data (53, 54) according to the configuration of the configuration file (51), and recording the input data (53) in the converted form ( 55) on the administration server (100), the input data (54) being kept in the original form on the original resource, to enable on-the-fly conversion in the subsequent learning steps. The adaptation consists of standardizing the data structure and eventually converting the format of the dates into a standardized format.
Le mode de conversion est enregistré pour permettre le traitement des données transmises ultérieurement.  The conversion mode is saved to allow processing of the transmitted data later.
On procède ensuite à une étape de configuration (13) détaillée du parcours par l'analyse des fichiers d'entrée convertis (54, 55) pour établir une liste (56) des événements identifiés dans les données d'entrée converties (54, 55). A detailed path configuration step (13) is then performed by analyzing the converted input files (54, 55) to establish a list (56) of the events identified in the converted input data (54, 55). ).
Cette liste (56) peut être associée à des informations additionnelles telles que l'origine de l'événement, par exemple « interne » ou « externe » ou un ordonnancement des événements selon une séquence préférée. Cette liste (56) est également enregistrée dans l'espace de stockage du client considéré, dans le fichier de configuration (51) du parcours. This list (56) can be associated with additional information such as the origin of the event, for example "internal" or "external" or scheduling of events according to a preferred sequence. This list (56) is also stored in the storage space of the client in question, in the configuration file (51) of the course.
Optionnellement, on procède à une étape (14) d'ajout d'informations additionnelles (57) provenant d'une base de données transférées (58) ou de données interrogeables à la volée (59) permettant d'extraire des données en fonction de la nature de l'événement, après conversion et normalisation le cas échéant. Cette solution permet d'automatiser l'ajout des informations additionnelles (57) aux données converties (54, 55) pour enregistrer un fichier enrichi (60) dans le fichier de configuration (51) et de procéder à un enrichissement à la volée du fichier (54) en fonction de la procédure d'ajout susvisée.  Optionally, there is a step (14) of adding additional information (57) from a transferred database (58) or on-the-fly searchable data (59) for retrieving data as a function of the nature of the event, after conversion and normalization where appropriate. This solution makes it possible to automate the addition of the additional information (57) to the converted data (54, 55) to record a rich file (60) in the configuration file (51) and to enrich the file on the fly. (54) according to the above addition procedure.
L'alternative de conversion et d'enrichissement à la volée permet de mettre en œuvre l'invention en temps réel, alors que l'alternative consistant à enregistrer sur le serveur d'administration des fichiers convertis et enrichis permet de procéder à une analyse en temps différé, notamment pour des usages où les données d'entrées sont rafraîchies en temps différé.  The on-the-fly conversion and enrichment alternative makes it possible to implement the invention in real time, whereas the alternative of recording converted and enriched files on the administration server makes it possible to carry out an analysis in deferred time, especially for uses where the input data is refreshed in deferred time.
Anonymisation des données Anonymization of the data
Les étapes (12) et/ou (14) peuvent comporter en outre un traitement d ' anonymisation consistant par exemple à procéder à un hachage de l'identifiant de chaque événement, et à masquer le nom de l'événement, par exemple en substituant un intitulé aléatoire à chaque événement. The steps (12) and / or (14) may further comprise an anonymization treatment consisting, for example, in hashing the identifier of each event, and in masking the name of the event, for example by substituting a random title at each event.
Génération du modèle Model generation
La figure 3 représente une vue schématique de l'architecture fonctionnelle de l'exploitation des données et de génération du modèle. Figure 3 shows a schematic view of the functional architecture of data mining and model generation.
Les données ainsi préparées sont utilisées, soit en temps réel, soit en différé, pour optionnellement construire un modèle numérique (73) mis en service sous la forme d'un code informatique (80). The data thus prepared are used, either in real time or offline, to optionally digital model (73) operated as a computer code (80).
La première étape (70) de cette opération consiste à calculer le graphe des parcours en fonction des enregistrements (54, 55). Ce calcul est réalisé par l'identification, pour chacun des individus, des transitions entre deux événements en fonction de l'information horodatage.  The first step (70) of this operation consists in calculating the graph of the courses according to the recordings (54, 55). This calculation is carried out by identifying, for each individual, transitions between two events according to the information timestamp.
On enregistre le résultat sous forme d'un graphe orienté numérique (71) dont les sommets correspondent aux événements, et les arêtes correspondent aux transitions avec l'indication du sens de parcours. Ce graphe numérique (71) est enregistré dans l'espace de stockage associé au compte, et le fichier de configuration (51) est modifié pour prendre en compte l'information relative au calcul d'un nouveau graphe.  The result is recorded as a numerical oriented graph (71) whose vertices correspond to the events, and the edges correspond to the transitions with the indication of the direction of travel. This digital graph (71) is stored in the storage space associated with the account, and the configuration file (51) is modified to take into account the information relating to the calculation of a new graph.
Compte tenu du grand nombre de calculs à effectuer, ceux-ci sont réalisés sur un serveur de calcul mutualisé. En effet, les calculs portent sur une combinatoire extrêmement importante, pouvant conduire à des traitements nécessitant plusieurs heures de calcul sur un ordinateur usuel. A fortiori, lorsque le serveur est exploité par plusieurs utilisateurs y disposant chacun de leur compte, le temps de calcul dépasse les capacités d'un serveur habituel.  Given the large number of calculations to be performed, they are performed on a shared computing server. Indeed, the calculations relate to an extremely important combinatorics, which can lead to treatments requiring several hours of computation on a usual computer. A fortiori, when the server is operated by several users each having their own account, the calculation time exceeds the capacity of a usual server.
Le recours à un serveur dédié au calcul permet au serveur d'administration de commander la sollicitation du serveur de calcul de manière optimale, et enregistrer les graphes numériques dans les comptes des utilisateurs de manière asynchrone. Il notifie dans ce cas l'utilisateur de la disponibilité du graphe numérique après la finalisation du traitement. Le traitement peut également fournir des indicateurs de qualité du graphe numérique obtenu.  The use of a server dedicated to the calculation allows the administration server to order the solicitation of the calculation server optimally, and save the digital graphs in the user accounts asynchronously. In this case, it notifies the user of the availability of the digital graph after finalizing the processing. The processing can also provide quality indicators of the obtained digital graph.
Le graphe numérique (71) est utilisé lors de l'étape de visualisation (72) en relation avec le fichier de configuration (51) contenant la liste des événements (56) et les fichiers (54, 55) ainsi que le fichier de données additionnelles (59, 60) pour fournir les données permettant à une application graphique hébergée sur le serveur d'administration (100) pour un accès en mode web via un navigateur, ou une application exécutée sur le terminal (1 à 3) de l'utilisateur, de fournir une représentation visuelle. The digital graph (71) is used during the visualization step (72) in relation to the configuration file (51) containing the list of events (56) and the files (54, 55) as well as the data file (59, 60) to provide data for an application graphic hosted on the administration server (100) for access in web mode via a browser, or an application executed on the terminal (1 to 3) of the user, to provide a visual representation.
Cette représentation visuelle représentant les flux en fonction du graphe numérique (71), avec des moyens de paramétrage tel que des filtrages ou des ajouts d'informations statistiques (par exemple épaisseur des traits fonction du nombre d'occurrence), et d'extraire des motifs correspondant à des chemins typiques.  This visual representation represents the flows as a function of the digital graph (71), with parameterization means such as filtering or addition of statistical information (for example thickness of the features depending on the number of occurrences), and extracting patterns corresponding to typical paths.
Par ailleurs, le traitement permet également d'extraire des informations sur des individus et leurs chemins pour les exporter sous forme de table numérique après filtrage des parcours ainsi que certains résumés numériques ou graphiques.  In addition, the processing also makes it possible to extract information on individuals and their paths to export them in the form of a digital table after filtering the courses as well as certain numerical or graphical summaries.
Création d'alerte Alert creation
Lorsque la durée de certaines interactions dépasse une valeur de référence ou correspond à une valeur extrême pour la distribution des valeurs observées, le traitement peut aussi générer une alerte sous la forme d'un message généré automatiquement, par exemple sous forme de courriel ou de SMS. When the duration of certain interactions exceeds a reference value or corresponds to an extreme value for the distribution of the observed values, the processing can also generate an alert in the form of an automatically generated message, for example in the form of an email or SMS .
Prédiction de parcours Prediction of course
Pour exploiter les données à des fins de prédiction de parcours futurs d'un individu en cours de processus, l'utilisateur commande la création d'un modèle exploitant l'ensemble des données historiques (54, 55) et des données enrichies (59, 60). To exploit the data for the purpose of predicting the future course of an individual during the process, the user orders the creation of a model exploiting all the historical data (54, 55) and the enriched data (59, 60).
Le traitement de ces données étant très lourd, ce traitement n'est pas réalisé sur le serveur d'administration (100) ni sur l'équipement connecté (1 à 3) mais sur un serveur dédié (200) comportant au moins une carte graphique. Ce serveur (200) est mutualisé pour l'ensemble des utilisateurs . The processing of these data is very heavy, this processing is not performed on the administration server (100) nor on the connected equipment (1 to 3) but on a dedicated server (200) having at least one graphics card . This server (200) is shared for all users.
Le traitement est basé sur des solutions d'apprentissage profond avec un réseau de neurone à deux niveaux LSTM (long/short term memory) ou de réseaux de neurones récurrents. Il s'agit de systèmes dynamiques constitués d'unités (neurones) interconnectés interagissant non-linéairement, et où il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées. On peut étudier leurs comportements avec la théorie des bifurcations, mais la complexité de cette étude augmente très rapidement avec le nombre de neurones .  The treatment is based on deep learning solutions with a LSTM (long / short term memory) two-level neuron network or recurrent neural networks. They are dynamic systems consisting of interconnected units (neurons) interacting nonlinearly, and where there is at least one cycle in the structure. The units are connected by arches (synapses) that have a weight. The output of a neuron is a nonlinear combination of its inputs. Their behavior can be studied with the theory of bifurcations, but the complexity of this study increases very rapidly with the number of neurons.
Le traitement est réparti en deux étapes :  The treatment is divided into two stages:
- calcul du modèle prédictif  - calculation of the predictive model
- exploitation du modèle prédictif.  - exploitation of the predictive model.
Structure des réseaux de neurones Structure of neural networks
La figure 4 représente une vue schématique d'un premier exemple de réseau de neurones pour l'apprentissage. Figure 4 shows a schematic view of a first example of a neural network for learning.
Dans l'exemple décrit, l'apprentissage met en œuvre quatre réseaux de neurones distincts de type LSTM (long/short term memory), en fonction de la nature des données à traiter.  In the example described, the learning implements four distinct LSTM neuron networks (long / short term memory), depending on the nature of the data to be processed.
Le premier réseau est constitué par deux couches et s'applique plus particulièrement aux situations où les données d'entrée ne comportent qu'une seule information temporelle correspondant au début de chaque événement et si la quantité de données additionnelles est limitée.  The first network consists of two layers and applies more particularly to situations where the input data comprise only one temporal information corresponding to the beginning of each event and if the amount of additional data is limited.
La première couche d'entrée (400) de 100 neurones est commune aux deux réseaux (410, 420) de la couche suivante ; elle réalise un apprentissage des données pour fournir des données pondérées à la deuxième couche qui est constituée de deux ensembles (410, 420) de 100 neurones chacun. Le premier ensemble (410) est spécialisé pour la prédiction des événements suivants. Il fournit un indicateur de qualité correspondant à la probabilité de l'événement prédit. The first input layer (400) of 100 neurons is common to both networks (410, 420) of the next layer; it performs data training to provide weighted data to the second layer which consists of two sets (410, 420) of 100 neurons each. The first set (410) is specialized for the prediction of the following events. It provides a quality indicator corresponding to the probability of the predicted event.
Le deuxième ensemble (420) est spécialisé pour la prédiction du début de l'événement suivant.  The second set (420) is specialized for predicting the beginning of the next event.
La figure 5 représente une vue schématique d'un deuxième exemple de réseau de neurones pour l'apprentissage.  Figure 5 shows a schematic view of a second example of a neural network for learning.
Le deuxième réseau est constitué par deux couches de type LSTM (long/short term memory), et s'applique plus particulièrement aux situations où les données d'entrée comportent deux informations temporelles correspondant respectivement au début et à la fin de chaque événement et la quantité de données additionnelles est importante.  The second network is constituted by two LSTM (long / short term memory) type layers, and is more particularly applicable to situations where the input data comprise two temporal information corresponding to the beginning and the end of each event, respectively. amount of additional data is important.
La première couche d'entrée (500) de 100 neurones est commune aux quatre réseaux (510, 520, 530, 540) de la couche suivante ; elle réalise un apprentissage des données pour fournir des données pondérées à la deuxième couche qui est constituée de quatre ensembles (510, 520, 530, 540) de 100 neurones chacun.  The first input layer (500) of 100 neurons is common to the four networks (510, 520, 530, 540) of the next layer; it performs data learning to provide weighted data to the second layer which consists of four sets (510, 520, 530, 540) of 100 neurons each.
Le premier ensemble (510) est spécialisé pour la prédiction des événements suivants. Il fournit un indicateur de qualité correspondant à la probabilité de l'événement prédit.  The first set (510) is specialized for the prediction of the following events. It provides a quality indicator corresponding to the probability of the predicted event.
Le deuxième ensemble (520) est spécialisé pour la prédiction de la fin de l'événement en cours.  The second set (520) is specialized for predicting the end of the current event.
Le troisième ensemble (530) est spécialisé pour la prédiction du début de l'événement suivant.  The third set (530) is specialized for predicting the beginning of the next event.
Le quatrième ensemble (540) est spécialisé pour la prédiction de la fin de l'événement suivant.  The fourth set (540) is specialized for predicting the end of the next event.
Calcul du modèle prédictif Le modèle prédictif est calculé à l'aide de la librairie KERAS (nom commercial) destinée à réaliser une interface vers la librairie TENSORFLOW (nom commercial) écrit en langage Python (nom commercial), permettant d'utiliser des cartes graphiques pour la réalisation des calculs. Exploitation du modèle prédictif Calculation of the predictive model The predictive model is calculated using the KERAS (commercial name) library intended to interface with the TENSORFLOW (trade name) library written in Python (business name) language, allowing the use of graphic cards. for performing the calculations. Exploitation of the predictive model
Pour l'exploitation des modèles, l'utilisateur commande une requête comportant des paramètres déterminant un point de départ existant ou virtuel dans un processus. Le point de départ est représenté par un parcours partiel, par exemple le parcours en cours d'un individu ou un parcours partiel typique ou d'un intérêt particulier. For model mining, the user controls a query with parameters that determine an existing or virtual starting point in a process. The starting point is represented by a partial course, for example the current course of an individual or a typical partial course or of a particular interest.
Pour les deux types de réseaux de neurones susvisés, le traitement est itéré de manière récursive, pour obtenir le parcours complet et le cas échéant la durée totale et le moment de chacun nouvel événement.  For the two types of neural networks referred to above, the processing is iterated recursively, to obtain the complete path and if necessary the total duration and the moment of each new event.
Afin d'optimiser le temps de calcul de la prédiction, et limiter les échanges entre l'équipement connecté (1 à 3) et le serveur de calcul (200), on exécute les traitements sur un calculateur (200) comportant des cartes graphiques. In order to optimize the calculation time of the prediction, and limit the exchanges between the connected equipment (1 to 3) and the calculation server (200), the processing is executed on a computer (200) comprising graphic cards.
Ces solutions permettent de réaliser des simulations concernant des parcours en cours, ou de cas virtuels nouveaux, ou encore de gérer automatiquement des alertes .  These solutions make it possible to simulate current routes, or new virtual cases, or to automatically manage alerts.
L'exploitation des résultats du serveur de prédiction installé sur le serveur de calcul (200) par l'utilisateur est réalisé par l'intermédiaire d'un serveur Flask (nom commercial) écrit en langage Python (nom commercial) constituant l'interface de communication avec l'équipement connecté (1 à 3).  The exploitation of the results of the prediction server installed on the calculation server (200) by the user is carried out via a Flask server (commercial name) written in Python language (commercial name) constituting the interface of communication with the connected equipment (1 to 3).
Cette communication est réalisée selon un protocole de type API REST (nom commercial).  This communication is carried out according to a protocol of the REST API type (commercial name).
Architecture matériel du serveur de calcul Hardware architecture of the calculation server
La figure 6 représente une vue schématique d'un serveur de calcul. Figure 6 shows a schematic view of a calculation server.
Le serveur de calcul (200) présente une architecture matérielle comprenant une pluralité d'unités de traitement ou cœurs de traitement, ou multi-cœurs (appelées architectures « multi-cores » en terminologie anglo-saxonne), et/ou multi-nœuds . Les unités centrales Central Processing Unit (CPU) multi-cœurs ou les cartes graphiques Graphics Processing Unit (GPU) sont des exemples de telles architectures matérielles. The computing server (200) has a hardware architecture comprising a plurality of processing units or processing cores, or multi-cores (called architectures multi-cores "in English terminology), and / or multi-nodes. Multi-core Central Processing Unit (CPU) CPUs or Graphics Processing Unit (GPU) graphics cards are examples of such hardware architectures.
Une carte graphique GPU comprend un grand nombre de processeurs de calcul, typiquement des centaines, le terme d'architecture « many-cores » ou architecture massivement parallèle est alors employé. Initialement dédiées aux calculs relatifs au traitement de données graphiques, stockées sous forme de tableaux de pixels à deux ou trois dimensions, les cartes graphiques GPU sont actuellement utilisées de manière plus générale pour tout type de calcul scientifique nécessitant une grande puissance de calcul et un traitement parallèle des données .  A GPU graphics card includes a large number of computing processors, typically hundreds, the term "many-cores" architecture or massively parallel architecture is then used. Initially dedicated to calculations related to the processing of graphic data, stored in the form of tables of two or three-dimensional pixels, GPU graphics cards are currently used more generally for any type of scientific computation requiring a large computing power and a processing parallel data.
Classiquement, la mise en œuvre d'un traitement de données parallèle sur une architecture parallèle se fait par la conception d'une application de programmation utilisant un langage approprié permettant d'effectuer à la fois du parallélisme de tâches et du parallélisme de données. Les langages OpenMP (Open Multi-Processing, nom commercial), OpenCL (Open Computing Language, nom commercial) ou CUDA (Compute Unified Device Architecture, nom commercial) sont des exemples de langages adaptés à ce type d'application.  Conventionally, the implementation of a parallel data processing on a parallel architecture is done by designing a programming application using an appropriate language to perform both parallelism of tasks and data parallelism. The languages OpenMP (Open Multi-Processing), OpenCL (Open Computing Language) or CUDA (Compute Unified Device Architecture) are examples of languages suitable for this type of application.
Le serveur (200) comprend une machine serveur (201) et un ensemble de quatre dispositifs de calcul (202 à 205).  The server (200) includes a server machine (201) and a set of four computing devices (202-205).
La machine serveur (201) est adaptée à recevoir les instructions d'exécution et à distribuer l'exécution sur l'ensemble de dispositifs de calcul (202 à 205).  The server machine (201) is adapted to receive the execution instructions and to distribute the execution on the set of computing devices (202-205).
Les dispositifs de calcul (202 à 205) des cartes graphiques GPU, par exemple des cartes NVIDIA Geforce GTX 1070 (nom commercial).  Computing devices (202-205) GPU graphics cards, for example NVIDIA Geforce GTX 1070 cards (trade name).
Les dispositifs de calcul (202 à 205) sont soit physiquement à l'intérieur de la machine serveur (201), soit à l'intérieur d'autres machines, ou nœuds de calcul, accessibles soit directement, soit via un réseau de communications. Les dispositifs de calcul (202 à 205) sont adaptés à mettre en œuvre des tâches exécutables transmises par la machine serveur (201). Chaque dispositif de calcul (202 à 205) comporte une ou plusieurs unités de calcul (206 à 208). Chaque unité de calcul (206 à 208) comprend une pluralité d'unités de traitement (209 à 210), ou cœurs de traitement, dans une architecture « multi-cœurs » typiquement 1920 cœurs. La machine serveur (201) comprend au moins un processeur et une mémoire apte à stocker des données et des instructions. The computing devices (202 to 205) are either physically inside the server machine (201), or inside other machines, or computing nodes, accessible either directly or via a communications network. The computing devices (202 to 205) are adapted to implement executable tasks transmitted by the server machine (201). Each computing device (202 to 205) comprises one or more calculation units (206 to 208). Each computing unit (206 to 208) comprises a plurality of processing units (209 to 210), or processing cores, in a typical "multi-core" architecture of 1920 cores. The server machine (201) comprises at least one processor and a memory capable of storing data and instructions.
En outre, la machine serveur (201) est adaptée à exécuter un programme d'ordinateur comportant des instructions de code mettant en œuvre un procédé d ' optimisation de traitement parallèle de données proposé.  In addition, the server machine (201) is adapted to execute a computer program having code instructions implementing a proposed parallel data processing optimization method.
Par exemple, un programme mettant en œuvre le procédé d'optimisation de traitement parallèle de données proposé est codé en un langage de programmation logiciel connu comme le langage Python (nom commercial). Un langage de programmation particulièrement adapté est la librairie TENSORFLOW (nom commercial) interfaçable avec le langage CUDA (nom commercial) et la bibliothèque cuDNN (nom commercial).  For example, a program implementing the proposed parallel data processing optimization method is encoded into a software programming language known as the Python (Business Name) language. A particularly suitable programming language is the TENSORFLOW library (trade name) which can be interfaced with the CUDA language (trade name) and the cuDNN library (trade name).
Architecture matérielle du système Hardware architecture of the system
La figure 7 représente une vue schématique détaillée de l'architecture matérielle du système selon l'invention. FIG. 7 represents a detailed schematic view of the hardware architecture of the system according to the invention.
Le système comprend plusieurs serveurs qui sont communs à tous les utilisateurs, à savoir un serveur d'administration (100), un serveur de calcul à cartes graphiques (200) et éventuellement un serveur d'acquisition de données (300) .  The system comprises several servers that are common to all users, namely an administration server (100), a graphics card computing server (200) and possibly a data acquisition server (300).
Comme indiqué précédemment, chaque utilisateur accède au système par un équipement connecté (1 à 3) communiquant avec les serveurs (100, 200, 300) susvisés.  As indicated above, each user accesses the system via a connected equipment (1 to 3) communicating with the servers (100, 200, 300) referred to above.
Le serveur d'administration (100) gère les comptes et les espaces de stockage de chacun des utilisateurs, ainsi que l'application d'envoi d'alerte. Chacun des utilisateurs dispose d'un espace de stockage dédié pour l'enregistrement : The administration server (100) manages the accounts and the storage spaces of each of the users, as well as the alert sending application. Each user has dedicated storage space for recording:
- des données de configuration générales (50)  - general configuration data (50)
- des données de configuration pour chacun des parcours (51)  - configuration data for each course (51)
- des données des historiques (55)  - historical data (55)
- des données additionnelles (60)  - additional data (60)
- du graphe numérique (71) pour chacun des parcours et des indicateurs de qualité dudit graphe  - the numerical graph (71) for each of the paths and quality indicators of said graph
- le modèle numérique (73) prédictif pour chacun des parcours après son calcul sur le serveur de calcul (200).  - the numerical model (73) predictive for each of the courses after its calculation on the calculation server (200).
Le serveur d'administration (100) comporte également une mémoire pour l'enregistrement du code informatique de l'application commandant l'exécution soit sur le calculateur local, soit sur une machine virtuelle distante, de la génération du graphe numérique .  The administration server (100) also comprises a memory for the registration of the computer code of the application controlling the execution either on the local computer or on a remote virtual machine, the generation of the digital graph.
Le serveur d'administration (100) comporte des moyens pour l'établissement d'un tunnel sécurisé avec le serveur de calcul (200) pour l'échange des données nécessaire au calcul d'un graphe numérique ou d'un modèle prédictif et plus généralement les échanges de données avec les différentes ressources informatiques.  The administration server (100) comprises means for the establishment of a secure tunnel with the calculation server (200) for the data exchange necessary for calculating a numerical graph or a predictive model and more usually the data exchanges with the different computing resources.
Les équipements connectés (1 à 3 ) exécutent une application (600) directement ou via un navigateur. Cette application (600) ne réalise aucun stockage sur l'équipement connecté (1 à 3), toutes les données étant enregistrées sur le serveur d'administration (200). Cela permet un accès par l'utilisateur via un équipement connecté (1 à 3) quelconque, et à sécuriser les données sensibles en évitant un enregistrement permanent sur un équipement connecté (1 à 3) non sécurisé.  The connected equipment (1 to 3) executes an application (600) directly or via a browser. This application (600) does not perform any storage on the connected equipment (1 to 3), all the data being stored on the administration server (200). This allows access by the user via any connected equipment (1 to 3), and to secure the sensitive data by avoiding permanent recording on unsecured equipment (1 to 3).
Cette application (600) communique avec le serveur d'administration (100) pour :  This application (600) communicates with the administration server (100) for:
- optionnellement , créer un compte, lors de la première utilisation - télécharger sur l'équipement connecté (1 à 3), des données de configuration (50) depuis l'espace de stockage dédié à l'utilisateur sur le serveur d'administration (100) et enregistrer en mémoire vive ces données sans enregistrement dans une mémoire locale permanente - optionally, create an account, when first using - Downloading on the connected equipment (1 to 3), configuration data (50) from the storage space dedicated to the user on the administration server (100) and save in RAM that data without registration in a permanent local memory
- télécharger sur l'équipement connecté (1 à 3), des données de parcours (55, 60), depuis l'espace de stockage dédié à l'utilisateur sur le serveur d'administration (100) ou depuis la ressource externe pour les données de parcours (54, 59) et enregistrer lesdites données en mémoire vive, sans enregistrement dans une mémoire locale permanente, ou un sous-ensemble de ces données (54, 55 ; 59, 60) correspondant par exemple à une plage temporelle limitée ou une série d'identifiants donnée  - Downloading on the connected equipment (1 to 3), route data (55, 60), from the storage space dedicated to the user on the administration server (100) or from the external resource for the path data (54, 59) and storing said data in random access memory, without recording in a permanent local memory, or a subset thereof (54, 55; 59, 60) corresponding for example to a limited time range or a given set of identifiers
- en phase de configuration, transmettre depuis l'équipement connecté (1 à 3),  in the configuration phase, transmit from the connected equipment (1 to 3),
o les données d'entrée hébergées localement (55) o ou le lien vers les données d'entrées (54) hébergées sur une ressource externe  o the locally hosted input data (55) o or the link to the input data (54) hosted on an external resource
- récupérer depuis le serveur d'administration (100) le graphe numérique (71). L'application (600) communique avec le serveur de calcul (200) pour récupérer à la volée sur l'équipement connecté (1 à 3) le résultat du calcul de prédiction (prochain événement, temps de parcours, etc.) et transmettre les instructions de pilotage du calcul du modèle de prédiction. Applications particulières  recovering from the administration server (100) the digital graph (71). The application (600) communicates with the calculation server (200) to retrieve on the fly on the connected equipment (1 to 3) the result of the prediction calculation (next event, travel time, etc.) and transmit the piloting instructions for calculating the prediction model. Special applications
Les données d'entrées peuvent être constituées par les données provenant d'objets connectés, par exemple les téléphones cellulaires de passants dans un espace public, par exemple un hall d'aéroport ou de gare, un pôle commercial, un site urbain, ou un supermarché ou un hôpital. Les données sont captées par des balises recevant les signaux de service, par extraction des données techniques transportées par le protocole de communication, par exemple l'identifiant IMSI, l'horodatage et la puissance du signal. The input data can be constituted by the data coming from connected objects, for example the cell phones of passers-by in a public space, for example an airport or train station hall, a commercial center, a urban site, or supermarket or hospital. The data is picked up by beacons receiving the service signals, by extracting the technical data transported by the communication protocol, for example the IMSI identifier, the time stamp and the signal power.
Le système selon l'invention permet d'automatiser l'analyse des déplacements et de réaliser des prédictions de flux de déplacement.  The system according to the invention makes it possible to automate the analysis of displacements and to make displacement flow predictions.
Pour des objets connectés, l'identifiant analysé est par exemple l'adresse Mac, pour des communications de type WIFI ou LoraWan.  For connected objects, the analyzed identifier is for example the Mac address for WIFI or LoraWan type communications.
Détermination d'un modèle numérique prédictif de l'évolution d'un processus de préparation de commandes Determination of a numerical model predictive of the evolution of a process of preparation of orders
La description qui suit concerne une variante particulière, mettant en œuvre un modèle prédictif qui, contrairement à certains modèles prédictifs connus, n'est pas limité à des situations où les étapes intermédiaires sont constantes, avec des lois d'évolution linéaires, ce qui ne correspond pas à la réalité, mais est adapté à un système de préparation de commande comportant une pluralité de postes intermédiaires, avec des cheminements parfois complexes des articles entre le stock et le poste d'expédition des commandes The following description relates to a particular variant, implementing a predictive model which, unlike some known predictive models, is not limited to situations where the intermediate steps are constant, with linear evolution laws, which does not does not correspond to reality, but is adapted to an order picking system comprising a plurality of intermediate positions, with sometimes complex pathways of the articles between the stock and the order shipping station
Présentation schématique d'un entrepôt de préparation La figure 8 représente un exemple d'organisation d'un entrepôt pour la préparation de commandes d'articles, à partir d'un nombre limité de références (quelques dizaines à quelques centaines, pour un nombre élevé de commandes (quelques dizaines de milliers), chaque commande regroupant quelques articles ou quelques dizaines d'articles, correspondant à quelques références, et à quelques articles par références. Les ordres de commandes (« pursue order » en anglais) arrivent au fil de l'eau avec une distribution présentant un ou plusieurs maximum et une variabilité importante. Schematic presentation of a preparation warehouse Figure 8 shows an example of organizing a warehouse for the preparation of orders for items, from a limited number of references (a few tens to a few hundred, for a large number orders (tens of thousands), each order containing a few articles or dozens of articles, corresponding to some references, and some articles by references.The order orders ("pursue order" in English) arrive at stream of water with a distribution having one or more maximum and significant variability.
L'expédition des commandes préparées est réalisée par lots, par exemple pour permettre le regroupement de commandes en fonction du volume utile du transporteur. Ces regroupements sont organisés en parallèle, par exemple pour le chargement de plusieurs zones ou dizaines de zones, correspondant chacune à un secteur de livraison.  The shipment of prepared orders is carried out in batches, for example to allow the grouping of orders according to the useful volume of the carrier. These groupings are organized in parallel, for example for the loading of several zones or dozens of zones, each corresponding to a delivery sector.
Le problème général est l'optimisation de l'organisation de l'entrepôt et des ressources affectées pour réduire le délai entre l'arrivée des ordres de commandes et le chargement pour l'expédition des commandes préparées et regroupées, et réduire les points d'accumulation, alors même que les données prévisionnelles sont imparfaites.  The general problem is optimizing the organization of the warehouse and the resources allocated to reduce the delay between the arrival of the orders and the loading for the shipment of the orders prepared and regrouped, and to reduce the points of sale. accumulation, even though the forecast data are imperfect.
A titre d'exemple, la figure 8 présente une zone de traitement des ordres de commandes et de préparation des commandes .  By way of example, FIG. 8 shows a processing zone for order and order preparation orders.
Cette zone comprend un local technique (101) constituant un poste de commande avec un opérateur et un ordinateur (102) connecté au système d'information du fournisseur des articles.  This zone comprises a technical room (101) constituting a control station with an operator and a computer (102) connected to the information system of the article supplier.
Les ordres de commandes sont reçus sur l'ordinateur (102) relié à une imprimante (103) pour l'impression, à la réception de chaque ordre de commande, d'une fiche comprenant :  The commands are received on the computer (102) connected to a printer (103) for printing, upon receipt of each command order, a form comprising:
" Le type d'article et le nombre "The type of article and the number
Le destinataire et l'adresse d'expédition de la commande. The recipient and the shipping address of the order.
Ces fiches (14) sont déposées dans une bannette par séries de X, par exemple par séries de 100 fiches.  These cards (14) are deposited in a bunch of X series, for example by series of 100 cards.
L'installation comporte par ailleurs une pluralité de postes de préparation (106 à 108).  The installation also comprises a plurality of preparation stations (106 to 108).
Chaque poste de préparation (106 à 108) comporte N armoires (61 à 62 ; 71 à 73 ; 81 à 82) chargée avec un stock d'une partie des références disponibles. Ainsi, la totalité des références est répartie sur les N postes de préparation, sous forme de sous-ensembles de références, chaque poste de préparation (106 à 108) comportant Lp armoires de stockage intermédiaire d'une référence donnée d'article. Each preparation station (106 to 108) has N cabinets (61 to 62; 71 to 73; 81 to 82) loaded with a stock of part of the available references. Thus, all the references are distributed over the N preparation positions, under form subsets of references, each preparation station (106 to 108) having L p intermediate storage cabinets of a given article reference.
A chaque poste de préparation de préparation (106 à 108) est associé un ou plusieurs postes de rechargement (106 à 108) des armoires. Optionnellement , un poste de rechargement (116 à 118) peut être associé à plusieurs postes de préparation.  At each preparation preparation station (106 to 108) is associated one or more reloading stations (106 to 108) of the cabinets. Optionally, a recharging station (116 to 118) can be associated with several preparation stations.
L'opérateur du poste de préparation (106 à 108) prend une fiche, identifie les articles le concernant, et extrait des armoires correspondants les articles visés, pour les quantités mentionnées sur la fiche et les déposent dans un carton (120) associé à une fiche donnée. Ce carton (20) est ensuite déplacé sur tapis convoyeur (21) jusqu'au poste de préparation suivant, puis envoyé vers un ou plusieurs postes de palettisation (130) où sont regroupées plusieurs cartons destinées à la même zone de livraison et au même transporteur.  The operator of the preparation station (106 to 108) takes a sheet, identifies the articles relating to it, and extracts from the corresponding cabinets the articles referred to, for the quantities mentioned on the sheet and deposit them in a carton (120) associated with a given card. This carton (20) is then moved on conveyor belt (21) to the next preparation station, then sent to one or more palletizing stations (130) where are grouped several cartons for the same delivery area and the same carrier .
Alternativement, chacun des cartons reçoit les références d'un seul poste de préparation (106 à 108).  Alternatively, each of the boxes receives the references of a single preparation station (106 to 108).
Les palettes sont ensuite transportées par des chariots mobiles (31, 32) jusqu'à la zone de chargement dans des camions ( 33 ) .  The pallets are then transported by mobile carriages (31, 32) to the loading area in trucks (33).
Modélisation numérique de l'organisation de l'entrepôt Numerical modeling of the warehouse organization
et du flux de commande.  and the control flow.
Le cheminement des commandes, depuis l'ordre de commande jusqu'à la zone de chargement, est modélisé sous forme d'un graphe. The routing of the commands, from the order of order to the loading area, is modeled as a graph.
Ce graphe se traduit par :  This graph is translated by:
des sommets correspondants aux étapes de traitement, correspondant dans l'exemple au traitement :  vertices corresponding to the processing steps, corresponding in the example to the treatment:
- de réception au niveau du local technique constituant un poste de commande (101)  - reception at the technical room constituting a control station (101)
- de préparation de commande sur les postes de préparation (106 à 108) - de rechargement des postes de préparation (106 à- preparation of order on preparation stations (106 to 108) - reloading of the preparation positions (106 to
108) 108)
- de l'étape de palettisation (30)  - from the palletizing stage (30)
- de chargement des camions (33) à l'aide de chariots (31, 32).  - Loading trucks (33) with trolleys (31, 32).
Les arcs reliant deux sommets correspondent aux transitions réelles entre deux sommets, conformément au formalisme usuel des réseaux de Pétri stochastiques généralisés.  The arcs connecting two vertices correspond to real transitions between two vertices, in accordance with the usual formalism of the generalized stochastic Petri nets.
Ces arcs sont équipés de lois de probabilités permettant de modéliser les lois de transition.  These arcs are equipped with laws of probabilities allowing to model the laws of transition.
Ces lois de probabilités peuvent être déterminées soit à partir des données historiques, soit fixées par un opérateur, en fonction de données d'expert ou d'hypothèses de simulation .  These probabilistic laws can be determined either from historical data or fixed by an operator, based on expert data or simulation assumptions.
Par ailleurs, la modélisation comprend une estimation de la répartition (40) des ordres de commandes au cours de la journée, en fonction des données historiques ou en fonction de données d'expert ou d'hypothèses de simulation.  In addition, the modeling includes an estimate of the distribution (40) of the orders of orders during the day, according to the historical data or according to expert data or simulation hypotheses.
Traitement selon l'invention On procède ensuite à une simulation par un calcul probabiliste de la propagation des ordres de commandes arrivant au fil de l'eau au poste de commande (101), pour représenter l'évolution des différents nœuds au cours de la journée, le taux d'occupation de chacun des nœuds et la durée de parcours de chacun des ordres de commande. Treatment according to the invention A simulation is then carried out by a probabilistic calculation of the propagation of orders of orders arriving at the water level at the control station (101), to represent the evolution of the various nodes during the day. , the occupancy rate of each of the nodes and the travel time of each of the command orders.
Cette simulation peut être réalisée par un outil tel que le logiciel Cosmos (nom commercial) qui est un « model checker statistique » édité par l'Ecole Normale supérieure de Cachan. Il a pour formalisme d'entrée les réseaux de Pétri stochastiques et évalue des formules de la logique quantitative HASL. Cette logique, basée sur les automates hybrides linéaires, permet de décrire des indices de performance complexes relatifs aux chemins d'exécution acceptés par l'automate. Cet outil fournit ainsi un moyen d'unifier l'évaluation de performance et la vérification dans un cadre très général. This simulation can be performed by a tool such as the software Cosmos (commercial name) which is a "statistical model checker" published by the Ecole Normale Supérieure of Cachan. Its input formalism is stochastic Petri nets and evaluates formulas of quantitative HASL logic. This logic, based on the linear hybrid automata, makes it possible to describe complex performance indices relating to the execution paths accepted by the automaton. This tool thus provides a way to unify performance evaluation and verification in a very general framework.
On procède ensuite à des itérations de cette simulation plusieurs dizaines de milliers de fois pour obtenir une convergence de l'estimation de chacun de ces résultats, et en particulier :  We then proceed to iterations of this simulation tens of thousands of times to obtain a convergence of the estimate of each of these results, and in particular:
- le nombre moyen d'ordres de commande dans la file d'attente locale de chacun des postes de traitement, et de son évolution dans le temps  the average number of control commands in the local queue of each of the processing stations, and its evolution over time
- le temps cumulé de traitement de la totalité des ordres de commandes .  - the cumulative time of processing all orders.
Ce temps cumulé est calculé en utilisant la logique stochastique à automate hybride (HASL) appliquée au système de modélisation précité.  This cumulative time is calculated using the stochastic logic with hybrid automaton (HASL) applied to the aforementioned modeling system.
Le résultat fournit par l'outil Cosmos (nom commercial) est un fichier de données décrivant l'évolution dans le temps du graphe, et notamment l'évolution temporelle du nombre d'ordres dans la file d'attente de chacun des postes. Ce calcul peut être visualisé par une courbe représentée en figure 9.  The result provided by the tool Cosmos (trade name) is a data file describing the evolution in time of the graph, and in particular the temporal evolution of the number of orders in the queue of each of the stations. This calculation can be visualized by a curve represented in FIG.
En procédant à des itérations de ce traitement, on obtient une information sur la distribution des paramètres du réseau, et notamment du nombre d'ordre de commande en attente, du temps de traitement cumulé de l'ensemble des ordres de commandes et le temps de parcours de chaque ordre de commande.  By iterating this processing, information is obtained on the distribution of the parameters of the network, and in particular the number of pending ordering orders, the cumulative processing time of all the orders and the time of processing. course of each order.
La figure 10 représente un exemple de représentation de la valeur moyenne du temps de traitement cumulé (courbe 50) et intervalles de confiance à 99% (courbe 51, 52).  FIG. 10 represents an example of representation of the average value of the cumulative processing time (curve 50) and 99% confidence intervals (curve 51, 52).
Exploitation de ces informations Exploitation of this information
Ces résultats permettent de déterminer d'éventuels dépassements d'une valeur seuil de temps cumulé sur une période prédéterminée (une journée par exemple ou tranche de N heures). Dans le cas d'identification de risques de dépassement, l'exploitant peut soit modifier ses contraintes et/ou engagement vis-à-vis du donneur d'ordre, soit modifier les ressources allouées à un ou plusieurs postes, et procéder à une nouvelle simulation pour vérifier si cette modification conduit à une suppression du dépassement de la valeur seuil. These results make it possible to determine possible exceedances of a cumulative time threshold value over a predetermined period (a day for example or N hours slice). In the case of the identification of risks of overshoot, the operator can either modify its constraints and / or commitment vis-à-vis the client, or modify the resources allocated to one or more stations, and proceed to a new simulation to check if this modification leads to a suppression of the exceeding of the threshold value.
Ils permettent également de redéfinir l'organisation et de procéder à une nouvelle simulation pour déterminer l'impact sur des paramètres clés.  They also make it possible to redefine the organization and perform a new simulation to determine the impact on key parameters.
Ils permettent également d'organiser les débordements sur une période temporelle suivante, par exemple plus le traitement d'une partie des ordres de commande le lendemain.  They also make it possible to organize the overflows over a following time period, for example the more the processing of a part of the order orders the next day.
L'objectif global de l'invention est d'optimiser l'organisation physique d'un entrepôt de traitement de commande afin d'anticiper des situations empêchant le respect de contraintes relatives au temps de traitement des ordres de commande dont on ne connaît que de manière approximative le flux futur et notamment de faire évoluer l'affectation des ressources futures de manière optimale, en temps quasi-réel.  The overall objective of the invention is to optimize the physical organization of a control processing warehouse in order to anticipate situations preventing the respect of constraints relating to the processing time of the control commands of which only approximate the future flow and in particular to change the allocation of future resources optimally, in near real time.
Les données historiques sont enregistrées sous forme de fichiers de logs horodatés, à partir des données fournies par chacun des postes de travail. Ces informations peuvent optionnellement comprendre les identifiants des opérateurs afin de permettre une amélioration de la pertinence des simulations par la prise en compte des opérateurs présents sur chaque poste de travail et optimiser la composition des équipes en fonction des objectifs visés.  The historical data is recorded in the form of time-stamped log files, from the data provided by each of the workstations. This information may optionally include operators' identifiers in order to improve the relevance of the simulations by taking into account the operators present on each workstation and to optimize the composition of the teams according to the objectives targeted.
En particulier l'invention permet de réaliser des traitements sans nécessiter de moyens de collecte de données sur chacun des postes de travail. Ainsi, l'invention est applicable sur des organisations basées sur des opérateurs manuels utilisant des fiches papier, sur des postes dépourvus d'équipements de saisies d'informations et/ou de traçabilité en temps réel. Traitement des données manquantes In particular, the invention makes it possible to carry out treatments without requiring data collection means on each of the workstations. Thus, the invention is applicable to organizations based on manual operators using paper cards, on stations without equipment for capturing information and / or traceability in real time. Treatment of missing data
Lorsque les données sont incomplètes, l'invention propose une solution consistant à créer un serveur d'imputation à l'aide de techniques d'apprentissage profond, typiquement les techniques d'auto-encodeurs connues sous la désignation de « variational auto-encoders ». Un auto-encodeur, ou auto- associateur est un réseau de neurones artificiels utilisé pour l'apprentissage non supervisé de caractéristiques discriminantes. L'objectif d'un auto-encodeur est d'apprendre une représentation (encodage) d'un ensemble de données, généralement dans le but de réduire la dimension de cet ensemble. Le concept d'auto-encodeur est utilisé pour l'apprentissage de modèles génératifs Les avantages par rapport aux technique usuellement utilisées comme MICE, multivariate imputation by chained équations sont : When the data are incomplete, the invention proposes a solution of creating an imputation server using deep learning techniques, typically self-encoding techniques known as "variational auto-encoders". . An auto-encoder, or auto-associator, is an artificial neural network used for unsupervised learning of discriminant characteristics. The goal of an auto-encoder is to learn a representation (encoding) of a set of data, usually in order to reduce the size of this set. The concept of auto-encoder is used for the learning of generative models The advantages compared to the techniques usually used like MICE, multivariate imputation by chained equations are:
- Mise à jour continue et en temps du modèle d'imputation avec l'arrivée de nouvelles données.  - Continuous and timely update of the imputation model with the arrival of new data.
Il permet de réduire le temps d'imputation dès que le modèle est ajusté et offre la possibilité de faire rapidement de l'imputation multiple pour évaluer l'incertitude due à la présence de valeur manquantes, permettant d'obtention d'un indicateur de confiance pour les prédictions qui intègre la présence des manquants. It reduces the imputation time as soon as the model is adjusted and offers the possibility of making multiple imputation quickly to evaluate the uncertainty due to the presence of missing values, allowing to obtain a confidence indicator for predictions that integrates the presence of missing ones.

Claims

Revendications claims
1 — Système informatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées (53, 54) comportant une liste de tâches horodatées comprenant l'identifiant d'un objet, l'identifiant d'une action et une information temporelle, ledit système comportant un équipement informatique « utilisateur » connecté exécutant une application de visualisation ainsi qu'au moins un serveur distant exécutant une application de calcul d'un modèle de parcours à partir desdites tables, 1 - Computer system for the visualization of courses from the processing of at least one series of input data (53, 54) comprising a list of tasks stamped with the identifier of an object, the identifier of a action and time information, said system comprising a connected "user" computing equipment executing a viewing application and at least one remote server executing an application for calculating a travel model from said tables,
caractérisé en ce que ledit système comprend :  characterized in that said system comprises:
- un serveur d'administration (100), comportant des moyens de gestion d'une pluralité de comptes d'utilisateur et d'enregistrement, dans le compte de chaque utilisateur, des tables provenant de l'utilisateur ainsi que des données (50, 51) relatives à la configuration spécifique de l'utilisateur et le résultat des traitements effectués sur un serveur de calcul mutualisé  an administration server (100), comprising means for managing a plurality of user accounts and recording, in the account of each user, tables coming from the user as well as data (50, 51) relating to the specific configuration of the user and the result of the processing carried out on a shared computing server
au moins un serveur de calcul mutualisé (200), comportant un processeur graphique GPU (202 à 205) pour exécuter une application d'apprentissage profond à partir des données associées à un utilisateur et pour construire un modèle numérique (73) enregistré ensuite dans le compte dudit utilisateur sur l'un au moins desdits serveurs d'administration (100) ou de calcul (200)  at least one pooled computing server (200), having a GPU graphics processor (202-205) for executing a deep learning application from the data associated with a user and constructing a digital model (73) subsequently stored in the said user account on at least one of said administration server (100) or calculation server (200)
- l'équipement de l'utilisateur (1 à 3) exécutant une application (600) pour commander le calcul, sur l'un desdits serveurs de calcul (200), d'un état analytique ou prédictif pour la récupération et la visualisation des données correspondant au résultat de ce calcul sur l'interface de l'équipement utilisateur (1 à 3).  the user's equipment (1 to 3) executing an application (600) for controlling the calculation, on one of said computing servers (200), of an analytic or predictive state for the retrieval and visualization of data corresponding to the result of this calculation on the interface of the user equipment (1 to 3).
2 — Système informatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées (53, 54) selon la revendication 1 caractérisé en ce qu'il comporte en outre au moins un serveur CPU de répartition de la charge de calcul entre une pluralité de serveurs de calcul mutualisés (200). 2 - Computer system for visualizing courses from the processing of at least one series of data inputs (53, 54) according to claim 1 characterized in that it further comprises at least one CPU for distributing the computing load between a plurality of shared computing servers (200).
3 — Système informatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées (53, 54) selon la revendication 1 caractérisé en ce qu'il comporte des moyens d ' anonymisation des identifiants des objets et/ou des identifiants des actions de chaque utilisateur, et d'enregistrement sous une forme chiffrée sur le compte de l'utilisateur des moyens de conversion des données anonymisées, les données traitées par le ou les serveurs de calcul étant exclusivement constituées de données anonymisées. 3 - computer system for viewing routes from the processing of at least one set of input data (53, 54) according to claim 1 characterized in that it comprises means for anonymizing the identifiers of the objects and / or identifiers of the actions of each user, and recording in encrypted form on the user's account means for converting anonymized data, the data processed by the computing server or servers being exclusively made up of anonymized data.
4 - Système informatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées (53, 54) selon la revendication précédente caractérisé en ce ledit chiffrement est réalisé par une fonction de hachage. 4 - computer system for viewing routes from the processing of at least one set of input data (53, 54) according to the preceding claim characterized in that said encryption is performed by a hash function.
5 — Procédé automatique pour la visualisation de parcours à partir du traitement d'au moins une série de données d'entrées (53, 54) comportant une liste de tâches horodatées comprenant l'identifiant d'un objet, l'identifiant d'une action et une information temporelle, comportant les étapes suivantes : 5 - Automatic method for the visualization of routes from the processing of at least one series of input data (53, 54) comprising a list of tasks stamped with the identifier of an object, the identifier of a action and temporal information, comprising the following steps:
- exécution sur un serveur d'une application de calcul d'un modèle de parcours à partir desdites tables ,  execution on a server of an application for calculating a path model from said tables,
- exécution sur un équipement informatique « utilisateur » connecté d'une application (600) pour commander le calcul, sur l'un desdits serveurs de calcul (200), d'un état analytique ou prédictif pour la récupération et la visualisation des données correspondant au résultat de ce calcul sur l'interface de l'équipement utilisateur (1 à 3) et d'une application de visualisation et - exécution sur un serveur d'administration (100) d'une application de gestion d'une pluralité de comptes d'utilisateur et d'enregistrement, dans le compte de chaque utilisateur, des tables provenant de l'utilisateur ainsi que des données (50, 51) relatives à la configuration spécifique de l'utilisateur et le résultat des traitements effectués sur un serveur de calcul mutualisé execution on a user "connected" computer equipment of an application (600) for controlling the calculation, on one of said computing servers (200), of an analytical or predictive state for the recovery and visualization of the corresponding data to the result of this calculation on the interface of the user equipment (1 to 3) and an application for viewing and executing on an administration server (100) an application for managing a plurality of user accounts and recording, in the account of each user, tables from the user as well as data (50, 51) relating to the specific configuration of the user and the result of processing performed on a shared computing server
exécution sur au moins un serveur de calcul mutualisé (200), comportant un processeur graphique GPU (202 à 205) d'une application d'apprentissage profond à partir des données associées à un utilisateur et pour construire un modèle numérique (73) enregistré ensuite dans le compte dudit utilisateur sur l'un au moins desdits serveurs d'administration (100) ou de calcul (200).  executing on at least one shared computing server (200), comprising a GPU graphics processor (202 to 205) of a deep learning application from the data associated with a user and constructing a digital model (73) subsequently recorded in said user's account on at least one of said administration (100) or calculation (200) servers.
6 - Procédé automatique pour la visualisation de parcours selon la revendication précédente caractérisé en ce qu'elle comporte en outre une étape de détermination d'un modèle numérique prédictif de l'évolution d'un processus de préparation de commandes, consistant 6 - Automatic method for visualization of course according to the preceding claim characterized in that it further comprises a step of determining a numerical model predictive of the evolution of a picking process, consisting of
- à calculer, pour chacune des commandes futures (C±(Pj,t) ), le moment t de passage de chacune des commandes C± à chacun des postes Pj de préparation de commandes d'un entrepôt de logistique to calculate, for each of the future orders (C ± (P j , t)), the time t of passage of each of the commands C ± to each of the order picking positions P j of a logistics warehouse
- puis à calculer, pour chacun des créneaux temporels Atx et pour chacun des postes Pj, le nombre Nx de commandes C± and then calculating, for each of the time slots At x and for each of the items P j , the number N x of commands C ±
- à appliquer un modèle GSPN (Stochastic Pétri nets) [modèle de Pétri] à l'ensemble des postes Pj, chacune des commandes C± étant représentée par un jeton numérique JN± , en fonction des hypothèses d'injection desdits jetons et du modèle représentatif des traitements réalisés pour la préparation des commandes - puis à mettre en œuvre un système de type « linear hybrid automaton (LHA) » pour déterminer les paramètres dudit modèle numérique prédictif représentatif de l'état futur de la chaîne de traitement de commandes . - to apply a model GSPN (Stochastic Petri net) [Petri dish] to all the positions P j , each of the commands C ± being represented by a digital token JN ± , depending on the injection assumptions of said tokens and the representative model of the treatments carried out for the preparation of orders and then to implement a linear hybrid automaton (LHA) system for determining the parameters of said predictive digital model representative of the future state of the command processing chain.
7 - Procédé automatique pour la visualisation de parcours selon la revendication 6 caractérisé en ce que ladite application de visualisation commande la visualisation dynamique de l'évolution desdits jetons en fonction dudit modèle numérique prédictif . 7 - automatic process for the visualization of course according to claim 6 characterized in that said visualization application controls the dynamic visualization of the evolution of said chips according to said predictive digital model.
8 — Procédé automatique pour la visualisation de parcours selon la revendication 6 caractérisé en ce que qu'il comporte en outre une étape de détermination d'au moins un paramètre du processus de préparation de commande (temps de préparation total, temps de préparation moyen, intervalle de confiance du temps de préparation moyen,...) 8 - automatic process for viewing routes according to claim 6 characterized in that it further comprises a step of determining at least one parameter of the order preparation process (total preparation time, average preparation time, confidence interval of average preparation time, ...)
EP18762370.7A 2017-08-04 2018-08-03 Computer system for displaying the logistical path of entities over time Pending EP3662392A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1757550A FR3069934B1 (en) 2017-08-04 2017-08-04 COMPUTER SYSTEM FOR THE VISUALIZATION OF THE LOGISTIC JOURNEY OF ENTITIES OVER TIME
FR1851477A FR3078185A1 (en) 2018-02-21 2018-02-21 METHOD FOR LOGISTIC CHAIN MANAGEMENT
PCT/FR2018/052014 WO2019025744A1 (en) 2017-08-04 2018-08-03 Computer system for displaying the logistical path of entities over time

Publications (1)

Publication Number Publication Date
EP3662392A1 true EP3662392A1 (en) 2020-06-10

Family

ID=63442719

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18762370.7A Pending EP3662392A1 (en) 2017-08-04 2018-08-03 Computer system for displaying the logistical path of entities over time

Country Status (4)

Country Link
US (1) US20200204954A1 (en)
EP (1) EP3662392A1 (en)
CA (1) CA3071892A1 (en)
WO (1) WO2019025744A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8408459B1 (en) * 2005-01-14 2013-04-02 Brightpoint, Inc. 4PL system and method
US20080306783A1 (en) * 2007-06-05 2008-12-11 Gm Global Technology Operations, Inc. Modeling a supply chain
US20130111430A1 (en) * 2011-10-27 2013-05-02 Yin Wang Providing goods or services
US9483334B2 (en) 2013-01-28 2016-11-01 Rackspace Us, Inc. Methods and systems of predictive monitoring of objects in a distributed network system
WO2015058216A1 (en) * 2013-10-20 2015-04-23 Pneuron Corp. Event-driven data processing system
US10162861B2 (en) 2015-09-04 2018-12-25 Celonis Se Method for the analysis of processes

Also Published As

Publication number Publication date
CA3071892A1 (en) 2019-02-07
WO2019025744A1 (en) 2019-02-07
US20200204954A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
Yang et al. Social media data analytics for business decision making system to competitive analysis
US11627053B2 (en) Continuous data sensing of functional states of networked computing devices to determine efficiency metrics for servicing electronic messages asynchronously
CN106250987B (en) A kind of machine learning method, device and big data platform
US9213983B2 (en) Computing system, method, and non-transitory computer-readable medium for providing a multi-tenant knowledge network
US20170011418A1 (en) System and method for account ingestion
US20180005274A1 (en) Management system for high volume data analytics and data ingestion
CN110268409B (en) Novel nonparametric statistical behavior recognition ecosystem for power fraud detection
US10069891B2 (en) Channel accessible single function micro service data collection process for light analytics
US20150134401A1 (en) In-memory end-to-end process of predictive analytics
WO2019015631A1 (en) Method for generating combined features for machine learning samples and system
EP3051475A1 (en) Data analysis system and method to enable integrated view of customer information
Deka Big data predictive and prescriptive analytics
EP3639190B1 (en) Descriptor learning method for the detection and location of objects in a video
CN111552728B (en) Data processing method, system, terminal and storage medium of block chain
CN112925911B (en) Complaint classification method based on multi-modal data and related equipment thereof
CN114707914A (en) Supply and marketing management center platform system based on SaaS framework
EP3846091A1 (en) Method and system for design of a predictive model
Issac et al. Development and deployment of a big data pipeline for field-based high-throughput cotton phenotyping data
EP3662392A1 (en) Computer system for displaying the logistical path of entities over time
Kumar Big data analytics: an emerging technology
Ivkovic et al. HyperETL: Facilitating Data Analysis of Private Blockchain
FR3104780A1 (en) PROCESS FOR THE AUTOMATIC PRODUCTION OF A DIGITAL MULTIMEDIA REPORT OF AN EXPERTISE OF A CLAIM
Zillner et al. D2. 7 Annual report on opportunities
FR3069934A1 (en) COMPUTER SYSTEM FOR VISUALIZATION OF LOGISTIC COURSE OF ENTITIES IN TIME
US20230123421A1 (en) Capturing Ordinal Historical Dependence in Graphical Event Models with Tree Representations

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200203

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20220323