EP4377768A1 - Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe - Google Patents

Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe

Info

Publication number
EP4377768A1
EP4377768A1 EP22757255.9A EP22757255A EP4377768A1 EP 4377768 A1 EP4377768 A1 EP 4377768A1 EP 22757255 A EP22757255 A EP 22757255A EP 4377768 A1 EP4377768 A1 EP 4377768A1
Authority
EP
European Patent Office
Prior art keywords
behavior
operator
models
data
cognitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22757255.9A
Other languages
German (de)
English (en)
Inventor
Jean-Yves Donnart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of EP4377768A1 publication Critical patent/EP4377768A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Definitions

  • the invention relates to the general field of artificial behavior, and the field of application is that of methods and devices making it possible to generate the behavior of an artificial operator in interaction with a complex system.
  • the technical field addressed by the invention is that which is defined as being that of "human behavior modeling”, inherited from Artificial Intelligence (AI), which seeks to reproduce representative or realistic behavior of people.
  • AI Artificial Intelligence
  • the purpose of the invention is to use this ability to model human behavior to generate the behavior of an artificial operator, in a simulation or during interaction with a real and complex system (for example, a pilot in an airplane, an air traffic controller, an operator in a nuclear power plant, etc.), by reproducing both procedural aspects of the behavior of a human operator but also the cognitive aspects of this behavior.
  • a real and complex system for example, a pilot in an airplane, an air traffic controller, an operator in a nuclear power plant, etc.
  • the automatic learning of cognitive models could be a response to this need, but the only related work in this field concerns the recognition of human behavior where psychological or psychophysiological models (such as vigilance models, mental load management models, etc.) are learned from data collected from real people (e.g. a pilot in an airplane or in a car, an air traffic management or nuclear power plant operator, etc.) , but only to assess the cognitive state of the operator.
  • psychological or psychophysiological models such as vigilance models, mental load management models, etc.
  • the existing solutions are not capable of generating the behavior of an artificial operator in interaction with a complex system which is representative of the behavior of a real operator, including, for example, that of a person acting in a universe as constrained as that of a pilot in his cockpit, because the models used are not sufficiently advanced:
  • US patent application 2003/0167454 A1 by lordanov et al. offers a human behavior simulation solution based on metacognitive processes.
  • the construction of the human behavior model uses expert data in declarative form (for the upper part of the mission breakdown) and machine learning (for the lower part of the behavior).
  • the proposed cognitive architecture only implements symbolic mechanisms. This is a purely symbolic approach according to the definition given in the article “A Survey of Cognitive Architectures in the Past 20 Years” (Peijun Ye et al., IEEE TRANSACTIONS ON CYBERNETICS, IEEE, PISCATAWAY, NJ, USA, vol. 48, no. 12), including learning mechanisms.
  • no information collected with real operators makes it possible to build a model of human behavior or to validate its operation, it is just purely theoretical formal models focused on performance.
  • the proposed device and the human behavior model are based on an Operator Behavior Knowledge Base (BCCO), which was constituted upstream of an execution of the method, and which contains a set of synchronized data collected during interactions of one or more operators with the complex system.
  • BCCO Operator Behavior Knowledge Base
  • a second originality of the device of the invention is to be able to generate behaviors that are truly representative of the interactions of real operators with the complex system considered. By doing so, the generated behavior can be used both in a simulation containing a realistic representation of this complex system, but can also be used to build an artificial operator capable of controlling the real complex system.
  • the proposed device makes it possible to generate the behavior of an artificial operator in interaction with a complex system (for example, that of an airplane pilot), relying not only on the existing procedural regulations, but also on a set of data recorded during the interaction of one or more real operators with this complex system or complex systems of the same nature.
  • the proposed device is capable of integrating into this generation of behavior cognitive aspects such as fatigue, stress or mental load, which will make it possible to represent more human aspects of the behavior of this type of operator and, in particular, the automatic management of situations not explicitly provided for in the procedural rules.
  • the fields of operation of the invention are the fields of activity in which a complex system is controlled and implemented by one or more artificial operators.
  • These business areas include, for example, aeronautical, rail or road transport, the areas of security, the areas of process control, energy, etc.
  • a method for generating the behavior of an artificial operator in interaction with a complex system during a mission, the method being implemented by computer.
  • the instantiated human behavior model for the artificial operator was learned in a learning phase, by applying artificial intelligence techniques to cognitive models and to procedural models using, in numerous simulations, a plurality of training data for different operators, the training data being capitalized in a knowledge base of behavior of operators of complex systems
  • the step of updating the cognitive state of the artificial operator takes into account the current situation which includes data on the situation perceived by the artificial operator and context data of mission and environment.
  • the human behavior model is represented as a hierarchical graph comprising cognitive behavior modules and task modules relative to a mission, the cognitive behavior modules and the task modules being broken down into behavior modules, the behavior modules being broken down into action modules, the actions being elementary actions observable at the level of the artificial operator, the graph comprising an output level corresponding to a selection of elementary actions.
  • the mission decomposition step consists in using on the hierarchical graph the information coming from the current situation and from the parameters of influencing human factors generated by the updated cognitive state.
  • the influencing human factors parameters are used at several levels of the hierarchical graph.
  • the influencing human factors parameters are used at a first level of the graph to determine cognitive behaviors, at a second level of the graph to determine behaviors and actions, and at a third level of the graph to determine a selection of actions.
  • the invention also covers a computer program product comprising code instructions allowing the steps of the claimed method to be carried out, when the program is executed on a computer.
  • the invention further covers, according to the independent device claim, a device for generating the behavior of an artificial operator in interaction with a complex system during a mission.
  • the device of the invention further comprises other means for implementing the steps of the method of the invention.
  • One use of the claimed device is that in the aeronautical field, of the generation of the behavior of an artificial pilot to pilot an aircraft in an aerial simulation or to pilot a drone in the real world.
  • the invention also covers, according to the corresponding independent claim, a method for constructing models of human behavior.
  • the human behavior model makes it possible to model the behavior of an operator both cognitively and procedurally.
  • the process for obtaining the human behavior model is based on an “Operator Behavioral Knowledge Base” (BCCO) and on two distinct models, a cognitive model and a procedural model.
  • BCCO Perator Behavioral Knowledge Base
  • the BCCO makes it possible to record and capitalize on a set of data collected during operator interaction sessions with complex systems (data characterizing the observation, manipulation and communication actions of the operator, data physiological data relating to this operator and contextual data describing the state and dynamics of the complex system, the environment and the context of the mission, to which are added subjective data on the behavior of the operator).
  • a method makes it possible to construct different categories of cognitive models (such as for example a mental load model), from the data recorded in the BCCO, using artificial intelligence techniques for automatic learning.
  • a cognitive model such as for example a mental load model
  • Those skilled in the art will apply the same principles to construct any other cognitive model corresponding to other aspects of the cognitive state of operators in interaction with a given complex system. These models will be extended to be able to automatically simulate the evolution of the cognitive state of the operator.
  • the solution consists of a modeling process making it possible to build a database of human behavior models of operators and a behavior generation device which relies on this database to allow the generation of operator behavior artificial.
  • the human behavior models of the operators are constructed by joining cognitive models and procedural models. Each model of human behavior corresponds to a given operator (or a class of operators) on a given complex system. [0050] The method of constructing this new category of model implements:
  • the behavior generation engine makes it possible to select the actions of an artificial operator in interaction with a complex system in a simulation or with a real complex system, by:
  • the advantages of the device of the invention are to combine in the behavior model used for the generation of the behavior, both objective data corresponding to the procedures for using the complex system, and subjective data corresponding to the cognitive state of the represented operator.
  • the behavior that is generated can strictly follow precise and regulated procedures when the situation is nominal, as would artificial agents in a traditional simulation. But instead of using specific rules to take into account exceptional situations, the simulation of the cognitive state of the artificial operator makes it possible to trigger behaviors more representative of what a real operator would do in this type of situation.
  • the integration of human factors in the decision-making of the artificial operator makes it possible to select procedural behaviors which take into account the cognitive state of the operator represented and, conversely, to generate cognitive behaviors that take into account the progress of the current task or mission.
  • the behavior generation engine that is proposed must make it possible to model what could be called a digital twin to an operator real allowing to control the real complex system with which it is in interaction.
  • the objective of the invention is to generate an artificial behavior as close as possible to that of real operators, by constructing a digital twin of a real operator, or of a class of real operators, but limited to behavior generation.
  • FIG.1 schematically illustrates for the example of a pilot, the cognitive model modeling phase and the model execution phase to assess the cognitive state of a pilot;
  • FIG.2 schematically illustrates how the procedural model modeling phase and the model execution phase to generate the behavior of a virtual pilot in a constructive simulation
  • FIG.3 illustrates the steps for constructing a model of human behavior according to the invention, on the example of a pilot
  • FIG.4 schematically illustrates an environment for implementing the method of generating the behavior of an artificial operator of the invention
  • FIG.5 illustrates a sequence of steps of the method of the invention for generating the behavior of an artificial operator
  • FIG.6 illustrates an example of implementation of the underlying structure of the model of human behavior of the invention.
  • FIG.7 illustrates an example of generation of the behavior of an artificial aircraft pilot, based on the hierarchical structure of Figure 6.
  • - Artificial operator device / component representing an individual, a subject, a real person, i.e. a human, which in the context of the invention is in interaction (i.e. to drive, control, activate, operate, act on) with a system complex.
  • the operator artificial or real
  • the operator is a pilot, and either term can be used without distinction.
  • Complex system system comprising many devices with which an operator (artificial or real) must interact, and which can mobilize on the part of the real operator a more or less significant involvement in his manipulation time as well as in his mental workload .
  • the complex system is an aircraft cockpit.
  • Behavioral models are used by constructive simulations and by video games to animate the behavior of actors not played by the trainee, the player or, more generally, the operator of this type of application. These models make it possible to generate the behavior of artificial actors who will carry out tasks or missions within the framework of a predefined scenario.
  • the behavior models are procedural, that is to say that the behavior generated corresponds to a sequence of pre-recorded actions, generally organized in the form of a graph or by a set of “Conditions-> Actions” rules, activated according to the perceptions of the actor in his environment.
  • Procedural behavior models are generally developed by hand by an expert in the field (a “game-designer” for games) in a procedural form (graph, tree structure, etc.) to model the various possible sequences of the progress of a mission.
  • MCH modeling human behavior
  • human behavior is characterized by the involvement of the cognitive state in decision-making. In doing so, the behavior of a human being is not only much richer than that of any automaton, but it is also much less predictable since an outside observer generally does not have access to the cognitive state of the person observed, unless it is possible to deduce a part of this hidden state by the expression of his face, by his posture or by any other indicator of his physiological state.
  • the psychophysiological models are models resulting from the meeting between studies in psychology and physiology which make it possible to make the link between the cognitive state of a person and its observable physiological manifestations. Nico Frijda's model of emotions is a good example;
  • - biomimetic models are models that biologists use to reproduce in simulation behaviors observed in living organisms (this is the case, for example, of the motivation model of the ethologist David McFarland) or that computer scientists use to create algorithms for intelligence by drawing inspiration from living things (this is the case, for example, of Toby Tyrrell's motivation model).
  • FH1 a first level where human factors can trigger a new behavior, for example to satisfy a motivation or to respond to a certain emotion
  • the analysis of human factors is based on the production and use of cognitive models, the purpose of which is to evaluate, for each of these models, an aspect of the cognitive state of the observed person.
  • a cognitive model (such as, for example, vigilance or mental workload) makes it possible to evaluate different aspects of the cognitive state of the supervised operator.
  • a cognitive model to assess the mental load of a helicopter pilot in the context of a mission carried out in a simulator, was produced from data collected during several exercises where the simulator and the pilot were instrumented .
  • the present invention includes a modeling method which makes it possible to construct a database of human behavior models and it relates to a device for generating the behavior of an artificial operator which is based on this database. data.
  • the models of human behavior are constructed according to a method which combines cognitive models and procedural models of behavior.
  • Each model of human behavior corresponds to a given operator and/or to a class of operators, for a given complex system.
  • BCCO Perator Behavior Knowledge Base
  • BCCP Pilot Behavior Knowledge Base
  • the BCCO can be carried out, initially, from data resulting from experiments on instrumented simulators of the complex system, which facilitates both their collection and their subsequent saving.
  • cognitive models of pilots have been built from data collected on civil aircraft simulators.
  • the Operator Behavior Knowledge Base is enriched and supplemented over time in order to be able to refine the models and, in particular, those which are used for the generation of the behavior of an artificial operator.
  • the BCCO is composed of data of different natures recorded, by appropriate sensors, synchronously such as:
  • system environment data for example the weather or the position of other aircraft if the operator is an airplane pilot
  • inter/intra personal and inter/intra operational variability processing can be applied to the data in order to group them, and allow the construction of more generic models (i.e. not linked to a single operator).
  • Figure 1 schematically illustrates for the example of a pilot, how the cognitive models (102) are developed (Modeling Phase) and how these models are used (Execution Phase) to evaluate (120) the cognitive state of a pilot, using data from a "Pilot Behavioral Knowledge Base” (BCCP) (104) grouping together over numerous flight sessions, operational or simulated, data (106) recorded on the behavior of the pilot: actions of the pilot (actions of observation from outside the cockpit and the instruments, actions of manipulation on the controls and the instruments of the aircraft, actions of communication); physiological parameters recorded by biometric sensors; contextual information on the state and dynamics of the complex system (the aircraft), on the environment (weather, other actors/tactics/traffic, ...), on the pilot's mission (plan and flight phases for example ) or on more subjective information on its behavior (observation, declaration, annotation, qualification, ).
  • BCCP Packet Behavioral Knowledge Base
  • the cognitive models are developed by artificial intelligence techniques for learning, from data (108) collected during several exercises where the complex system and the operator are instrumented (110), for example in a aircraft simulator instrumented for this purpose. Exercises corresponding to realistic and productive scenarios with operational and cognitive variations are carried out.
  • the data collected which includes objective data (sensor measurements; simulator probe; scenario) and subjective data (self-assessment; external expertise) is synchronized, and provided to the Knowledge Base of Behavior of Drivers, or more generally of Operators (104).
  • the data collected are inputs from an execution engine (114) which instantiates the appropriate cognitive model (102) in order to deliver information (120) representative the cognitive state of the pilot/operator.
  • Constant behavior models or “procedural models” are used by constructive simulations to generate the behavior of each actor not played by the trainee or by the instructor, and to allow this actor to carry out his mission according to the situation he perceives.
  • the behavior models are procedural, that is to say that the behavior generated corresponds to a sequence of pre-recorded actions, generally organized in the form of a graph or by a set of “Conditions-> Actions” rules, activated according to the perceptions of the actor in his environment.
  • Procedural models are generally developed by hand by an expert in a procedural form (with a representation in graph, tree structure, etc.), to model the various possible sequences of the progress of a mission. These procedural models can be constructed live by the trainee or instructor during the exercise, or they can be constructed by a modeler and saved in a database to be reused during the course of the exercise.
  • FIG. 2 schematically illustrates how procedural models (202) are developed (Modeling Phase) and how these models are used (Execution Phase) to generate (220) the behavior of artificial actors in a constructive simulation.
  • the modeling phase makes it possible to construct procedural models using, as a reference for learning a more general behavior than that proposed by operational experts (212), the data recorded in a “Pilot Behavior Knowledge Base” ( BCCP) (204) grouping over numerous flight sessions, operational or simulated, data (206) recorded on the behavior of the pilot: actions of the pilot (actions of observation from outside the cockpit and instruments, manipulation actions on aircraft controls and instruments, communication actions); settings physiological data recorded by biometric sensors; contextual information on the state and dynamics of the complex system (the aircraft), on the environment (weather, other actors/tactics/traffic, etc.), on the pilot's mission (flight plan and phases for example) or on more subjective information on its behavior (observation, declaration, annotation, qualification, ).
  • BCCP Packet Behavior Knowledge Base
  • the procedural models (202) are instantiated in the behavior engine of a constructive simulation (214) with the data of a simulation (208, 210) to generate (220) representative information the behavior of the artificial pilot.
  • the models of human behavior developed by the inventors are models increasing the procedural models of parameters originating from the modeling of the cognitive state of the operator and the evolution of this cognitive state according to the evolution of the perceived situation, by contextual data and by actions carried out so far by the operator.
  • the models of the two categories of known models are combined in a single and unique modeling structure.
  • the learning of new models of human behavior is based on each of these two categories by integrating both procedural components and cognitive components of decision-making.
  • FIG. 3 schematically and synthetically illustrates the process of constructing a model of human behavior (300) according to the invention, on the example of a pilot.
  • the first step consists in constructing a behavior knowledge base of the BCCP pilots (302) (or more generally, a knowledge base of the behavior of the BCCO operators of an application concerned).
  • the database is built with data collected (304) during the execution of numerous exercises involving different pilots (or operators of the application concerned), in interaction with a complex system (306) (here, pilots in their aircraft).
  • the data collected characterizes the operator's observation, manipulation and communication actions, physiological data relating to the operator and contextual data grouping together data on the state and dynamics of the complex system, environment, and data relating to the context of the mission, and possibly, subjective data on the behavior of the operator.
  • This collected data can then be used by the behavior generation engine.
  • the Pilot Behavior Knowledge Base (302) is used to build a database of cognitive models (308) with the help of medical experts and using learning algorithms 6.
  • modellers (310) helped by operational experts (here, experienced pilots) define and build the structure of the procedural models (312) which are then adapted by techniques learning by using the data from the BCCP (302), to constitute databases of procedural models which are specific to each operator or each category of operators.
  • the data recorded in the BCCO are therefore used to characterize the behavioral choices of the operators by constructing models of different human behavior for each individual operator (or for categories of operators similar in their behavior).
  • the model of human behavior which is learned and instantiated for an operator, is used, in operating mode, to initialize a behavior generation engine which, from the input data characterizing the current situation of the artificial operator, is capable of outputting behavior and actions analogous to those that a real operator would perform in this situation.
  • Figure 4 schematically illustrates an environment for performing the method of the invention.
  • the example is illustrated for an aeronautical environment with a view to applying the process for generating the behavior of an artificial operator to an artificial pilot.
  • those skilled in the art can apply the principles described to any other environment as mentioned above, such as industry and rail or road transport, the fields of security, the fields of process control, etc. and for any artificial operator.
  • the method of the invention makes it possible, for the example described, to generate the behavior of an artificial pilot (408) which behaves like the pilot or the class of pilots which served as its model, and this, not not by applying the flight procedures in an optimal way, but by exhibiting behavior representative of the behavior of a real pilot.
  • a direct use is to be able to reproduce in a simulation the behavior of real pilots so as to increase the realism of this simulation, which can be interesting just as much for training needs as for study needs.
  • a concrete application for aeronautics would be the piloting of a drone plane by an artificial pilot who would behave similarly to a real pilot whose data would have been recorded in the BCCP.
  • the goal is not to give a drone a behavior that could be described as optimal but to give it a behavior as close as possible to that of a human, therefore easier to be understood from the point of view of human-machine relations.
  • Extensions of application of the invention can be the constitution of robotic wingmen or a flotilla of drones which would help the pilots of the new generation fighter planes to carry out their mission.
  • the generation of the behavior of an artificial actor in a constructive simulation operates in a closed loop with the rest of the simulation.
  • the artificial actor i.e. the hardware/software component
  • receives from the simulation module an update of the current situation which will enable it to make decisions and select the actions of the actors for which it has control. control, these actions having in turn consequences on the evolution of the situation at the following time step.
  • the human behavior models (300), results of the learning which has been described above, are instantiated in a behavior generation engine (406) using the personal data of the operator represented (here a pilot) and the mission given to him; - At each time step, the generation engine (406) will update the cognitive state of the artificial operator according to its current situation (404).
  • the common situation includes:
  • the engine breaks down the mission into a tree structure of tasks and behaviors using information from the current situation and human factors generated by its cognitive state;
  • the behavior generation engine proposes new actions for the artificial operator which will not only have an influence on the state of the complex system with which the artificial operator is interacting but also an influence on the evolution of his cognitive state.
  • the context data can include information on the state of the complex system (ie information on states inherent in normal operation, such as for example a percentage of engine power, whether the fins are folded or unfolded , the state of the fuel tanks, etc., and information on states inherent in abnormal operation, such as for example the information that the left engine is faulty, the right pedal of the copilot's seat is faulty, or any kind of potential failure).
  • the context data may include flight data such as: route, altitude, speed, acceleration, attitude and envelope.
  • aircraft parameters can be taken into account, such as: date of last maintenance, in-flight events, etc.
  • the device of the invention comprises calculation resources or data processing module (406) configured to implement the engine for generating the behavior of an artificial actor, with the situation data collected.
  • FIG. 5 illustrates a sequence of steps in the method of the invention for generating the behavior of an artificial operator in interaction with a complex system.
  • the method (500) is computer-implemented and includes steps of:
  • - (504) using the retrieved data as input to the behavior generation engine to update the cognitive state of the artificial operator and the progress of the tasks with respect to the mission (i.e. according to the mission scenario that has been defined for constructive simulation); - (506) from the updates, break down the mission into new tasks and behaviors; And
  • the method implements a human behavior model (300) modeling the behavior of the represented operator, both cognitively and procedurally.
  • the human behavior model which is instantiated for this operator was learned in the learning phase (previously described), by the application of artificial intelligence techniques on cognitive models and on procedural models, with data capitalized in a knowledge base of the behavior of operators of complex systems.
  • FIG. 6 illustrates an example of implementation of the underlying structure of the human behavior model of the invention which makes it possible to instantiate, via the behavior generation engine, the behavior model of an operator represented , this behavior model for this operator having been obtained from human behavior models constructed by learning using a knowledge base of operator behavior (BCCO).
  • BCCO knowledge base of operator behavior
  • This state is initialized and updated thanks to the models of evolution of the cognitive state which are constructed from the cognitive models described above.
  • the current cognitive state of an artificial operator is evaluated from different components Ei which represent as many psychophysiological models characterizing the evolution of the cognitive state of this operator according to the evolution of the current situation and actions he performs.
  • the components E1, E2 and E3 in FIG. 6 can represent, for an artificial pilot, an evaluation of his stress (E1) from a cognitive model of stress evolution, an evaluation of his vigilance ( E2) from a cognitive model of evolution of vigilance, an evaluation of his mental workload (E3) from a cognitive model of evolution of mental workload.
  • a cognitive behavior CCi of the operator can be triggered by a certain configuration of the state of the operator. This behavior corresponds to a first-level influence of human factors (represented by the arrow FH1 ), i.e. a level where human factors can trigger a new behavior.
  • FH1 human factors
  • the evolution of the cognitive state of an artificial pilot showing a very low level of his vigilance can generate a cognitive behavior which is the falling asleep of the pilot.
  • a cognitive behavior is not necessarily elementary, and it can be broken down into a plurality of simpler behaviors Ci (for example the behavior modules C1 to C3).
  • the behaviors Ci can themselves each be broken down into a plurality of observable elementary actions Ai of the operator (for example the action modules A1 to A5).
  • the whole of this hierarchical structure (Ci; Ai) of the cognitive behavior model can be the result of automatic learning, combined with expertise on cognitive models.
  • the right part of the figure represents the structure associated with the constructive behavior models:
  • the operator has one or more missions.
  • Each of these missions can be broken down hierarchically into a plurality of procedural tasks Tj (for example the task modules T1, T2, T3), which, themselves, can each be broken down into behaviors (for example the behavior modules C3 to C7).
  • the behaviors Cj can themselves each be broken down into a plurality of observable elementary actions Aj of the operator (for example the action modules A1 to A5) that he can carry out to carry out the mission.
  • the hierarchical structure (Tj; Cj; Aj) of procedural behaviors can be the result of automatic learning, combined with doctrinal knowledge from an operational expert.
  • the human behavior model of the invention establishes links between the cognitive behavior models and the procedural models (constructive behavior models), according to the hierarchical structure of the behavioral tree and of the mission tree. .
  • These links illustrated in Figure 6 by all the interconnections between the different hierarchical levels of two categories of models), make it possible to arrive at a representation of the behavior of an operator in all its components (cognitive and procedural).
  • a first level of interconnection is the possibility of having behavior modules (Ci, Cj) which are common in the tree structure, these behavior modules behavior that can be activated either by a cognitive behavior, or by a task of a mission, or by both simultaneously.
  • FIG. 6 illustrates that the behavior module C3 is a common behavior module.
  • the behavior module C3 comes from a cognitive behavior CCi and it also comes from the breakdown of the task referenced in the task module T 1.
  • behavior modules which are common to both models can be activated either by a cognitive behavior, or by a task of a mission, or by both simultaneously (and then propose a compromise behavior).
  • a second level of interconnection corresponds to the second level of influence of human factors (FH2), i.e. the level where human factors can influence the choice between several ways of carrying out a given behavior.
  • the principle consists in using the cognitive state of the operator to influence the decomposition of tasks Tj or the decomposition of behaviors (Ci, Cj) of the mission tree. For example, a stressed state of the artificial operator can increase the weight in the behavior tree of more cautious behavior.
  • a third level of interconnection is at the level of the triggering of actions. Indeed, the two behavioral hierarchies (cognitive; procedural) are necessarily in competition at this level.
  • Each action module (Ai, Aj) can be activated by a module of the cognitive tree, by a module of the mission tree or by both at the same time.
  • the parameters of human factors influencing the determination of behaviors and actions of the operator are used at several levels of the hierarchical graph.
  • the influencing human factors parameters are used at a first level of the graph to determine cognitive behaviors, at a second level of the graph to determine behaviors and actions, and at a third level of the graph to determine the selection of actions that must be generated.
  • FIG. 6 illustrates for example that the action module A1 is common to the behavior module C1 resulting from the decomposition of a behavior cognitive and behavioral module C4 resulting from the decomposition of the task module (T1 and/or T2).
  • the last level of the tree structure is that of the selection of actions (illustrated at the bottom of figure 6).
  • This level operates according to the known principle of actuators.
  • Each action is represented by a combination of one or more actuators (Actul , Actu2 and Actu3). This determines the possibility of excluding simultaneous actions but also of carrying out several actions simultaneously.
  • the example for a military pilot is that he cannot look at his instruments and outside his cockpit at the same time. On the other hand, he can very well perform one of these two actions and press the trigger of his cannon at the same time.
  • the human behavior model of the invention involves, on this last level of the tree structure, the last level (FH3) of influence of human factors on behavior (illustrated by the arrow FH3 in figure 6), i.e. the level where human factors can have an influence on the efficiency with which actions will be carried out.
  • the cognitive state of the artificial operator can alter the efficiency of the actuators, thus limiting the performance of the selected actions.
  • the cognitive state is then taken into account for the selection of actions. For example, a tremor of the hands due to stress or the phenomenon of tunneling which limits the field of vision, can be modeled and taken into account in the selection of the actions made by the model.
  • the end result of this process is the generation of the behavior of the artificial operator and, in particular, of the new actions that this operator will perform in the simulation.
  • This generation of behavior can also have an indirect consequence on the future behavior of the artificial operator and on his simulated cognitive state. Indeed, the actions that are performed in the simulation environment and in particular on the complex system can lead to a modification of the latter and therefore modify the situation that the artificial operator will perceive.
  • Figure 7 illustrates an example of operation of the engine for generating the behavior of an artificial operator with the generation of the behavior of a pilot in an aerial simulation, based on the hierarchical structure of Figure 6.
  • the behavior generation engine will allow the procedures that a real pilot should follow during the different stages of this flight phase, ranging from alignment on the departure runway to the initial climb, to be rolled out.
  • a pilot who is not very concentrated may present on takeoff an absence of vigilance which may cause him to continue his “Acceleration” as if nothing had happened.
  • the vigilance of the pilot can influence his procedural behavior for the mission in progress (human factor of influence FH2).
  • FH2 human factor of influence
  • an experienced and concentrated pilot will maintain a high level of vigilance while keeping his stress level fairly low, which will probably lead him to choose one of the two behaviors "Slowdown" or "Maintain Speed" to allow him to let pass the flock of birds before resuming the course of its takeoff.
  • the elementary actions of the artificial pilot can, for example, be a braking action, an external monitoring action, an instrument monitoring action.
  • the effective performance of the actions selected by the pilot involves the use of actuators (hands, feet, eyes) whose effectiveness can also be reduced by an abnormal level of the pilot's state (human factor influence FH3).
  • the learned human behavior model must enable the behavior generation engine not only to select the actions that will actually be carried out by the artificial pilot in the simulation, but also must allow the realization of this behavior to be consistent with the characteristics of the pilot being simulated.
  • the device and the method of the invention are advantageous for all systems involving the modeling and simulation of the behavior of human operators in interaction with a complex system.
  • Many industrial applications will find advantages in the implementation of the device and of the method of the invention, and they relate to all possible simulations involving an operator and a complex system where the double need for operational and human realism is important.
  • the exploitation of the invention may relate to:
  • This database is created using automatic learning from data recorded in a knowledge base of operator behavior during interaction sessions of a cohort of operators with the complex system under study.
  • a device making it possible to generate the behavior of an artificial operator in interaction with a complex system and, in particular to simulate the evolution of its cognitive state, by using the data coming from a simulation environment containing an advanced model of the complex system or a real environment containing the real system.
  • the device is based on the database of human behavior models of operators which has been created, to produce advanced constructive models, benefiting from the modeling of the cognitive state of this operator.
  • the present invention constitutes a new way of understanding the modeling of the behavior of an operator or of a class of operators by automatic learning which is capable of exploiting both expert data characterizing in a procedural way the behavior of this operator or this class of operators, and real data coming from the recording in situation of interaction of the behavior of this operator or this class of operators with the complex system studied .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Feedback Control In General (AREA)

Abstract

L'invention concerne un dispositif et un procédé mis en oeuvre par ordinateur, permettant de générer un comportement d'un opérateur artificiel en interaction avec un système complexe au cours d'une mission.

Description

DESCRIPTION
Titre de l’invention : PROCEDE ET DISPOSITIF DE GENERATION DU COMPORTEMENT D’UN OPERATEUR ARTIFICIEL EN INTERACTION AVEC UN SYSTEME COMPLEXE
[0001] L’invention concerne le domaine général du comportement artificiel, et le domaine d’application est celui des procédés et dispositifs permettant de générer le comportement d’un opérateur artificiel en interaction avec un système complexe.
[0002] L’invention se situe à la frontière entre deux domaines techniques :
- celui de la modélisation du comportement, qui permet d’animer des acteurs d’une simulation constructive ou des personnages non joueurs dans un jeu vidéo, en les dotant de comportements programmables ; et
- celui de l’analyse du comportement humain, que l’on appelle aussi souvent « analyse des facteurs humains », qui permet d’analyser les actions d’une personne en utilisant des modèles cognitifs pour pouvoir expliquer ses actions.
[0003] Le domaine technique adressé par l’invention est celui que l’on définit comme étant celui de la « modélisation du comportement humain », hérité de l’Intelligence Artificielle (IA), qui cherche à reproduire un comportement représentatif ou réaliste de personnes.
[0004] La finalité de l’invention est d’utiliser cette capacité de modélisation du comportement humain pour générer le comportement d’un opérateur artificiel, dans une simulation ou lors d’interaction avec un système réel et complexe (par exemple, un pilote dans un avion, un contrôleur aérien, un opérateur dans une centrale nucléaire, etc.), en reproduisant à la fois des aspects procéduraux du comportement d’un opérateur humain mais aussi les aspects cognitifs de ce comportement.
[0005] Le problème technique adressé par la présente invention est celui de comment construire un dispositif (et un procédé associé) qui permet de générer le comportement d’un opérateur artificiel en interaction avec un système complexe (par exemple un pilote artificiel dans son avion) à partir de la collecte de données de comportement d’un ou plusieurs opérateurs réels sur des systèmes de même nature, et à partir de modèles qui sont déduits de l’analyse de l’ensemble de ces données (par exemple, l’invention permet de générer le comportement d’un pilote artificiel en utilisant des modèles créés à partir des données récoltées lors de vols réels ou simulés).
[0006] Il existe de nombreuses techniques d’intelligence Artificielle qui permettent de générer le comportement d’un agent artificiel dans une simulation. La plupart de ces techniques reposent sur l’utilisation de techniques formelles (arbres comportementaux, graphes d’états, systèmes à base de règles, etc.) qui permettent de reproduire, de manière simple mais limitée, le comportement d’une personne réelle ainsi que ses interactions avec les systèmes ou acteurs présents dans l’environnement qui est simulé.
[0007] On retrouve ce type de génération de comportement, notamment, dans les jeux vidéo ou dans certaines simulations civiles ou militaires. Dans ces deux catégories d’applications, il s’agit de reproduire une scène du jeu, ou une situation opérationnelle, en générant le comportement que les acteurs sont sensés adopter dans cette scène ou dans cette situation à partir d’un scénario donné. Le rôle du modélisateur consiste alors à coder les séquences d’actions de chacun des acteurs sans pouvoir préciser les raisons pour lesquelles ces acteurs prendraient ce type de décision dans la vie réelle.
[0008] Le comportement généré est alors qualifié de scénarisé (ou scripté), dans la mesure où il ne fait que reproduire des suites d’actions et d’interactions prédéterminées par un expert (par exemple un « game designer » pour un jeu vidéo). Les algorithmes d’intelligence Artificielle correspondants sont parfaitement adaptés pour générer le comportement d’un ensemble d’acteurs artificiels interagissant les uns avec les autres comme dans un film mais ils ont plus de difficulté pour générer des comportements réalistes lorsqu’il s’agit d’interagir avec des acteurs de la simulation contrôlés par des personnes réelles.
[0009] Dans ce dernier cas, les actions des agents artificiels sont souvent qualifiées par un observateur extérieur de :
- « Stupides » car le comportement généré ne prend pas en compte le contexte général que voit l’observateur ou n’est pas cohérent dans la durée ;
- « Robotisées » car le comportement généré applique des procédures prédéterminées comme le ferait un robot et non un comportement adapté à la situation comme le ferait l’humain que l’agent artificiel contrôlé par IΊA est censé représenter.
[0010] La solution la plus simple et la plus utilisée pour répondre à ces deux critiques est de limiter le nombre et la nature des interactions à celles qui ont été explicitement codées par l’expert. Cette solution est bien évidemment très limitative en termes de simulation comportementale et ne peut pas s’appliquer à la génération du comportement d’un opérateur artificiel à un système complexe, du fait même de la quantité de situations que peut générer un tel système.
[0011] Une meilleure solution pour répondre à la première critique (comportement stupide) et obtenir un comportement plus cohérent, est l’apprentissage automatique.
Il s’agit d’apprendre des réactions génériques à l’ensemble des situations que l’opérateur artificiel va potentiellement rencontrer.
[0012] Cet apprentissage est possible car l’ensemble des informations nécessaires pour construire les règles de comportements sont parfaitement observables (conditions d’activation des règles et actions réalisées dans l’environnement) ou déductibles de l’observation (données mémorisées, états intermédiaires entre deux transitions, etc.).
[0013] Le rôle de l’expert intervient alors en amont, par exemple, pour :
- Structurer l’organisation des comportements (par exemple : apprentissage génétique d’arborescence en logique floue) ;
- Simplifier les données en entrée (par exemple : apprentissage d’arbres comportementaux) ;
- Définir les expériences à enregistrer (par exemple : apprentissage par cas).
[0014] En revanche, ces comportements appris, tout optimisés qu’ils puissent être, ne répondent pas à la deuxième critique (comportement robotisé) car les comportements appris sont uniquement procéduraux. Ce type de modèle est parfaitement indiqué pour générer un comportement optimisé mais stéréotypé, mais il ne permet pas de générer le comportement d’un humain qui, par nature, utilise des paramètres internes non directement observables de l’extérieur dans ses processus de décision. [0015] Pour répondre à la deuxième critique, il existe des modèles académiques, inspirés de la psychologie ou des sciences du vivant, qui prennent en compte les aspects cognitifs dans la modélisation du comportement (par exemple : le modèle BDI de Michael Bratman, le modèle des émotions de Nico Frijda, le modèle des motivations de David McFarland, etc.). Ces modèles, purement formels, peuvent être utilisés pour générer un comportement qui, par bien des aspects, peut paraître humain, mais peine à représenter un comportement plus complexe que de simples réactions à des stimuli extérieurs, même s’ils modélisent pour ce faire un état interne de l’acteur simulé.
[0016] A nouveau, l’apprentissage automatique de modèles cognitifs pourrait être une réponse à ce besoin, mais les seuls travaux proches dans ce domaine concernent la reconnaissance du comportement humain où des modèles psychologiques ou psychophysiologiques (tels que des modèles de vigilance, des modèles de gestion de la charge mentale, etc.) sont appris à partir de données collectées sur de vraies personnes (par exemple un pilote dans un avion ou dans une voiture, un opérateur de gestion du trafic aérien ou de centrale nucléaire, etc.), mais uniquement pour évaluer l’état cognitif de l’opérateur.
[0017] En effet, en reprenant l’exemple d’un pilote d’avion, la problématique est qu’il existe une grande diversité dans le comportement de différents pilotes. Confronté à un scénario en tout point identique, chaque individu ne suit pas à la lettre les procédures de vol, comme le ferait un robot, mais adopte un comportement différent en fonction de son expérience, de son état cognitif et, plus généralement, de la manière dont il évalue la situation courante.
[0018] Ainsi, les solutions existantes ne sont pas capables de générer le comportement d’un opérateur artificiel en interaction avec un système complexe qui soit représentatif du comportement d’un opérateur réel, y compris, par exemple, celui d’une personne agissant dans un univers aussi contraint que celui d’un pilote dans son cockpit, car les modèles utilisés ne sont pas suffisamment évolués :
- il manque aux modèles de comportement utilisés dans les simulations constructives ou les jeux vidéo, une représentation suffisamment réaliste de l’état cognitif des acteurs simulés, qui permettrait la génération d’un comportement plus humain et donc plus proche du comportement observé d’un pilote ; et - les modèles cognitifs qui sont utilisés pour évaluer le comportement d’un opérateur en interaction avec un système complexe, comme par exemple un pilote dans son aéronef, sont une bonne piste pour pouvoir simuler l’état cognitif d’un opérateur artificiel, mais ils ne sont pas suffisants pour pouvoir simuler son comportement dans son ensemble.
[0019] Aussi, aucune solution connue ne propose un dispositif permettant de générer le comportement complet d’un opérateur artificiel en interaction avec un système complexe, c’est-à-dire incluant à la fois les aspects procéduraux et cognitifs de ce comportement à partir de données provenant d’opérateurs réels.
[0020] La demande de brevet US 2003/0167454 A1 de lordanov et al. propose une solution de simulation de comportement humain basée sur des processus métacognitifs. La construction du modèle de comportement humain met en oeuvre des données expertes sous forme déclarative (pour la partie haute de la décomposition de la mission) et un apprentissage machine (pour la partie basse du comportement). Cependant, l’architecture cognitive proposée ne met en oeuvre que des mécanismes symboliques. Il s’agit d’une approche purement symbolique selon la définition donnée dans l’article « A Survey of Cognitive Architectures in the Past 20 Years » (Peijun Ye et al., IEEE TRANSACTIONS ON CYBERNETICS, IEEE, PISCATAWAY, NJ, USA, vol. 48, no. 12), y compris pour les mécanismes d’apprentissage. Par ailleurs, aucune information collectée avec de vrais opérateurs ne permet de construire un modèle de comportement humain ou de valider son fonctionnement, il s’agit juste de modèles formels purement théoriques et centrés sur la performance.
[0021] Il n’existe pas de solution connue qui utilise l’apprentissage automatique pour modéliser le comportement de ce type d’opérateur en prenant en compte à la fois les aspects procéduraux et cognitifs de ce comportement.
[0022] Un objet de l’invention est de répondre aux besoins précités et de pallier les inconvénients des solutions et techniques existantes.
[0023] Le principe général de l’invention consiste à mettre en oeuvre dans un dispositif de génération du comportement d’un opérateur artificiel, un « moteur de génération du comportement » qui instancie un modèle qui est défini par les inventeurs comme un « modèle de comportement humain de l’opérateur », afin de générer le comportement d’un opérateur artificiel en interaction avec un système complexe donné.
[0024] Le dispositif proposé et le modèle de comportement humain s’appuient sur une Base de Connaissances de Comportement d’Opérateurs (BCCO), qui a été constituée en amont d’une exécution du procédé, et qui contient un ensemble de données synchronisées collectées pendant des interactions d’un ou plusieurs opérateurs avec le système complexe.
[0025] Plusieurs modules d’intelligence Artificielle, mêlant à la fois des algorithmes d’apprentissage automatique et des méthodes formelles exploitant une expertise métier, permettent de construire de manière itérative un modèle de comportement humain de l’opérateur, c’est-à-dire un modèle capable non seulement de reproduire le comportement procédural de l’opérateur mais aussi de prendre en compte les facteurs humains qui peuvent entrer dans sa prise de décision.
[0026] Une première originalité du dispositif de l’invention par rapport à l’existant, concerne la prise en compte dans le moteur de génération de comportement des deux catégories de facteurs qui influent sur la décision humaine, à savoir les aspects procéduraux (suivre un plan, respecter les règles, etc.) et les aspects cognitifs (le stress, la charge mentale, la fatigue, etc.).
[0027] Une seconde originalité du dispositif de l’invention est de pouvoir générer des comportements véritablement représentatifs des interactions de vrais opérateurs avec le système complexe considéré. Ce faisant, le comportement généré peut être utilisé à la fois dans une simulation contenant une représentation réaliste de ce système complexe, mais peut aussi être utilisé pour construire un opérateur artificiel capable de contrôler le vrai système complexe.
[0028] Pour reprendre l’exemple du pilote d’avion, il s’agira d’exploiter à la fois les règles et procédures de vol, mais aussi les données collectées sur un ensemble de pilotes d’avion (en simulateur ou en opération réelle) pour construire un modèle de comportement humain de ces pilotes d’avion, et d’exploiter ce modèle pour générer le comportement d’un pilote artificiel en simulateur, puis au commande de l’avion réel.
[0029] Le dispositif proposé permet de générer le comportement d’un opérateur artificiel en interaction avec un système complexe (par exemple, celui d’un pilote d’avion), en s’appuyant non seulement sur les règlements de procédure existants, mais aussi sur un ensemble des données enregistrées pendant l’interaction d’un ou de plusieurs opérateurs réels avec ce système complexe ou des systèmes complexes de même nature.
[0030] Ainsi, au lieu de représenter uniquement les aspects procéduraux du travail de l’opérateur, ce qui donne immanquablement au comportement généré, un aspect robotique et donc très peu réaliste, le dispositif proposé est capable d’intégrer dans cette génération de comportement des aspects cognitifs tels que la fatigue, le stress ou la charge mentale, qui vont permettre de représenter des aspects plus humains du comportement de ce type d’opérateur et, en particulier, la gestion automatique de situations non explicitement prévues dans les règles procédurales.
[0031] Les domaines d’exploitation de l’invention sont les domaines d’activité dans lesquels un système complexe est contrôlé et mis en oeuvre par un ou plusieurs opérateurs artificiels. Ces domaines métiers comportent par exemple le transport aéronautique, ferroviaire, ou routier, les domaines de la sécurité, les domaines du contrôle de processus, de l’énergie, etc.
[0032] Pour obtenir les résultats recherchés, il est proposé selon la revendication indépendante, un procédé de génération du comportement d’un opérateur artificiel en interaction avec un système complexe au cours d’une mission, le procédé étant mis en oeuvre par ordinateur.
[0033] Le modèle de comportement humain instancié pour l’opérateur artificiel a été appris dans une phase d’apprentissage, par l’application de techniques d’intelligence artificielle sur des modèles cognitifs et sur des modèles procéduraux utilisant, sur de nombreuses simulations, une pluralité de données d’apprentissage pour différents opérateurs, les données d’apprentissage étant capitalisées dans une base de connaissances de comportement d’opérateurs de systèmes complexes
[0034] Dans un mode de réalisation, l’étape de mise à jour de l’état cognitif de l’opérateur artificiel prend en compte la situation courante qui comprend des données sur la situation perçue par l’opérateur artificiel et des données de contexte de mission et d’environnement.
[0035] Dans un mode de réalisation, le modèle de comportement humain est représenté comme un graphe hiérarchique comprenant des modules de comportements cognitifs et des modules de tâches relativement à une mission, les modules de comportements cognitifs et les modules de tâches étant décomposés en modules de comportements, les modules de comportement étant décomposés en modules d’actions, les actions étant des actions élémentaires observables au niveau de l’opérateur artificiel, le graphe comprenant un niveau de sortie correspondant à une sélection d’actions élémentaires.
[0036] Dans un mode de réalisation, l’étape de décomposition de la mission consiste à utiliser sur le graphe hiérarchique les informations provenant de la situation courante et des paramètres de facteurs humains d’influence générés par l’état cognitif mis à jour.
[0037] Dans un mode de réalisation, les paramètres de facteurs humains d’influence sont utilisés à plusieurs niveaux du graphe hiérarchique.
[0038] Dans un mode de réalisation, les paramètres de facteurs humains d’influence sont utilisés à un premier niveau du graphe pour déterminer des comportements cognitifs, à un deuxième niveau du graphe pour déterminer des comportements et des actions, et à un troisième niveau du graphe pour déterminer une sélection d’actions.
[0039] L’invention couvre aussi un produit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé revendiqué, lorsque le programme est exécuté sur un ordinateur.
[0040] L’invention couvre de plus selon la revendication indépendante de dispositif, un dispositif de génération du comportement d’un opérateur artificiel en interaction avec un système complexe au cours d’une mission.
[0041] Le dispositif de l’invention comprend de plus d’autres moyens pour mettre en oeuvre les étapes du procédé de l’invention.
[0042] Une utilisation du dispositif revendiqué est celle dans le domaine aéronautique, de la génération du comportement d’un pilote artificiel pour piloter un aéronef dans une simulation aérienne ou pour piloter un drone dans le monde réel.
[0043] L’invention couvre aussi selon la revendication indépendante correspondante, un procédé de construction de modèles de comportement humain. Le modèle de comportement humain permet de modéliser le comportement d’un opérateur à la fois sur le plan cognitif et sur le plan procédural. [0044] Le procédé d’obtention du modèle de comportement humain s’appuie sur une « Base de Connaissances de Comportement des Opérateurs » (BCCO) et sur deux modèles distincts, un modèle cognitif et un modèle procédural.
[0045] La BCCO permet d’enregistrer et de capitaliser un ensemble de données collectées pendant des séances d’interactions d’opérateurs avec des systèmes complexes (données caractérisant les actions d’observation, de manipulation et de communication de l’opérateur, données physiologiques relatives à cet opérateur et données contextuelles décrivant l’état et la dynamique du système complexe, l’environnement et le contexte de la mission, auxquelles s’ajoutent des données subjectives sur le comportement de l’opérateur).
[0046] Un procédé permet de construire différentes catégories de modèles cognitifs (comme par exemple un modèle de charge mentale), à partir des données enregistrées dans la BCCO, en utilisant des techniques d’intelligence artificielle pour l’apprentissage automatique. L’homme du métier appliquera les mêmes principes pour construire tout autre modèle cognitif correspondant à d’autres aspects de l’état cognitif des opérateurs en interaction avec un système complexe donné. Ces modèles seront étendus pour pouvoir simuler automatiquement l’évolution de l’état cognitif de l’opérateur.
[0047] Un autre procédé permet de construire à partir des données enregistrées dans la BCCO, en utilisant différentes techniques d’intelligence artificielle combinant de l’apprentissage automatique et de l’expertise métier, des modèles de comportement pour simulation constructive, appelés en anglais « Constructive Models », qui sont aussi désignés comme « modèles procéduraux ».
[0048] La solution consiste en un procédé de modélisation permettant de construire une base de données de modèles de comportements humains des opérateurs et un dispositif de génération de comportement qui s’appuie sur cette base de données pour permettre la génération de comportement d’opérateurs artificiels.
[0049] Les modèles de comportement humain des opérateurs sont construits par la jonction de modèles cognitifs et de modèles procéduraux. Chaque modèle de comportement humain correspond à un opérateur donné (ou une classe d’opérateurs) sur un système complexe donné. [0050] Le procédé de construction de cette nouvelle catégorie de modèle met en oeuvre :
- un format de modèle de comportement capable de combiner les deux catégories de modèles impliqués ;
- une expertise métier pour définir la structure du modèle et identifier à quels niveaux de l’arborescence du modèle constructif peuvent s’intégrer des liens avec les « facteurs humains » (FH) générés par les modèles cognitifs ;
- une amélioration progressive des modèles de comportement humain de l’opérateur par des techniques d’apprentissage utilisant à nouveau les données de la BCCO comme référence.
[0051] Le moteur de génération de comportement permet de sélectionner les actions d‘un opérateur artificiel en interaction avec un système complexe dans une simulation ou avec un système complexe réel, en :
- initialisant le moteur de génération avec le modèle de comportement humain correspondant le mieux à cet opérateur, au système complexe modélisé et à la mission ou tâche qu’il doit réaliser ;
- utilisant les modèles cognitifs appris pour simuler l’évolution de l’état cognitif de l’opérateur représenté ;
- activant le moteur de génération à partir des données provenant à la fois de l’état cognitif simulé et de la situation courante (données de contexte + situation perçue par l’opérateur artificiel), pour lui permettre de sélectionner les actions de l’opérateur artificiel.
[0052] Les avantages du dispositif de l’invention sont de combiner dans le modèle de comportement utilisé pour la génération du comportement, à la fois des données objectives correspondant aux procédures d’utilisation du système complexe, et des données subjectives correspondant à l’état cognitif de l’opérateur représenté.
[0053] Ce faisant, le comportement qui est généré peut suivre de manière stricte des procédures précises et réglementées lorsque la situation est nominale, comme le feraient des agents artificiels dans une simulation traditionnelle. Mais au lieu d’utiliser des règles spécifiques pour prendre en compte des situations exceptionnelles, la simulation de l’état cognitif de l’opérateur artificiel permet de déclencher des comportements plus représentatifs de ce que ferait un véritable opérateur dans ce type de situations.
[0054] Plus généralement, l’intégration de facteurs humains dans la prise de décision de l’opérateur artificiel permet de sélectionner des comportements procéduraux qui tiennent compte de l’état cognitif de l’opérateur représenté et, inversement, de générer des comportements cognitifs qui prennent en compte l’avancement de la tâche ou de la mission courante.
[0055] Il ressort que la qualité de la génération de comportement dépend bien entendu de la qualité de la base de données de modèles de comportement humain des opérateurs, qui elle-même, dépend de la quantité de données qui auront pu être collectées dans la BCCO.
[0056] Avec le développement de modèles de comportement humain de haute qualité, validés par des utilisateurs experts du système complexe, le moteur de génération de comportement qui est proposé doit permettre de modéliser ce que l’on pourrait appeler un jumeau numérique à un opérateur réel permettant de contrôler le système complexe réel avec lequel il est en interaction.
[0057] L’objectif de l’invention est de générer un comportement artificiel le plus proche possible de celui d’opérateurs réels, en construisant un jumeau numérique d’un opérateur réel, ou d’une classe d’opérateurs réels, mais limité à la génération de comportement.
[0058] D’autres caractéristiques, détails et avantages de l’invention ressortiront à la lecture de la description faite en référence aux dessins annexés donnés à titre d’exemple et qui représentent, respectivement :
[0059] [Fig.1 ] illustre de manière schématique pour l’exemple d’un pilote, la phase de modélisation de modèles cognitifs et la phase d’exécution des modèles pour évaluer l’état cognitif d’un pilote;
[0060] [Fig.2] illustre de manière schématique, comment la phase de modélisation de modèles procéduraux et la phase d’exécution des modèles pour générer le comportement d’un pilote virtuel dans une simulation constructive; [0061] [Fig.3] illustre les étapes de construction d’un modèle du comportement humain selon l’invention, sur l’exemple d’un pilote; [0062] [Fig.4] illustre de manière schématique un environnement permettant de mettre en œuvre le procédé de génération du comportement d’un opérateur artificiel de l’invention;
[0063] [Fig.5] illustre un enchaînement d’étapes du procédé de l’invention pour la génération du comportement d’un opérateur artificiel ;
[0064] [Fig.6] illustre un exemple d’implémentation de la structure sous-jacente du modèle du comportement humain de l’invention ; et
[0065] [Fig.7] illustre un exemple de génération du comportement d’un pilote artificiel d’aéronef, en s’appuyant sur la structure hiérarchique de la figure 6.
[0066] Bien que l’invention soit décrite pour un mode de réalisation préféré dans le domaine de l’avionique, afin de générer le comportement d’un opérateur artificiel en interaction avec un système (réel ou de simulation), l’homme du métier pourra transposer les principes décrits à d’autres domaines.
[0067] Par ailleurs dans la description, il est donné les définitions suivantes aux termes ci-après listés :
- Opérateur artificiel : dispositif / composant représentant un individu, un sujet, une personne réelle, i.e. un humain, qui dans le contexte de l’invention est en interaction (i.e. pour piloter, contrôler, activer, opérer, agir sur) avec un système complexe. Pour le mode de réalisation décrit, l’opérateur (artificiel ou réel) est un pilote, et l’un ou l’autre terme peut être utilisé sans distinction.
- Système complexe : système comprenant de nombreux dispositifs avec lesquels un opérateur (artificiel ou réel) doit interagir, et qui peuvent mobiliser de la part de l’opérateur réel une implication plus ou moins importante dans son temps de manipulation ainsi que dans sa charge mentale. Pour le mode de réalisation décrit, le système complexe est un cockpit d’aéronef.
[0068] Avant de décrire l’invention, il est fait les rappels suivants, qui sont nécessaires à sa bonne compréhension.
[00691 Rappel sur la modélisation du comportement d’agents artificiels :
[0070] Les modèles de comportement sont utilisés par les simulations constructives et par les jeux vidéo pour animer le comportement des acteurs non joués par l’entrainé, le joueur ou, plus généralement l’opérateur de ce type d’application. Ces modèles permettent de générer le comportement d’acteurs artificiels qui vont réaliser des tâches ou des missions dans le cadre d’un scénario prédéfini.
[0071] Dans la quasi-totalité des simulations constructives ou de jeux, les modèles de comportement sont procéduraux, c’est-à-dire que le comportement généré correspond à une suite d’actions préenregistrées, généralement organisées sous forme de graphe ou par un ensemble de règles « Conditions-> Actions », s’activant en fonction des perceptions de l’acteur dans son environnement.
[0072] Les modèles procéduraux de comportement sont généralement développés à la main par un expert du domaine (un « game-designer » pour les jeux) sous une forme procédurale (graphe, arborescence, etc.) pour modéliser les différents enchaînements possibles du déroulement d’une mission.
[0073] Ces modèles procéduraux sont généralement construits en amont par le modélisateur pour être utilisés pendant l’exécution de la simulation ou du jeu mais, du fait de leur simplicité, ils peuvent aussi être construits ou modifiés pendant le déroulement de cette simulation ou de ce jeu.
[0074] Rappel sur la modélisation du comportement humain :
[0075] Le concept de modélisation du comportement humain (MCH) est apparu dans le domaine de la simulation dans les années 90 avec l’idée que l’on ne pourrait pas faire l’économie d’une modélisation des facteurs humains pour paramétrer la manière dont les automates doivent effectuer leurs choix de comportement, et éviter ainsi le biais de se confronter à un ennemi virtuel au comportement robotisé, facilement prédictible et que l’on arrive souvent à leurrer.
[0076] Au contraire du comportement qui peut être généré par des automates procéduraux, le comportement humain se caractérise par l’implication de l’état cognitif dans la prise de décision. Ce faisant, le comportement d’un être humain est non seulement beaucoup plus riche que celui de n’importe quel automate, mais il est également beaucoup moins prédictible puisqu’un observateur extérieur n’a généralement pas accès à l’état cognitif de la personne observée, à moins de pouvoir déduire une partie de cet état caché par l’expression de son visage, par sa posture ou par tout autre indicateur de son état physiologique.
[0077] Il existe de très nombreux travaux dans le domaine académique qui ont cherché à modéliser différents aspects de l’état cognitif d’un être humain pour générer le comportement d’un humain artificiel. Sans être exhaustif, on peut différentier ces différents modèles suivant leur domaine d’origine :
- les modèles psychologiques s’appuient sur les études en psychologie pour représenter différentes fonctions cognitives comme par exemple les croyances, les désirs et les intentions, comme c’est le cas pour le modèle BDI (Believe, Desire, Intent) de Michael Bratman ;
- les modèles psychophysiologiques sont des modèles issus de la rencontre entre les études en psychologie et en physiologie qui permettent de faire le lien entre l’état cognitif d’une personne et ses manifestations physiologiques observables. Le modèle des émotions de Nico Frijda, en est un bon exemple ;
- les modèles biomimétiques sont les modèles que les biologistes utilisent pour reproduire en simulation des comportements observés dans le vivant (c’est le cas par exemple du modèle des motivations de l’éthologue David McFarland) ou que les informaticiens utilisent pour réaliser des algorithmes d’intelligence artificielle en s’inspirant du vivant (c’est le cas par exemple du modèle des motivations de Toby Tyrrell).
[0078] Dans le domaine de la simulation constructive, il a été démontré que l’on pouvait utiliser les facteurs humains (FH), qui correspondent aux différents paramètres psychologiques et physiologiques caractérisant une vraie personne à simuler, pour influencer la prise de décision des acteurs artificiels.
[0079] Les facteurs humains peuvent intervenir à trois niveaux dans la prise de décision :
- un premier niveau (FH1) où les facteurs humains peuvent déclencher un nouveau comportement, par exemple pour satisfaire une motivation ou pour répondre à une certaine émotion ;
- un second niveau (FH2) où les facteurs humains peuvent influencer le choix entre plusieurs manières de réaliser un comportement donné ;
- un troisième niveau (FH3) où les facteurs humains peuvent avoir une influence sur l’efficacité avec laquelle des actions sélectionnées vont être réalisées. [00801 Rappel sur l’analyse des facteurs humains : [0081] La modélisation des facteurs humains dans les simulations s’appuie généralement sur la construction de modèles formels par des experts, mais il existe un domaine où des modèles cognitifs de cette nature sont le résultat d’un apprentissage, c’est celui de l’analyse des facteurs humains.
[0082] L’analyse des facteurs humains s’appuie sur la réalisation et l’utilisation de modèles cognitifs dont l’objet est d’évaluer, pour chacun de ces modèles, un aspect de l’état cognitif de la personne observée.
[0083] L’utilisation de modèles cognitifs (comme par exemple la vigilance ou la charge mentale) permet d’évaluer différents aspects de l’état cognitif de l’opérateur supervisé. Par exemple, un modèle cognitif, pour évaluer la charge mentale d’un pilote d’hélicoptère dans le cadre d’une mission réalisée en simulateur, a été réalisé à partir de données collectées lors de plusieurs exercices où le simulateur et le pilote étaient instrumentés.
[0084] D’autres modèles cognitifs capables d’évaluer d’autres aspects de l’état d’un pilote (vigilance, somnolence, incapacité, etc.) ou pour d’autres domaines d’application (contrôleur aérien, opérateur d’une centrale nucléaire, etc.) peuvent être envisagés.
[0085] Revenant sur la présente invention, elle inclut un procédé de modélisation qui permet de construire une base de données de modèles de comportement humain et elle porte sur un dispositif de génération de comportement d’un opérateur artificiel qui s’appuie cette base de données.
[0086] Les modèles de comportement humain sont construits selon un procédé qui combine des modèles cognitifs et des modèles procéduraux de comportement. Chaque modèle de comportement humain correspond à un opérateur donné et/ou à une classe d’opérateurs, pour un système complexe donné.
[0087] Le procédé de construction de ce nouveau modèle de comportement humain met en oeuvre :
- un format de modèle de comportement qui combine les deux catégories de modèles impliqués (cognitif et procédural);
- une expertise métier pour identifier à quels niveaux de l’arborescence du modèle procédural des liens avec les « facteurs humains » (FH) générés par les modèles cognitifs (en suivant les trois niveaux d’influence des FH décrits plus haut) peuvent s’intégrer ;
- une amélioration progressive des modèles de comportement humain de l’opérateur par des techniques d’apprentissage automatique utilisant les données de la base de connaissances de comportement des opérateurs (BCCO) comme référence.
[0088] Les différentes phases qui permettent de créer les modèles nécessaires au fonctionnement du moteur de génération du comportement d’un opérateur artificiel en interaction avec un système complexe, sont maintenant décrites. Elles comportent :
(A) Une phase de constitution d’une « Base de Connaissances de Comportement des Opérateurs » (BCCO), pouvant être une « Base de Connaissances de Comportement des Pilotes » (BCCP) dans le cadre de la description d’un mode de réalisation préféré;
(B) Une phase de construction de modèles cognitifs ;
(C)Une phase de construction de modèles procéduraux ; et
(D)Une phase de construction de modèles du comportement humain.
[0089] (A) Constitution d’une Base de Connaissances de Comportement des
[0090] La constitution d’une Base de Connaissances de Comportement des Opérateurs (BCCO) permet de disposer des cas d’usage d’observation du comportement d’opérateurs et des données correspondantes qui sont nécessaires pour construire les modèles utilisés pour générer le comportement d’un opérateur artificiel en interaction avec un système complexe donné.
[0091] La BCCO peut être réalisée, dans un premier temps, à partir de données issues d’expérimentations sur des simulateurs instrumentés du système complexe, ce qui facilite à la fois leur collecte et leur sauvegarde ultérieure. Par exemple, des modèles cognitifs de pilotes ont été construits à partir de données collectées sur des simulateurs d’avions civils.
[0092] Il est possible de réaliser une collecte de données directement sur des systèmes réels (par exemple sur un avion civil pendant un vol). [0093] La Base de Connaissances de Comportement des Opérateurs est enrichie et complétée au fil du temps pour pouvoir affiner les modèles et, en particulier, ceux qui sont utilisés pour la génération du comportement d’un opérateur artificiel.
[0094] La BCCO est composée de données de différentes natures enregistrées, par des capteurs appropriés, de manière synchrone telles que :
- des données relatives aux actions de l’opérateur :
- actions d’observation (ce que regarde l’opérateur) ;
- actions de manipulation (ce que fait l’opérateur en utilisant les instruments du système), de commandes ;
- actions de communication (ce que l’opérateur transmet par la voix en utilisant le système) ;
- des données physiologiques (enregistrées sur l’opérateur à partir de capteurs biométriques) ;
- des données contextuelles regroupant :
- l’état et la dynamique du système complexe (par exemple les données avioniques si l’opérateur est un pilote d’avion);
- des données d’environnement du système (par exemple la météo ou la position d’autres aéronefs si l’opérateur est un pilote d’avion) ;
- des données relatives au contexte de la mission (par exemple le plan de vol ou le scénario d’exercice si l’opérateur est un pilote d’avion) ;
- éventuellement des données subjectives sur le comportement de l’opérateur.
[0095] Dans un mode de réalisation, un traitement de la variabilité inter/intra personnelle et inter/intra opérationnelle peut être appliqué sur les données afin de les grouper, et permettre la construction de modèles plus génériques (c’est-à-dire non liés à un seul opérateur).
[0096] Par exemple, dans le cas de pilotes :
- il est possible de regrouper des données de pilotes qui sont jugées suffisamment proches en termes de formation, d’ancienneté, de parcours, etc. pour construire des modèles pour des classes de pilotes ; - il est possible de regrouper des données de pilotes différents mais volant sur une même classe d’aéronef et sur des parcours similaires pour construire des modèles pour des classes de missions.
[0097] L’homme du métier comprend ainsi que la qualité du comportement généré dépend de la qualité de la base de données des modèles du comportement humain des opérateurs qui, elle-même, dépend de la quantité de données qui auront pu être collectées dans la BCCO.
[0098] (B) Construction de modèles cognitifs
[0099] Les « Modèles de Comportement Cognitif » ou « Modèles Cognitifs », sont utilisés pour l’analyse des facteurs humains.
[0100] La figure 1 illustre de manière schématique pour l’exemple d’un pilote, comment les modèles cognitifs (102) sont élaborés (Phase de Modélisation) et comment ces modèles sont utilisés (Phase d’Exécution) pour évaluer (120) l’état cognitif d’un pilote, en utilisant les données d’une « Base de Connaissances de Comportement des Pilotes » (BCCP) (104) regroupant sur de nombreuses séances de vols, opérationnels ou simulés, des données (106) enregistrées sur le comportement du pilote : actions du pilote (actions d’observation de l’extérieur du cockpit et des instruments, actions de manipulation sur les commandes et les instruments de l’avion, actions de communication) ; paramètres physiologiques enregistrés par des capteurs biométriques ; informations contextuelle sur l’état et la dynamique du système complexe (l’avion), sur l’environnement (météo, autres acteurs/tactiques/trafic, ...), sur la mission du pilote (plan et phases de vol par exemple) ou sur des informations plus subjectives sur son comportement (observation, déclaration, annotation, qualification, ...).
[0101] Les modèles cognitifs sont élaborés par des techniques d’intelligence artificielle pour l’apprentissage, à partir de données (108) collectées lors de plusieurs exercices où le système complexe et l’opérateur sont instrumentés (110), par exemple dans un simulateur d’avion instrumenté à cette fin. Des exercices correspondant à des scénarios réalistes et productifs avec des variations opérationnelles et cognitives sont effectués. Les données collectées qui regroupent des données objectives (mesures de capteurs ; sonde du simulateur ; scénario) et des données subjectives (auto-appréciation ; expertise externe) sont synchronisées, et fournies à la Base de Connaissances de Comportement des Pilotes, ou plus généralement des Opérateurs (104).
[0102] Il est à noter que l’apprentissage n’est jamais fait à l’aveugle et, le plus souvent, il fait intervenir des experts (112) pour définir le type de modèle que l’on cherche à construire en choisissant, par exemple, les paramètres à utiliser.
[0103] La constitution préalable d’une Base de Connaissances de Comportement des Pilotes (BCCP) ou plus généralement d’une Base de Connaissances de Comportement d’Opérateurs (BCCO) contenant des enregistrements synchronisés de séances d’interaction avec le système complexe utilisé, est ainsi un prérequis pour construire des modèles cognitifs, que ce soit pour évaluer la charge mentale d’un opérateur ou d’autres aspects de l’état d’un opérateur, i.e. sa vigilance, sa somnolence, son incapacité, etc.
[0104] Comme illustré sur la figure 1 , en phase d’exécution, les données collectées sont des entrées d’un moteur d’exécution (114) qui instancie le modèle cognitif (102) approprié afin de délivrer des informations (120) représentatives de l’état cognitif du pilote/opérateur.
[0105] (C) Construction de modèles procéduraux
[0106] Les « modèles constructifs de comportement » ou « modèles procéduraux », sont utilisés par les simulations constructives pour générer le comportement de chaque acteur non joué par l’entrainé ou par l’instructeur, et pour permettre à cet acteur de réaliser sa mission en fonction de la situation qu’il perçoit.
[0107] Dans la quasi-totalité des simulations constructives, les modèles de comportement sont procéduraux, c’est-à-dire que le comportement généré correspond à une suite d’actions préenregistrées, généralement organisées sous forme de graphe ou par un ensemble de règles « Conditions-> Actions », s’activant en fonction des perceptions de l’acteur dans son environnement.
[0108] Les modèles procéduraux sont généralement développés à la main par un expert sous une forme procédurale (avec une représentation en graphe, arborescence, etc.), pour modéliser les différents enchaînements possibles du déroulement d’une mission. Ces modèles procéduraux peuvent être construits en direct par l’entrainé ou l’instructeur pendant l’exercice, ou ils peuvent être construits par un modélisateur et enregistrés dans une base de données pour être réutilisés pendant le cours de l’exercice.
[0109] Il existe des techniques permettant de construire des modèles procéduraux qui sont en partie le résultat d’un apprentissage automatique et où l’expert intervient en amont pour, par exemple :
- Structurer l’organisation des comportements (par exemple : un apprentissage génétique de missions collectives) ;
- Simplifier les données en entrée (par exemple : un apprentissage d’arbres comportementaux) ; - Définir les expériences à enregistrer (par exemple : un apprentissage par cas).
[0110] L’utilisation de l’apprentissage est surtout utile lorsqu’il est difficile, ou que cela prendrait trop de temps, de construire un modèle procédural de comportement qui répond à toutes les situations rencontrées. Dès que le problème devient trop complexe en nombre de situations possibles, il devient nécessaire de construire un modèle plus générique en utilisant un apprentissage automatique.
[0111] En revanche, comme dans le cas de l’apprentissage de modèles cognitifs, le temps de calcul d’un modèle procédural de comportement complet devient rapidement prohibitif sans l’aide d’un expert du système étudié pour identifier les paramètres à optimiser ou pour définir par avance la structure du modèle. [0112] La figure 2 illustre de manière schématique, comment les modèles procéduraux (202) sont élaborés (Phase de Modélisation) et comment ces modèles sont utilisés (Phase d’Exécution) pour générer (220) le comportement d’acteurs artificiels dans une simulation constructive.
[0113] La phase de modélisation permet de construire des modèles procéduraux en utilisant, comme référence pour apprendre un comportement plus général que celui proposé par des experts opérationnels (212), les données enregistrées dans une « Base de Connaissances de Comportement des Pilotes » (BCCP) (204) regroupant sur de nombreuses séances de vols, opérationnels ou simulés, des données (206) enregistrées sur le comportement du pilote : actions du pilote (actions d’observation de l’extérieur du cockpit et des instruments, actions de manipulation sur les commandes et les instruments de l’avion, actions de communication) ; paramètres physiologiques enregistrés par des capteurs biométriques ; informations contextuelle sur l’état et la dynamique du système complexe (l’avion), sur l’environnement (météo, autres acteurs/tactiques/trafic, ), sur la mission du pilote (plan et phases de vol par exemple) ou sur des informations plus subjectives sur son comportement (observation, déclaration, annotation, qualification, ).
[0114] En phase d’exécution, les modèles procéduraux (202) sont instanciés dans le moteur de comportement d’une simulation constructive (214) avec les données d’une simulation (208, 210) pour générer (220) des informations représentatives du comportement du pilote artificiel.
[0115] (D) Construction de modèles du comportement humain
[0116] Les modèles de comportement humain élaborés par les inventeurs sont des modèles augmentant les modèles procéduraux de paramètres provenant de la modélisation de l’état cognitif de l’opérateur et de l’évolution de cet état cognitif en fonction de l’évolution de la situation perçue, par des données contextuelles et par des actions réalisées jusque-là par l’opérateur.
[0117] Avantageusement, les modèles des deux catégories de modèles connus (procéduraux ; cognitifs) sont combinés dans une seule et unique structure de modélisation.
[0118] L’apprentissage des nouveaux modèles de comportement humain s’appuie sur chacune de ces deux catégories en intégrant à la fois des composantes procédurales et des composantes cognitives de la prise de décision.
[0119] Comme il a été développé précédemment, il est possible de construire un modèle procédural suffisamment évolué pour pouvoir générer le comportement d’un opérateur en interaction avec un système complexe, à condition que cet opérateur suive à la lettre les procédures d’utilisation de ce système.
[0120] Cependant, cette dernière condition n’est pas toujours remplie puisque les opérateurs humains peuvent ne pas suivre à la lettre les procédures, en tenant compte de facteurs cachés qui sont difficiles à évaluer de l’extérieur.
[0121] Même s’il est difficile de reproduire l’autonomie décisionnelle d’un opérateur humain, en tout cas dans les situations délicates ou imprévues, il est possible d’augmenter l’efficacité d’un système de génération de comportement en essayant d’évaluer, puis de modéliser les facteurs intrinsèques qui peuvent intervenir dans sa prise de décision.
[0122] Ces facteurs intrinsèques peuvent être en particulier les facteurs humains (FH) déjà évoqués et pour lesquels quelques modèles existants permettent, par exemple, aux instructeurs de faciliter l’évaluation de leurs élèves pilotes.
[0123] Pourtant, il n’est bien sûr pas possible d’évaluer tous les facteurs intrinsèques qui vont faire dévier l’opérateur des procédures, mais juste ceux qui ont un rapport avec son métier d’opérateur. Ainsi, pour un pilote, il sera possible d’évaluer sa vigilance, sa prise en compte de la situation, son stress ou sa charge mentale par exemple. Mais d’autres facteurs indétectables pourraient intervenir pour amener le pilote à faire d’autres choix de comportement.
[0124] Cette problématique complexe a conduit les inventeurs à vouloir « augmenter » les modèles procéduraux, de paramètres supplémentaires provenant de l’évaluation de l’état cognitif de l’opérateur.
[0125] La figure 3 illustre de manière schématique et synthétique le processus de construction d’un modèle du comportement humain (300) selon l’invention, sur l’exemple d’un pilote.
[0126] La première étape consiste à construire une base de connaissances de comportement des pilotes BCCP (302) (ou plus généralement, une base de connaissances de comportement des opérateurs BCCO d’une application concernée). Comme décrit précédemment, la base est construite avec des données collectées (304) lors de l’exécution de nombreux exercices impliquant différents pilotes (ou des opérateurs de l’application concernée), en interaction avec un système complexe (306) (ici, des pilotes dans leur aéronef). Les données collectées caractérisent des actions d’observation, de manipulation et de communication de l’opérateur, des données physiologiques relatives à l’opérateur et des données contextuelles regroupant des données sur l’état et la dynamique du système complexe, des données d’environnement, et des données relatives au contexte de la mission, et éventuellement, des données subjectives sur le comportement de l’opérateur. Ces données collectées pourront être utilisées dans un deuxième temps par le moteur de génération de comportement. [0127] En phase de modélisation, la Base de Connaissances de Comportement des Pilotes (302) est utilisée pour construire une base de données de modèles de cognitifs (308) avec l’aide d’experts médicaux et en utilisant des algorithmes d’apprentissage automatique.
[0128] En parallèle, pendant la phase de modélisation de la BCCP, des modélisateurs (310) aidés par des experts opérationnels (ici, des pilotes expérimentés) définissent et construisent la structure des modèles procéduraux (312) qui sont ensuite adaptés par des techniques d’apprentissage en utilisant les données de la BCCP (302), pour constituer des bases de données de modèles procéduraux qui sont spécifiques à chaque opérateur ou chaque catégorie d’opérateurs.
[0129] Toujours dans la phase de modélisation, les données d’exercices collectées qui sont synchronisées (304) et enregistrées dans la Base de Connaissances de Comportement des Pilotes vont permettre de réaliser, en combinaison avec les modèles cognitifs et les modèles procéduraux, un apprentissage (314) pour construire :
- des modèles d’état cognitif (316) permettant de modéliser l’évolution des paramètres de facteurs humains d’influence en fonction du contexte représenté par l’opérateur et la tâche qu’il réalise en utilisant le système complexe (par exemple, le pilote réalisant sa mission) ; et
- des modèles de tâche/mission (318) intégrant dans leurs règles de fonctionnement des paramètres de facteurs humains d’influence, provenant des modèles d’état cognitif (316), la prise en compte des facteurs humains intervenant selon trois niveaux d’influence (les trois types de connexions FH1 , FH2, FH3, décrites dans la section précédente).
[0130] La combinaison des deux catégories de modèles, les modèles d’état cognitif et les modèles de mission, prenant en compte les paramètres de facteurs humains d’influence, constitue les modèles du comportement humain (300) (de pilote ou plus généralement d’opérateur).
[0131] Les données enregistrées dans la BCCO sont donc utilisées pour caractériser les choix de comportement des opérateurs en construisant des modèles de comportement humain différents pour chaque opérateur individuel (ou pour des catégories d’opérateurs proches dans leur comportement).
[0132] Le modèle de comportement humain qui est appris et instancié pour un opérateur, sert, en mode exploitation, à initialiser un moteur de génération de comportement qui, à partir des données d’entrée caractérisant la situation courante de l’opérateur artificiel, est capable de produire en sortie un comportement et des actions analogues à celui et à celles que réaliserait un opérateur réel dans cette situation.
[0133] Il ressort que les difficultés et verrous techniques de l’approche proposée, ont portés sur :
- La constitution d’une base de connaissances de comportement des opérateurs (302) BCCO de l’application concernée (BCCP pour les pilotes) suffisamment riche pour réaliser l’ensemble des apprentissages ;
- La constitution d’une base de modèles d’état cognitif (316) dont les paramètres sont suffisants pour décrire les influences de l’état d’un opérateur (par exemple un pilote) sur ses choix de comportement ;
- La possibilité d’apprendre les modèles d’évolution des différents paramètres caractérisant l’état cognitif de l’opérateur (par exemple du pilote) en fonction de ses caractéristiques personnelles, de ses perceptions et de ses actions ;
- La possibilité d’apprendre à partir des données de la BCCO (par exemple de la BCCP) des modèles procéduraux (312) pertinents et différentiés suivant les opérateurs (ex : les pilotes) ou catégories d’opérateurs (ex : catégories de pilotes) ;
- La capacité à relier par un apprentissage automatique les données provenant des modèles d’état cognitif et des modèles procéduraux pour reproduire les comportements des opérateurs (ex : des pilotes) enregistrés dans la BCCO (ex : la BCCP).
[0134] Ce dernier point est le plus délicat à traiter puisque si l’on peut supposer que les choix de comportement d’un opérateur en interaction avec un système complexe (par exemple un pilote dans son aéronef) dépendent à la fois de sa perception de son environnement et de son état cognitif, il est plus difficile de s’assurer que toutes les perceptions pertinentes pour l’opérateur seront prises en compte dans le modèle et, plus encore, que les mesures capturées sur l’opérateur seront suffisantes pour déterminer l’ensemble des facteurs intrinsèques qui interviennent dans la sélection des actions de l’opérateur.
[0135] La constitution de modèles de comportement humain, tels que décrits précédemment, permet d’intégrer ces modèles dans une simulation constructive des opérateurs artificiels dont le comportement généré est très proche de celui de véritables opérateurs en interaction avec un système complexe.
[0136] La figure 4 illustre de manière schématique un environnement permettant d’exécuter le procédé de l’invention. L’exemple est illustré pour un environnement aéronautique en vue d’appliquer le procédé de génération du comportement d’un opérateur artificiel à un pilote artificiel. Cependant l’homme du métier peut appliquer les principes décrits à tout autre environnement tel que cité précédemment, comme l’industrie et le transport ferroviaire ou routier, les domaines de la sécurité, les domaines du contrôle de processus, etc. et pour tout opérateur artificiel.
[0137] Le procédé de l’invention permet pour l’exemple décrit, de générer le comportement d’un pilote artificiel (408) qui se comporte comme le pilote ou la classe de pilotes qui lui a servi de modèle, et ce, non pas en appliquant les procédures de vol de manière optimale, mais en exhibant un comportement représentatif du comportement d’un vrai pilote.
[0138] Une utilisation directe est de pouvoir reproduire dans une simulation le comportement de vrais pilotes de manière à augmenter le réalisme de cette simulation, ce qui peut être intéressant tout autant pour des besoins d’entrainement que pour des besoins d’études.
[0139] A terme, sous réserve de validation de ces modèles de comportement humain, Il semble possible de pouvoir remplacer un véritable opérateur en interaction avec un système complexe réel par ce que l’on pourrait appeler un « jumeau numérique comportemental ». Une application concrète pour l’aéronautique serait le pilotage d’un avion drone par un pilote artificiel qui se comporterait de manière similaire à un vrai pilote dont les données auraient été enregistrées dans la BCCP. Le but n’est pas de donner à un drone un comportement que l’on pourrait qualifier d’optimal mais de lui donner un comportement le proche possible de celui d’un humain, donc plus facile à appréhender d’un point de vue des relations homme-machine. Des extensions d’application de l’invention peuvent être la constitution d’ailiers robotisés ou d’une flottille de drones qui aideraient les pilotes des avions de chasse de nouvelle génération à réaliser leur mission. [0140] Même si beaucoup d’informations ne peuvent pas, par définition, être accessibles, il est possible d’utiliser les données enregistrées dans la BCCO pour caractériser les choix de comportement des opérateurs (ou dans la BCCP pour des pilotes), en construisant des modèles de comportement humain différents pour chaque opérateur individuel (ou pour des catégories d’opérateurs proches dans leur comportement). Ces modèles de comportement humain viennent alimenter un moteur de génération du comportement qui va être capable de les instancier pour simuler l’état cognitif de l’opérateur artificiel, gérer l’avancement de ses missions et moduler ses choix d’action en fonction des facteurs humains associés à cet état cognitif simulé. [0141] Le dispositif de génération du comportement d’un opérateur artificiel illustré sur la figure 4, est appliqué sur l’exemple d’un pilote artificiel dans le cockpit d’un avion simulé (402) dont on veut générer le comportement dans une simulation constructive.
[0142] Par définition, la génération du comportement d’un acteur artificiel dans une simulation constructive fonctionne en boucle fermée avec le reste de la simulation. A chaque pas de temps, l’acteur artificiel (i.e. le composant matériel/logiciel) reçoit du module de simulation une mise à jour de la situation courante qui va lui permettre de prendre des décisions et de sélectionner les actions des acteurs dont il a le contrôle, ces actions ayant à leur tour des conséquences sur l’évolution de la situation au pas de temps suivant.
[0143] La mise en oeuvre du dispositif de génération du comportement d’un opérateur artificiel se découpe de la manière suivante :
- Les modèles de comportement humain (300), résultats de l’apprentissage qui a été décrit plus haut, sont instanciés dans un moteur de génération du comportement (406) en utilisant les données personnelles de l’opérateur représenté (ici un pilote) et la mission qui lui est donnée ; - A chaque pas de temps, le moteur de génération (406) va mettre à jour l’état cognitif de l’opérateur artificiel en fonction de sa situation courante (404). La situation courante comprend :
(a) La situation perçue, correspondant par exemple pour un pilote à :
- Ce qu’il voit sur ses instruments ;
- Ce qu’il voit à l’extérieur de son cockpit ;
- Ce qu’il entend dans son cockpit ou par ses instruments de communication.
(b) Les données de contexte, correspondant par exemple pour un pilote :
- Au contexte de sa mission (plan, trajectoire, consignes, etc.) ;
- A sa connaissance du système complexe et de son état courant ;
- Aux éléments qu’il connaît de son environnement (météo, présence d’autres acteurs, etc.).
- Ensuite, le moteur décompose la mission en une arborescence de tâches et de comportements en utilisant les informations provenant de la situation courante et des facteurs humains générés par son état cognitif ;
- A la fin du cycle, le moteur de génération de comportement propose de nouvelles actions pour l’opérateur artificiel qui vont avoir non seulement une influence sur l’état du système complexe avec lequel l’opérateur artificiel est en interaction mais aussi une influence sur l’évolution de son état cognitif.
[0144] Les données de contexte peuvent comprendre des informations sur l’état du système complexe (i.e. de l’information sur des états inhérents à un fonctionnement normal, comme par exemple un pourcentage de puissance des moteurs, si les ailettes sont repliées ou dépliées, l’état des réservoirs de carburant, etc., et de l’information sur des états inhérents à un fonctionnement anormal, comme par exemple l’information que le moteur gauche est défaillant, la pédale droite du siège copilote est défaillante, ou toute sorte de potentielle défaillance). Les données de contexte peuvent comprendre des données de vol telles que : l’itinéraire, l’altitude, la vitesse, l’accélération, l’assiette et l’enveloppe. De plus, les paramètres de l’avion peuvent être pris en compte, tels que : la date de la dernière maintenance, les événements survenus en vol, etc. [0145] Le dispositif de l’invention comprend des ressources de calcul ou module de traitement de données (406) configuré pour mettre en oeuvre le moteur de génération du comportement d’un acteur artificiel, avec les données de situation recueillies.
[0146] La figure 5 illustre un enchaînement d’étapes du procédé de l’invention pour la génération du comportement d’un opérateur artificiel en interaction avec un système complexe. Le procédé (500) est mis en oeuvre par ordinateur et comprend des étapes consistant à :
- (502) : récupérer des états de la simulation, correspondant à des données de la situation en cours (situation perçue, données de contexte sur la mission, le système et l’environnement) ;
- (504) : utiliser les données récupérées comme entrées du moteur de génération de comportement pour mettre à jour l’état cognitif de l’opérateur artificiel et l’avancement des tâches par rapport à la mission (i.e. selon le scénario de mission qui a été définie pour la simulation constructive) ; - (506) à partir des mises à jour, décomposer la mission en nouvelles tâches et comportements ; et
- (508) générer des données d’actions et de comportements de l’opérateur artificiel.
[0147] Le procédé met en oeuvre un modèle de comportement humain (300) modélisant le comportement de l’opérateur représenté, à la fois sur le plan cognitif et sur le plan procédural. Le modèle de comportement humain qui est instancié pour cet opérateur a été appris dans la phase d’apprentissage (précédemment décrite), par l’application de techniques d’intelligence artificielle sur des modèles cognitifs et sur des modèles procéduraux, avec des données capitalisées dans une base de connaissances de comportement d’opérateurs de systèmes complexes.
[0148] La figure 6 illustre un exemple d’implémentation de la structure sous-jacente du modèle du comportement humain de l’invention qui permet d’instancier, via le moteur de génération de comportement, le modèle de comportement d’un opérateur représenté, ce modèle de comportement pour cet opérateur ayant été obtenu à partir des modèles de comportement humain construits par apprentissage en utilisant une base de connaissances de comportement d’opérateurs (BCCO). [0149] Pour des raisons de clarté de la description, il est pris pour convention sur la figure 6, que la partie gauche de l’arborescence représente la structure associée aux modèles cognitifs, et la partie droite de l’arborescence représente la structure associée aux modèles procéduraux.
[0150] Complètement à gauche se trouve l’état cognitif courant de l’opérateur artificiel. Les composantes de cet état (E1 , E2 et E3) sont des éléments de l’état de l’opérateur (comme le stress ou la vigilance) Cet état est initialisé et mis à jour grâce aux modèles d’évolution de l’état cognitif qui sont construits à partir des modèles cognitifs décrits plus haut.
[0151] L’état cognitif courant d’un opérateur artificiel est évalué à partir de différentes composantes Ei qui représentent autant de modèles psychophysiologiques caractérisant l’évolution de l’état cognitif de cet opérateur en fonction de l’évolution de la situation courante et des actions qu’il réalise. Ainsi par exemple, les composantes E1, E2 et E3 sur la figure 6 peuvent représenter, pour un pilote artificiel, une évaluation de son stress (E1) à partir d’un modèle cognitif d’évolution de stress, une évaluation de sa vigilance (E2) à partir d’un modèle cognitif d’évolution de vigilance, une évaluation de sa charge mentale (E3) à partir d’un modèle cognitif d’évolution de charge mentale.
[0152] Un comportement cognitif CCi de l’opérateur peut être déclenché par une certaine configuration de l’état de l’opérateur. Ce comportement correspond à une influence de premier niveau des facteurs humains (représentée par la flèche FH1 ), i.e. un niveau où les facteurs humains peuvent déclencher un nouveau comportement. Ainsi, par exemple, l’évolution de l’état cognitif d’un pilote artificiel montrant un très bas niveau de sa vigilance, peut engendrer un comportement cognitif qui soit l’endormissement du pilote.
[0153] Or un comportement cognitif n’est pas nécessairement élémentaire, et il peut être décomposé en une pluralité de comportements Ci plus simples (par exemple les modules de comportement C1 à C3).
[0154] Les comportements Ci peuvent eux-mêmes être chacun décomposé en une pluralité d’actions élémentaires observables Ai de l’opérateur (par exemple les modules d’actions A1 à A5). [0155] L’ensemble de cette structure hiérarchique (Ci; Ai) du modèle du comportement cognitif peut être le résultat d’un apprentissage automatique, combiné avec une expertise sur les modèles cognitifs.
[0156] La partie droite de la figure représente la structure associée aux modèles constructifs de comportement :
- Complètement à droite se trouve l’évaluation de la situation courante de l’opérateur artificiel composé à la fois de données de contexte et de données perçues provenant de l’environnement de simulation. Cette situation perçue est enregistrée à partir d’interfaces avec la simulation qui permettent de simuler ce que voit l’opérateur, ce qu’il entend ou connaît et ce qu’il ressent.
- L’opérateur a une ou plusieurs missions. Chacune de ces missions peut être décomposée de manière hiérarchique en une pluralité de tâches procédurales Tj (par exemple les modules de tâches T1 , T2, T3), qui, elles-mêmes, sont chacune décomposable en comportements (par exemple les modules de comportements C3 à C7).
- Les comportements Cj peuvent eux-mêmes être chacun décomposé en une pluralité d’actions élémentaires observables Aj de l’opérateur (par exemple les modules d’actions A1 à A5) qu’il peut effectuer pour réaliser la mission.
[0157] De la même manière que pour les comportements cognitifs, la structure hiérarchique (Tj; Cj; Aj) des comportements procéduraux peut être le résultat d’un apprentissage automatique, combiné avec des connaissances doctrinales d’un expert opérationnel.
[0158] Avantageusement, le modèle de comportement humain de l’invention établit des liens entre les modèles de comportement cognitif et les modèles procéduraux (modèles constructifs de comportement), selon la structure hiérarchique de l’arbre comportemental et de l’arbre de missions. Ces liens (illustrés sur la figure 6 par toutes les interconnexions entre les différents niveaux hiérarchiques de deux catégories de modèles), permettent d’aboutir à une représentation du comportement d’un opérateur dans toutes ses composantes (cognitive et procédurale).
[0159] Un premier niveau d’interconnexion est la possibilité d’avoir des modules de comportement (Ci, Cj) qui soient communs dans l’arborescence, ces modules de comportement pouvant être activés soit par un comportement cognitif, soit par une tâche d’une mission, soit par les deux simultanément.
[0160] La figure 6 illustre que le module de comportement C3 est un module de comportement commun. Le module de comportement C3 est issu d’un comportement cognitif CCi et il provient aussi de la décomposition de la tâche référencée dans le module de tâches T 1. Ainsi, lors de la mise en oeuvre du modèle de comportement humain, des modules de comportement qui sont communs aux deux modèles, peuvent être activés soit par un comportement cognitif, soit par une tâche d’une mission, soit par les deux simultanément (et alors proposer un comportement de compromis).
[0161] Un deuxième niveau d’interconnexion correspond au deuxième niveau d’influence des facteurs humains (FH2), i.e. le niveau où les facteurs humains peuvent influencer le choix entre plusieurs manières de réaliser un comportement donné. Le principe consiste à utiliser l’état cognitif de l’opérateur pour influencer la décomposition des tâches Tj ou la décomposition des comportements (Ci, Cj) de l’arbre de mission. Par exemple, un état de stress de l’opérateur artificiel peut augmenter le poids dans l’arbre comportemental d’un comportement plus prudent.
[0162] Un troisième niveau d’interconnexion se situe au niveau du déclenchement des actions. En effet, les deux hiérarchies comportementales (cognitif ; procédural) sont nécessairement mises en concurrence à ce niveau-là. Chaque module d’action (Ai, Aj) peut être activé par un module de l’arbre cognitif, par un module de l’arbre de mission ou par les deux à la fois.
[0163] Avantageusement, les paramètres de facteurs humains d’influence sur la détermination de comportements et d’actions de l’opérateur, sont utilisés à plusieurs niveaux du graphe hiérarchique.
[0164] Dans un mode de réalisation, les paramètres de facteurs humains d’influence sont utilisés à un premier niveau du graphe pour déterminer des comportements cognitifs, à un deuxième niveau du graphe pour déterminer des comportements et des actions, et à un troisième niveau du graphe pour déterminer la sélection des actions qui doivent être générées.
[0165] La figure 6 illustre par exemple que le module d’actions A1 est commun au module de comportement C1 provenant de la décomposition d’un comportement cognitif et au module de comportement C4 provenant de la décomposition du module de tâche (T1 et/ou T2).
[0166] Le dernier niveau de l’arborescence est celui de la sélection des actions (illustré au bas de la figure 6). Ce niveau fonctionne suivant le principe connu des actuateurs. Chaque action est représentée par une combinaison d’un ou de plusieurs actuateurs (Actul , Actu2 et Actu3). Ceci détermine la possibilité d’exclure des actions simultanées mais aussi de réaliser plusieurs actions simultanément. L’exemple pour un pilote militaire est qu’il ne peut pas regarder en même temps ses instruments et l’extérieur de son cockpit. En revanche, il peut très bien réaliser une de ces deux actions et appuyer en même temps sur la gâchette de son canon.
[0167] A la fin du processus de sélection des actions, le modèle de comportement humain de l’invention fait intervenir sur ce dernier niveau de l’arborescence, le dernier niveau (FH3) d’influence des facteurs humains sur le comportement (illustré par la flèche FH3 sur la figure 6), i.e. le niveau où les facteurs humains peuvent avoir une influence sur l’efficacité avec laquelle des actions vont être réalisées.
[0168] En effet, l’état cognitif de l’opérateur artificiel peut altérer l’efficacité des actuateurs, limitant ainsi la performance des actions sélectionnées. L’état cognitif est alors pris en compte pour la sélection des actions. Par exemple, un tremblement des mains dû au stress ou le phénomène de tunnélisation qui limite le champ de vision, peuvent être modélisés et pris en compte dans la sélection des actions faites par le modèle.
[0169] Le résultat final de ce processus est la génération du comportement de l’opérateur artificiel et, en particulier, des nouvelles actions que cet opérateur va réaliser dans la simulation.
[0170] Cette génération de comportement peut avoir une conséquence directe sur l’état cognitif de l’opérateur artificiel. Ainsi, certaines actions peuvent augmenter ou diminuer son stress. Un trop grand nombre de modules de comportement activés peut aussi augmenter sa charge de travail, etc.
[0171] Cette génération du comportement peut aussi avoir une conséquence indirecte sur le futur comportement de l’opérateur artificiel et sur son état cognitif simulé. En effet, les actions qui sont effectuées dans l’environnement de simulation et en particulier sur le système complexe peuvent entraîner une modification de celui-ci et donc modifier la situation que va percevoir l’opérateur artificiel.
[0172] La figure 7 illustre un exemple de fonctionnement du moteur de génération du comportement d’un opérateur artificiel avec la génération du comportement d’un pilote dans une simulation aérienne, en s’appuyant sur la structure hiérarchique de la figure 6.
[0173] Dans cet exemple, volontairement simplifié par rapport aux véritables modèles de comportement humain, il est pris pour hypothèse que l’on dispose des interfaces suffisantes avec la simulation aérienne pour permettre de construire la situation que percevrait un vrai pilote. On suppose aussi que l’on a pu construire des modèles d’évolution de l’état cognitif permettant de simuler le stress, la vigilance et la charge mentale de ce pilote lors de la phase de décollage de son avion.
[0174] Le moteur de génération de comportement va permettre de dérouler les procédures que devrait suivre un vrai pilote lors des différentes étapes de cette phase de vol allant de l’alignement sur le piste de départ jusqu’à la montée initiale.
[0175] Dans ce scénario d’exercice, il est introduit au moment de la phase de rotation, qui est la phase qui permet de rouler sur la piste en augmentant les gaz jusqu’à atteindre la vitesse de décollage, un incident consistant en la traversée de la piste par une volée d’oiseaux, cet incident pouvant être une source de danger pour l’avion et ses occupants.
[0176] La construction du modèle de comportement humain permet de simuler le comportement de différents pilotes dans cette situation en fonction des caractéristiques qui vont impacter l’évolution des différents éléments de leur état cognitif :
- Un pilote peu expérimenté peut voir son niveau de stress augmenter ce qui peut activer un comportement de « Sauvegarde » (facteur humain d’influence FH1) et avoir comme conséquence l’abandon de son décollage.
- Un pilote peu concentré peut présenter au décollage une absence de vigilance qui peut l’entraîner à continuer son « Accélération » comme si de rien d’était. La vigilance du pilote peut influencer ses comportements procéduraux pour la mission en cours (facteur humain d’influence FH2). - En revanche, un pilote expérimenté et concentré va maintenir un niveau de vigilance important tout en maintenant assez bas son niveau de stress ce qui va probablement l’amener à choisir un des deux comportements « Ralentissement » ou « Maintien Vitesse » pour permettre de laisser passer la volée d’oiseaux avant de reprendre le cours de son décollage.
[0177] Quel que soit le comportement généré par le moteur en fonction de la situation perçue et de l’état du pilote, ce comportement va se décomposer en plusieurs actions élémentaires, qui peuvent éventuellement être simultanées. Ces actions élémentaires peuvent elles aussi être altérées par un niveau élevé de la charge mentale du pilote (facteur humain d’influence FH2).
[0178] Dans l’exemple de l’abandon du décollage, les actions élémentaires du pilote artificiel peuvent par exemple être, une action de freinage, une action de surveillance extérieure, une action de surveillance des instruments.
[0179] La réalisation effective des actions sélectionnées par le pilote passe par l’utilisation d’actuateurs (mains, pieds, yeux) dont l’efficacité elle-aussi peut être diminuée par un niveau anormal de l’état du pilote (facteur humain d’influence FH3).
[0180] Quelle que soit la situation de l’appareil et l’état cognitif du pilote, le modèle de comportement humain appris doit permettre au moteur de génération de comportement, non seulement de sélectionner les actions qui seront effectivement réalisées par le pilote artificiel dans la simulation, mais aussi doit permettre que la réalisation de ce comportement soit cohérente par rapport aux caractéristiques du pilote qui est simulé.
[0181] La présente description illustre une implémentation préférentielle de l’invention qui n’est pas limitative. Des exemples sont choisis pour permettre une bonne compréhension des principes de l’invention et une application concrète, en particulier au domaine de l’avionique, mais ils ne sont pas exhaustifs et doivent permettre à l’homme du métier d’apporter des modifications et des variantes d’implémentation selon les domaines d’application, en conservant les mêmes principes.
[0182] Le dispositif et le procédé de l’invention sont avantageux pour tous les systèmes impliquant la modélisation et la simulation du comportement d’opérateurs humains en interaction avec un système complexe. [0183] De nombreuses applications industrielles trouveront des avantages à l’implémentation du dispositif et du procédé de l’invention, et elles concernent toutes les simulations possibles impliquant un opérateur et un système complexe où la double nécessité de réalisme opérationnel et humain est importante.
[0184] Les applications envisageables sont notamment pour :
- la simulation de transport au sens large (aéronautique, ferroviaire, maritime, automobile, etc.) où l’on veut simuler de manière fine le comportement de pilote d’avion, de conducteur de train, de bateau ou de voiture par exemple ;
- les domaines de gestion de situation (contrôle aérien, agent de la sécurité publique, etc.) ;
- les domaines de gestion de processus (production d’énergie, opérateur de centrale, etc.) ;
[0185] L’exploitation de l’invention peut concerner :
- Les systèmes de formation, d’entrainement, d’étude ou d’aide à la décision impliquant la simulation fine d’opérateur artificiel en interaction avec des systèmes complexes eux-aussi simulés ;
- Le remplacement partiel ou complet d’opérateurs réels par des opérateurs artificiels capables de générer un comportement proche de celui des opérateurs réels dans l’utilisation d’un système réel.
[0186] En résumé, les éléments principaux de la présente invention portent sur :
- un procédé de création d’une base de données de modèles de comportement humain d’opérateurs en interaction avec un système complexe, intégrant à la fois des éléments cognitifs (état de l’opérateur), des éléments procéduraux (missions et procédures de l’opérateur) et les différentes interactions entre ces deux catégories d’éléments. Cette base de données est constituée grâce à un apprentissage automatique à partir de données enregistrées dans une base de connaissances de comportement des opérateurs lors de séances d’interaction d’une cohorte d’opérateurs avec le système complexe étudié.
- un dispositif (et son procédé) permettant de générer le comportement d’un opérateur artificiel en interaction avec un système complexe et, en particulier de simuler l’évolution de son état cognitif, en utilisant les données provenant d’un environnement de simulation contenant un modèle évolué du système complexe ou d’un environnement réel contenant le vrai système. Le dispositif s’appuie sur la base de données de modèles de comportement humain des opérateurs qui a été constituée, pour produire des modèles constructifs évolués, bénéficiant de la modélisation de l’état cognitif de cet opérateur.
[0187] Au-delà de ces points, la présente invention constitue une nouvelle manière d’appréhender la modélisation du comportement d’un opérateur ou d’une classe d’opérateurs par un apprentissage automatique qui est capable d’exploiter à la fois des données expertes caractérisant de manière procédurale le comportement de cet opérateur ou de cette classe d’opérateurs, et des données réelles provenant de l’enregistrement en situation d’interaction du comportement de cet opérateur ou de cette classe d’opérateurs avec le système complexe étudié.

Claims

REVENDICATIONS
1. Procédé de génération du comportement d’un opérateur artificiel en interaction avec un système complexe au cours d’une mission, la mission étant une mission réelle ou simulée, le procédé étant mis en oeuvre par ordinateur et comprenant des étapes consistant à :
- (502) collecter une pluralité de données sur la situation courante du système complexe ;
- (504) fournir les données collectées en entrée d’un module de traitement de données comprenant un moteur de génération de comportement instanciant un modèle de comportement humain afin de modéliser sur le plan cognitif l’état interne d’un opérateur et sur le plan procédural des procédures d’utilisation formalisées ou observées du système complexe, ledit modèle de comportement humain étant une seule et unique structure de modélisation hybride construite par apprentissage à partir d’une expertise métier et de données d’interaction de manipulation, d’observation et de communication entre un ou plusieurs opérateurs réels avec le système complexe, le module de traitement de données opérant avec les données collectées en suivant des étapes consistant à : - mettre à jour l’état cognitif de l’opérateur artificiel, l’état cognitif de l’opérateur artificiel étant représenté par un ensemble de variables psychophysiologiques représentatives de facteurs humains qui peuvent influencer le comportement et les prises de décision d’opérateurs réels ;
- mettre à jour en prenant en compte le nouvel état cognitif de l’opérateur artificiel, l’avancement des tâches instanciées dans le moteur de génération de comportement pour réaliser la mission ;
- (506, 508) à partir du nouvel état cognitif de l’opérateur artificiel et de l’avancement des tâches dans la mission, utiliser les facteurs humains modélisés par l‘état cognitif de l’opérateur simulé pour influencer une décomposition de la mission en une arborescence de nouvelles tâches se terminant par la génération de données de comportements et d’actions, cette influence des facteurs humains pouvant s’exercer par la génération de nouveaux comportements dans l’arborescence directement liés à évolution de cet état cognitif, par l’orientation des choix de comportements ou d’actions de l’opérateur artificiel lors de la décomposition de la mission et par une modification de l’efficacité des actions sélectionnées en fonction de ce nouvel état cognitif.
2. Le procédé selon la revendication 1 dans lequel le modèle hybride de comportement humain instancié pour l’opérateur artificiel a été appris dans une phase d’apprentissage, par l’application de techniques d’intelligence artificielle sur des modèles cognitifs et sur des modèles procéduraux utilisant, sur de nombreuses simulations, une pluralité de données d’apprentissage pour différents opérateurs, les données d’apprentissage étant capitalisées dans une base de connaissances de comportement d’opérateurs de systèmes complexes.
3. Le procédé selon la revendication 1 ou 2 dans lequel l’étape de mise à jour de l’état cognitif de l’opérateur artificiel prend en compte la situation courante qui comprend des données sur la situation perçue par l’opérateur artificiel et des données de contexte de mission et d’environnement.
4. Le procédé selon l’une quelconque des revendications précédentes dans lequel le modèle hybride de comportement humain est représenté comme un graphe hiérarchique comprenant des modules de comportements cognitifs et des modules de tâches relativement à une mission, les modules de comportements cognitifs et les modules de tâches étant décomposés en modules de comportements, les modules de comportement étant décomposés en modules d’actions, les actions étant des actions élémentaires observables au niveau de l’opérateur artificiel, le graphe comprenant un niveau de sortie correspondant à une sélection d’actions élémentaires.
5. Le procédé selon la revendication 4 dans lequel l’étape de décomposition de la mission consiste à utiliser sur le graphe hiérarchique les informations provenant de la situation courante et des paramètres de facteurs humains d’influence générés par l’état cognitif mis à jour.
6. Le procédé selon la revendication 5 dans lequel les paramètres de facteurs humains d’influence sont utilisés à plusieurs niveaux du graphe hiérarchique.
7. Le procédé selon la revendication 6 dans lequel les paramètres de facteurs humains d’influence sont utilisés à un premier niveau du graphe pour déterminer des comportements cognitifs, à un deuxième niveau du graphe pour déterminer des comportements et des actions, et à un troisième niveau du graphe pour déterminer une sélection d’actions.
8. Un dispositif de génération de comportement d’un opérateur artificiel en interaction avec un système complexe au cours d’une mission, la mission étant une mission réelle ou simulée, le dispositif comprenant des moyens pour mettre en oeuvre les étapes du procédé selon l’une quelconque des revendications 1 à 7.
9. Utilisation du dispositif selon la revendication 8 pour la génération du comportement d’un pilote artificiel en interaction avec un aéronef simulé ou en interaction avec un drone réel au cours d’une mission.
10. Programme d'ordinateur comportant des instructions de code pour l'exécution des étapes du procédé selon l’une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté par un processeur.
11. Le procédé selon l’une quelconque des revendications 1 à 7 comprenant des étapes préliminaires de construction de modèles de comportement humain, lesdites étapes préliminaires consistant à :
- construire une base de connaissances de comportement d’opérateurs BCCO à partir de données issues d’opérateurs en interaction avec un système complexe ;
- utiliser les données de la BCCO pour construire par apprentissage une base de données de modèles cognitifs ;
- utiliser les données de la BCCO pour construire par apprentissage une base de données de modèles spécifiques à chaque opérateur ou à chaque catégorie d’opérateurs ;
- utiliser les données de la BCCO, les données de la base de modèles cognitifs, les données de la base de modèles spécifiques, pour construire par apprentissage :
- des modèles d’état cognitif permettant de modéliser l’évolution de paramètres de facteurs humains d’influence, en fonction du contexte représenté par l’opérateur et de la tâche qu’il réalise dans son interaction avec le système complexe ;
- des modèles de mission intégrant dans leurs règles de fonctionnement les paramètres de facteurs humains d’influence provenant des modèles d’état cognitif, la prise en compte des paramètres intervenant selon trois niveaux d’influence ; la réunion de modèles d’état cognitif et de modèles de mission constituant des structures de modélisation hybrides représentatives de modèles de comportement humain pour un opérateur ou une catégorie d’opérateurs.
12. Le dispositif selon la revendication 8 comprenant des moyens pour mettre en oeuvre les étapes du procédé selon la revendication 11.
13. Le dispositif selon la revendication 12 dans lequel les moyens mettent en oeuvre des techniques d’intelligence artificielle pour faire de l’apprentissage automatique.
14. Un procédé de construction de modèles de comportement humain comprenant des étapes consistant à :
- construire une base de connaissances de comportement d’opérateurs BCCO à partir de données issues d’opérateurs en interaction avec un système complexe ;
- utiliser les données de la BCCO pour construire par apprentissage une base de données de modèles cognitifs ;
- utiliser les données de la BCCO pour construire par apprentissage une base de données de modèles spécifiques à chaque opérateur ou à chaque catégorie d’opérateurs ;
- utiliser les données de la BCCO, les données de la base de modèles cognitifs, les données de la base de modèles spécifiques, pour construire par apprentissage :
- des modèles d’état cognitif permettant de modéliser l’évolution de paramètres de facteurs humains d’influence, en fonction du contexte représenté par l’opérateur et de la tâche qu’il réalise dans son interaction avec le système complexe ;
- des modèles de mission intégrant dans leurs règles de fonctionnement les paramètres de facteurs humains d’influence provenant des modèles d’état cognitif, la prise en compte des paramètres de facteurs humains d’influence intervenant selon trois niveaux d’influence ; la réunion de modèles d’état cognitif et de modèles de mission constituant des structures hybrides uniques de modélisation, un modèle hybride étant un modèle de comportement humain pour un opérateur ou une catégorie d’opérateurs.
EP22757255.9A 2021-07-30 2022-07-22 Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe Pending EP4377768A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2108344A FR3125899A1 (fr) 2021-07-30 2021-07-30 Procede et dispositif de generation du comportement d’un operateur artificiel en interaction avec un systeme complexe
PCT/EP2022/070685 WO2023006624A1 (fr) 2021-07-30 2022-07-22 Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe

Publications (1)

Publication Number Publication Date
EP4377768A1 true EP4377768A1 (fr) 2024-06-05

Family

ID=78770698

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22757255.9A Pending EP4377768A1 (fr) 2021-07-30 2022-07-22 Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe

Country Status (3)

Country Link
EP (1) EP4377768A1 (fr)
FR (1) FR3125899A1 (fr)
WO (1) WO2023006624A1 (fr)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030167454A1 (en) * 2001-03-30 2003-09-04 Vassil Iordanov Method of and system for providing metacognitive processing for simulating cognitive tasks
US11468343B2 (en) * 2017-05-03 2022-10-11 Dialpad Uk Limited Method and system for a user-specific cognitive unit that enhances generic recommendation systems

Also Published As

Publication number Publication date
FR3125899A1 (fr) 2023-02-03
WO2023006624A1 (fr) 2023-02-02

Similar Documents

Publication Publication Date Title
Diamandis et al. Bold: How to go big, create wealth and impact the world
US8001067B2 (en) Method for substituting an electronic emulation of the human brain into an application to replace a human
US20160180568A1 (en) System for neurobehavioural animation
FR3101703A1 (fr) Apprentissage automatique pour systeme de mission
Toubman et al. Modeling CGF behavior with machine learning techniques
EP1605420A2 (fr) Système de formation à l'exploitation, l'utilisation ou la maintenance d'un cadre de travail dans un environnement de realité virtuelle
Fan Will AI replace us?
EP4377768A1 (fr) Procede et dispositif de generation du comportement d'un operateur artificiel en interaction avec un systeme complexe
Alexander et al. Scenarios in System Development
Stein et al. Learning in context: enhancing machine learning with context-based reasoning
EP4360009A1 (fr) Procede et dispositif d'analyse predictive du comportement d'un operateur en interaction avec un systeme complexe
Jennings Artificial Intelligence: rise of the lightspeed learners
Carbone et al. Radically simplifying game engines: AI emotions & game self-evolution
Fernlund Evolving models from observed human performance
Djordjevich et al. Preparing for the aftermath: Using emotional agents in game-based training for disaster response
WO2021245049A1 (fr) Communication bidirectionnelle homme-machine
Floyd et al. Creation of devs models using imitation learning
FR2871606A1 (fr) Systeme de formation a l'exploitation, a l'utilisation ou a la maintenance d'un cadre de travail
Sanchez et al. VIBES: bringing autonomy to virtual characters
Dell’Acqua et al. Emotional behavior trees for empathetic human-automation interaction
Albus Toward a computational theory of mind
Vicente et al. Natural and Artificial Computation for Biomedicine and Neuroscience: International Work-Conference on the Interplay Between Natural and Artificial Computation, IWINAC 2017, Corunna, Spain, June 19-23, 2017, Proceedings, Part I
Dell’Acqua et al. Empathetic human-agent interaction via emotional behavior trees
Kanyok Situational Awareness Monitoring for Humans-In-The-Loop of Telepresence Robotic Systems
Floreano et al. Tales from a Robotic World: How Intelligent Machines Will Shape Our Future

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20240126

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR