WO2007012723A2 - Method and system for modelling an interface between a user and the environment thereof in a motor vehicle - Google Patents

Method and system for modelling an interface between a user and the environment thereof in a motor vehicle Download PDF

Info

Publication number
WO2007012723A2
WO2007012723A2 PCT/FR2006/001701 FR2006001701W WO2007012723A2 WO 2007012723 A2 WO2007012723 A2 WO 2007012723A2 FR 2006001701 W FR2006001701 W FR 2006001701W WO 2007012723 A2 WO2007012723 A2 WO 2007012723A2
Authority
WO
WIPO (PCT)
Prior art keywords
interface
information
model
interface elements
user
Prior art date
Application number
PCT/FR2006/001701
Other languages
French (fr)
Other versions
WO2007012723A3 (en
WO2007012723A8 (en
Inventor
Alexandre-Lucas Stephane
Original Assignee
Airbus
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus filed Critical Airbus
Priority to BRPI0615543-0A priority Critical patent/BRPI0615543A2/en
Priority to CA2615250A priority patent/CA2615250C/en
Priority to JP2008523395A priority patent/JP5032476B2/en
Priority to EP06778868A priority patent/EP1915662A2/en
Priority to CN200680027036.2A priority patent/CN101351763B/en
Publication of WO2007012723A2 publication Critical patent/WO2007012723A2/en
Publication of WO2007012723A3 publication Critical patent/WO2007012723A3/en
Publication of WO2007012723A8 publication Critical patent/WO2007012723A8/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D7/00Indicating measured values
    • G01D7/02Indicating value of two or more variables simultaneously
    • G01D7/08Indicating value of two or more variables simultaneously using a common indicating element for two or more variables
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration

Definitions

  • the invention relates to a method and a system for determining a model of an interface between a pilot and his environment on board a vehicle.
  • instrument panels having a plurality of interface elements.
  • piloting interface elements To carry out its task, the user of the vehicle in question, piloting interface elements, must be perfectly familiar with the functions performed by these interface elements, the information they deliver, as well as the procedures describing sequences of interfaces. actions (manual, visual, auditory) to be performed in relation to the interface elements.
  • the subject of the present invention is a method for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises the following steps: - development of an interface model from, on the one hand, a first type of information representative of vehicle interface elements and, on the other hand, a second type of representative information knowledge held by a user about the use of interface elements,
  • the interface model is developed on the basis of the technical user-system duality and not only on the technical information representative of the system, which makes it possible to obtain a very reliable model built on a set of structured information between them. a way that is particularly representative of the interaction between the user and his environment on board the vehicle, including the interface elements of the latter.
  • the two types of information are provided, with identical configuration, to a dynamic database having a structure symmetric user-technical system.
  • the information of the two types is configured according to the same multi-agent cognitive model.
  • the configuration of the information of the first type according to a cognitive multi-agent model comprises a step of establishing a link between the procedures for using the vehicle and the interface elements of the vehicle.
  • the configuration of the information of the first type according to a multi-agent cognitive model comprises a step of identifying functional areas on each interface element considered. By defining such areas within the same interface element, it will be possible to obtain a detailed model of each interface element and thus to obtain subsequently, during the step of data acquisition, detailed information about the interaction between the user (eg the driver) and the zones, or even several areas of different interface elements. The model will thus be even more complete and therefore more reliable by acquiring, for example, eye-tracking data relating to these areas of the same interface element or of several of them.
  • the configuration of the information of the first type according to a multi-agent cognitive model comprises for each interface element the following steps:
  • the model thus established is particularly representative of the interaction of the user (eg pilot) with the considered interface element, taking into account the tasks assigned to the interface element and which are determined, for example, by the procedures for using the vehicle (eg driving).
  • the human activity solicited during the interaction between the user and the interface elements is selected from vision, speech, hearing, motor skills, physiological manifestations and reactions of the human body.
  • the acquisition and analysis of data reflecting a wide variety of human activities provides very useful information for, for example, completing / modifying the interaction model.
  • the data acquisition apparatus is an eye-tracking apparatus recording visual data representative of the user's visual journey on the interface elements.
  • Such a device is particularly useful for describing the visual behavior of the user (eg pilot) when his gaze travels through different interface elements as well as the external visual, or even particular areas within one or more elements interface.
  • This device can be coupled with another device for recording, for example, in video form the actions of the pilot, while the position of his gaze is followed by the first device. Records audio can also be very useful.
  • the interface model determined as briefly described above has applications in many fields (aeronautics, space, automobile, maritime ...) and can be used in many applications:
  • the invention also relates to a system for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises:
  • FIG. 1a generally represents an algorithm of the method for determining an interface model according to the invention
  • FIG. 1b schematically shows a system for implementing the method according to the invention
  • FIG. 2 is a schematic representation of the process of developing the interface model according to the invention.
  • FIG. 3 schematically represents an algorithm detailing the steps illustrated on the algorithm of FIG. 1a;
  • FIG. 4 is a table illustrating the correspondence between a flight procedure and the flight instruments used at each stage of the procedure
  • FIG. 5 illustrates the identification of different information zones on an on-board instrument
  • FIG. 6 schematically illustrates the functions assigned to the zones defined in FIG. 5;
  • FIG. 7 represents in tabular form the connection between the agents of the cognitive model and the functional areas of the instrument panel illustrated in FIG. 5;
  • FIG. 8 illustrates an example of drawing up tables 16 and 18 of FIG. 1a.
  • the invention finds a particularly interesting application in aeronautics, particularly in the modeling of the interface elements of an aircraft cockpit.
  • main instrument panel IP main instrument pane! In English terminology
  • PF Peak Flying
  • PNF Packet Non Flying
  • ND Navigation Display
  • central panel CP central paner in English terminology
  • top panel OP overhead paner in English terminology
  • windshield GS windshield GS
  • the user of the cockpit namely the pilot, uses all the interface elements of the abovementioned instrumentation panels for piloting the aircraft, for navigation tasks, as well as for protection tasks for the aircraft. maintain the aircraft in the flight area.
  • the algorithm of FIG. 1a illustrates the main steps of the method according to the invention for determining such a pilot-cockpit interface model.
  • This algorithm is executed by a computer operating in cooperation with data storage means / information (databases, memories ).
  • a cockpit interface model based on two types of information, a first type of information, relating to the technical system and more particularly representative of data elements.
  • cockpit interface and a second type of human-related information, and in particular, representative of pilot knowledge of the use of cockpit interface elements and flight procedures, as well as of his behaviors (airplane pilot experience).
  • the pilot-cockpit interaction is interface-based, with a dynamic character, including user and technical system behaviors.
  • This step relies on the use of both technical and human origin information in order to take into account the user-system pair during the development of the interaction model.
  • the information of the two aforementioned types is provided to a dynamic database 10 having a pilot symmetric structure (human) -technical system with respect to the interaction axis separating the part of the base relating to the human aspect 12 and that relating to the technical aspect 14.
  • the information is poured into this database in a structured way according to an identical configuration which is defined, according to each aspect (human and technical), by an input-output level detailing all the inputs and outputs used and by a level of treatment detailing the different subsystems used.
  • the model is developed starting with the identification of inputs and outputs on the human side and the technical system side, before moving on to the identification of subsystems in information processing.
  • the symmetrical development of the human-technical interaction model makes it possible to apply the same methods to all the entities involved. Since the technical system as well as the human are considered as complex systems, and decomposed analogously in subsystems (ie if we consider the vocal alarms (belonging to the vocal subsystem) and the graphic alarms (belonging to the sub-system).
  • the information of technical origin (first type) and of human origin (second type) are identically configured according to the same multi-agent cognitive model and we use the known language UML ("Unified Modeling Language" in English terminology) to formalize the pilot-cockpit pair.
  • UML Unified Modeling Language
  • This multiagents representation is particularly adapted to the description of processes that can take place simultaneously.
  • a pilot may have to analyze visual information (input from the human side and output from the technical system side) along with auditory information, such as audible alarms.
  • This multi-agent representation is also particularly suitable when it comes to following information in a sequential manner and which can take place between different independent interface elements. Furthermore, this representation is also useful for properly ranking and classifying information in order to facilitate the subsequent analysis of data representative of human activities occurring during the interaction between the driver and interface elements.
  • agents of the cognitive model are identified by their roles, responsibilities, resources or functions, and goals to be attained.
  • the application domain namely the use of interface elements of the aircraft cockpit, is analyzed in terms of needs to be met in a given context.
  • the agents are goal oriented and allow to account for the desire relative to the constitutive schema of the pilot's belief.
  • the pilot thinks that to change the flight level he needs a certain number of conditions to ensure the smooth running of his maneuver: visibility, engine conditions, atmospheric conditions ...
  • the pilot therefore wishes to obtain this information to be able to accomplish its task and will therefore use the cognitive resources provided by the interface elements (instruments). He thus completes his awareness of the situation and can plan for the future and act accordingly.
  • each agent satisfies the goals set by means of action plans that are, for example, in aeronautics, procedures defining the use of the instruments in the operations manual of the crew called FCOM ( "Flight Crew Operating Manuat” in English terminology) and which includes the review of different check lists, landing and takeoff phases ...
  • FCOM "Flight Crew Operating Manuat” in English terminology
  • these action plans correspond to the mental representation that the user has of the written flight procedures and which varies according to the experience.
  • the cognitive architecture is based on two main levels, namely the input-output level and the level of information processing. Agents are classified by level (input-output or processing) and by type (input-output channel or processing system).
  • agents are characterized by one or more roles, responsibilities, and resources.
  • an agent is defined with respect to a task or sub-task (for example, relating to the control of the vehicle) to be performed.
  • the responsibilities of the agent are to perform the task or subtask and the resources used allow the actual execution of the task or subtask.
  • a scene in three dimensions can be represented by a set of agents that are each in charge of a particular characteristic of the scene, such as relief, textures.
  • the textures correspond to the grid of the relief which can be variable or constant, according to the field databases, that is to say that one can have meshes of the same size everywhere or then meshes of different sizes according to the zones of relief represented, the colors and the symbology.
  • the resources of these agents are classified by level (input-output or processing) and by type (input-output channels or processing system).
  • level input-output or processing
  • type input-output channels or processing system.
  • the relief of the aforementioned three-dimensional visual scene which may be represented by an agent, may have varied resources that are used to detect and analyze valleys, rivers, woods, roads, buildings. .. of the visual scene.
  • the agents of the multiagents cognitive model are determined according to the steps of the process indicated below, which are performed iteratively in two approaches, the top-down approach
  • the "Top-Down” approach is based on knowledge of pilots and their use of cockpit interface elements and facilitates classification into agents.
  • the modeling of the cockpit following this multi-agent cognitive model makes it possible to define the elements of the visual scene at a level of fine granularity which takes into consideration elements constituting each interface element (instrument instruments), namely the information zones. of these interface elements, not each interface element as a set (high level of granularity).
  • the resources of the agents thus defined are assigned to the processing of the interface elements.
  • the formalization of the pilot-cockpit pair does not merely represent disparate entities, but proposes to define links between these entities, as represented in FIG. 2, by organizing the entities in the form of tables 16, 18 containing resources, agents, liaison officers and plans, both on the human side and on the technical system side.
  • the liaison agents make it possible to define direct links with specific resources of another agent. Without these linkers, it would be possible to link only agents, not resources to agents.
  • the modeling of the technical system is represented on the left of FIG. 2 by the modeling of the PFD interface element 20 which will be detailed below, while on the right side of this same FIG. , we have represented the architecture of the cognitive modeling of the human side 22 on the two main levels, namely inputs-outputs 24 and level 26 where the information processing takes place.
  • LTM Long-Term Memory
  • WM Work Memory
  • Decision Making Making
  • data are acquired that are representative of one or more human activities (for example, vision, speech, hearing, movement of human limbs, kinesthesia, and physiological reactions of the human body ”) that are involved in the interaction of the driver with the interface elements.
  • human activities for example, vision, speech, hearing, movement of human limbs, kinesthesia, and physiological reactions of the human body .
  • the pilot looks at an area of an interface element of the cockpit, the information or information being detected by an eye-tracking device and automatically integrated into a database. of results and, on the other hand, acts at the same time on the handle and / or other equipment, the information or the corresponding information being collected by a video recording system or other and also stored.
  • step E3 After acquisition of these data, during the next step we proceed to their study (step E3), for example, by the expert pilot or pilots who were the subject of the experiment referred to in step E2.
  • the test subject examines the results and interprets them in an attempt to determine whether an action he performed at a given point in the experiment was appropriate and whether intervened at the right time. More generally, it explains the relationship between taking information / not taking information and acting / not acting.
  • the subject of the experiment determines, for example, why his gaze has followed a given visual path on one or more consecutive interface elements and / or on one or more zones of a same interface element.
  • pilot-cockpit interface such as it has been developed or adjust it.
  • it can be seen that it lacks an interface element to allow the pilot to carry out his task of piloting, navigation or other task, or a navigation interface element (display .. .).
  • the level of granularity retained during the development of the interface model is too fine and therefore not very representative of the real context or, on the contrary, that the level of granularity is too important and therefore does not allow obtain sufficient relevant information representative of this context.
  • step E3 This can, for example, be observed after experiencing significant fatigue and high stress of the subject of the experiment. It is therefore possible to improve the interaction model according to the results of step E3. This is done iteratively by performing the loop shown in FIG. 1a between step E4 and step E1 until the model is obtained. desired interaction that is as representative as possible of the aircraft's on-board environment.
  • the latter validated model
  • the latter can be used, for example, for the training of future pilots in a flight simulator or for the improvement of the interfaces proposed by the system (layout, sequence of information, spatial and multimodal redundancy, etc.).
  • FIG. 1b represents a system 30 for determining a model according to the invention, representative of the interaction between the user 32 and the interface elements 34.
  • This system comprises a computer 36 having inputs outputs to cooperate with the user 32 and the interface elements 34, as well as with a data acquisition apparatus 38 (for example an eye-tracking device) which transmits to the computer 36 the acquired data to be analyzed.
  • a data acquisition apparatus 38 for example an eye-tracking device
  • the algorithm of FIG. 3 illustrates in more detail the steps of the algorithm of FIG. 2 by highlighting the symmetrical formalization of the pilot-cockpit pair.
  • the development of the interface model on the technical system side begins with a first step E10, during which a link is established between the flight procedures defined in the FCOM manual and the interface elements of the cockpit (flight instruments such as PFD, ND ...) that the pilot (PF) and the co-pilot (PNF) must consult for each action described in the flight procedure concerned.
  • These procedures include the take-off procedure, the take-off procedure, the climb procedure in English terminology, and the cruise flight procedure in terminology. anglosaxon), the procedure of descent preparation ("descent preparation” in English terminology), the descent procedure ("descent” in English terminology), the standard approach procedure (“standard approach” in English terminology), the approach procedure non-precision (“non-precision approach” in English terminology) and the landing procedure (“landing" in English terminology).
  • the table shown in FIG. 4 is obtained, showing, for example, that the pilot must consult the instrument called FCU ("Flight Control Unif in English terminology") of the GS panel in SET-value mode and the PFD instrument of the IP main panel in CHECK mode to read the BARO reference (barometric reference). even during the climb, the pilot must consult the PFD instrument on the main panel to view the speed and altitude information, as well as the altitude of the aircraft.
  • FCU Fluor Unif in English terminology
  • BARO reference barometric reference
  • the algorithm of FIG. 3 provides a next step E12 during which the information zones of the cockpit are identified. each interface element of the cockpit, as well as the determination of the functions performed by these zones.
  • step E14 is used to determine the roles and responsibilities (functions of the different zones in view of the tasks and sub-tasks relating to the piloting of the aircraft and in which each interface element is used). From this determination of roles and responsibilities of the zones, it will be possible to determine the agents of the multiagents cognitive model.
  • the PFD interface element there are three basic tasks that are the piloting of the aircraft (T1), the navigation (T2) and the protection to keep the aircraft in the flight range (T3 ).
  • zone Z1 qualified as "FMA”("Flight Mode Annunciatof” in English terminology) from which four sub-zones can be identified which provide information on the piloting mode (for example, automatic pilot mode) and
  • the Z2 zone referred to as "VA" provides information on the air speed and can be broken down into two sub-zones.
  • the zone Z3 qualified as "AA” and which can be decomposed into two sub-zones provides information on the attitude of the aircraft (pitch, trim, roll, guidance, joystick ).
  • the zone Z4 qualified as "A / Vv" and which can be decomposed into three sub-zones serves as an altimeter and provides information on the vertical speed of the aircraft.
  • Zone Z5 qualified as "ILS-GS” (ILS for “Instrument Landing System” and GS for “Glide Slope” in English terminology) provides information on the vertical position of the ILS instrument landing system, relative to the slope GS .
  • Zone Z6 qualified. "ILS-Loc” provides information on the ILS horizontal position, relative to the locator ("localizer" in English terminology).
  • the zone Z7 qualified as "M / l" provides information on the Mach number of the aircraft and navigation information.
  • the zone Z8 qualified as "H / T" ("heading / track zone” in English terminology) provides information on the guidance and the heading of the aircraft.
  • zone Z9 described as "Ref / Alt" provides information on the height reference. It will be noted that the name of the zones acts as a definition of the role of the agent which will be defined later.
  • cognitive agents are determined which make it possible to describe the cognitive processes for using the different zones of the PFD interface element as shown in FIG. , agents related to vertical displacement analysis are determined
  • the agent A1 has the role of analyzing the vertical displacement of the aircraft by looking at the parameters of altitude and vertical speed and, to fulfill this role, it is responsible for the values of the vertical parameters and the symbols of these parameters.
  • the agent A1 relies on four cognitive resources related to the responsibility of the values of vertical parameters, on the one hand, and on two cognitive resources related to the responsibility of the symbology, on the other hand. This allows the agent to perform the tasks related mainly to the control of the apparatus (T11 and T12) and which are located in the zone Z4 of the PFD interface element.
  • the inputs and outputs of the system are identified with respect to the context of use, that is to say that information provided by the system is identified (elements such as the PFD) at a given time with respect to a given use situation, such as take-off or climb.
  • step E20 of the algorithm it is intended to identify system information (e.g., the PFD interface element) located at the processing level.
  • system information e.g., the PFD interface element
  • FIG. 8 illustrates in detail the preparation of the tables 16 and 18 of FIG. 2 according to the plan structure, the link agent, the agent and the resources, on the technical system side as well as on the human side, in the context of the monitoring of the altitude relative to the PFD instrument.
  • Human-source information is provided, for example, through interviews with pilots or flight process experts. During these interviews describing given situations (ie use of instruments that present information in two dimensions, for example, ND, PFD, compared to the use of an instrument that would present the same information directly in three dimensions) asks the experts to indicate the actions they would consider undertaking, the controls to be carried out, the information they would need to act ...
  • a first step E22 it is intended to identify, at the input-output level of the human interface interface model, the modes of interaction with the technical system, namely, for example, the input-output channels. outputs that constitute human vision, human language, hearing, kinesthesia ...
  • the necessary resources are also identified to undertake the appropriate maneuver, ie to perceive (look at) the altitude information provided by the corresponding area of the PFD interface element, hear (listen) the audible alarm ("call-ouf in English terminology)" TERRAIN "(meaning that the aircraft is outside the safety zone with respect to the terrain, that is, ie too low), pull the handle, or even put the gas.
  • the interactions between the different modalities previously identified from cases identified during the interviews such as that of perceiving the altitude information on the interface element considered and hearing the alarm. auditory and as well as to pull on the handle.
  • step E26 it is planned to define the level of processing of the cognitive model on the human side.
  • step E26 the information processing is identified according to the different modalities (input-output channels) previously identified.
  • the representative table 16 of the human side modeling corresponding to table 18 on the technical system side is constructed, as part of the monitoring of the altitude of the aircraft with respect to the PFD instrument, from the defined plane, to know how to use the PFD and how to fly the plane.
  • the resources used are determined / identified at the input-output and processing levels.
  • the visual input-outputs are identified, namely the altitude monitoring provided by the PFD and the corresponding processing, namely the Working Memory (WM) and the Long-Term Memory (LTM), as well as the Taking of Decision.
  • the corresponding agent is the "PFD” and the aforementioned resources are linked to the "Flight Plan Monitoring” agent.
  • the pilot-cockpit multi-agent cognitive model is symmetrically developed.
  • E28 completes the human cognitive model and validates it with an expert in the field (specialist in cognitive psychology, physiology, language).
  • step E30 it is planned to validate the representative model of the human-technical system pair (pilot-cockpit) with experts from the various fields involved, namely experts in the flight procedure, experts pilots, designers and experts in human factors (experts in vision, hearing, language, kinesthesia ). It should be noted that, optionally, steps E28 and E30 can be combined.
  • step E2 Once the model is developed, proceed to step E2 previously described in which human factors analysis methods are used to collect data reflecting corresponding human activities through an experimental protocol. .
  • the eye-tracking device 38 of FIG. 1b makes it possible to record the position of the pilot's gaze on a visual scene, thus making it possible to follow the various visual elements traversed by the pilot's gaze on the interface elements of the cockpit. , as well as on the external visual.
  • the eye-tracking device comprises an analog device, namely the eye tracker, which records the movements of the pilot's eye.
  • the eye tracker has three elements, namely, a camera recording the movements of the eye, an infrared source emitting an infrared ray in the eye and a camera recording the visual scene seen by the pilot.
  • the video data acquired by the camera recording the movements of the eye and the video data acquired by the camera recording the visual scene seen by the pilot are superimposed and the position of the gaze of the pilot is represented by a pointer (for example, a circle or a reticle) that moves on the visual stage.
  • a pointer for example, a circle or a reticle
  • the oculometer is associated with a magnetic field generator to provide maximum accuracy.
  • the magnetic field generator is used as a reference in the three-dimensional space to capture the position of the pilot's head relative to the coordinates of the different surfaces and planes that make up the actual environment of the latter.
  • the surfaces and planes concerned are those corresponding to the cockpit screens and control panels constituting regions of interest which can be decomposed into zones and subfields of interest as seen previously for each interface element.
  • a magnetic field generator and a receiver fixed to the pilot's head are thus used, and these elements, combined with the aforementioned analog device (oculometer), make it possible to obtain maximum precision the position of the user's gaze on a visual scene.
  • the receiver attached to the pilot's head provides the exact position of the head in the three-dimensional model.
  • the distance between this head receiver and the camera recording the scene, as well as the distance between the head receiver and the pilot's eyes are then introduced into the three-dimensional model.
  • the first of the aforementioned distances is necessary to perform the calibration of the camera with respect to the scene and the second of these distances is necessary to calibrate the analog device (eye tracker).
  • the adaptation of the aforesaid eye-tracking device to the cockpit in order to provide maximum precision by combining the data provided by the position of the pilot's head and those provided by the position of his gaze takes account of the geometric study of the cockpit and the study of the pilot's posture.
  • the Applicant realized that to implant the magnetic field generator on a support in the cockpit, it was necessary to ensure that the distance between the generator and any metal surface is large enough to minimize magnetic interference that may occur with the eye tracking device.
  • the Applicant has found that the distance between the magnetic field generator and the receiver of the position of the pilot's head must be strictly less than distance between the receiver of the position of the pilot's head and any metal surface, again to minimize magnetic interference. It should be noted that the pilot's postural study makes it possible to define the limits of his movement volume and thus the distances between the head receiver and the magnetic field source.
  • the aforementioned eye-tracking device it is possible to record very precisely the eye movements (behaviors) such as the bindings, sweeps and pursuits that characterize the way the pilot looks at the specific elements of an aeronautical visual scene ( instrumentation and external visual) .
  • the constituent elements of an eye-tracking device namely the analog device, the magnetic field generator and a helmet carrying the head receiver, are available from the company Senso-Motric.
  • step E3 which follows the data acquisition step, these data are analyzed with the subject or subjects of the (pilot) experiment in order to check the coherence and the reliability of the results of the experiment.
  • the invention may indeed apply to fields other than the aeronautical field
  • the instructor and the student can Once the course is over and viewing the video data recorded with the eye tracker, better understand why the student did not look in the rear view mirror before turning.
  • step E3 All the data collected during step E2, analyzed and interpreted during step E3, are then validated at a first intra-domain collective level with the experts of the field concerned (for example, aeronautics made up of a population of pilots) and are then validated at a collective inter-domain level with experts from different fields (experts in human factors, engineers, pilots), so that this data is shared with all concerned stakeholders.
  • the experts of the field concerned for example, aeronautics made up of a population of pilots
  • a collective inter-domain level with experts from different fields (experts in human factors, engineers, pilots), so that this data is shared with all concerned stakeholders.
  • the method according to the invention makes it possible to determine when a display system placed at a height above the pilot's head ("Head Up Display" in English terminology) should be used to optimize use.
  • the method according to the invention also makes it possible to determine whether such a display system is actually used by the pilot on a particular type of vehicle.
  • the method according to the invention makes it possible to realize that the pilot mentally constructs a three-dimensional visual representation of the position of his vehicle in space, and this, solely on the basis of information in two dimensions provided by aircraft instruments.
  • the method according to the invention can then serve as a basis for designing a new instrument providing a three-dimensional visual representation of the position of the vehicle in space.
  • the method is particularly advantageous for determining the really useful information that is provided by interface elements of the dashboard. Indeed, thanks in particular to the acquisition and analysis of data, for example, oculometric, the method makes it possible to separate the information essential to the user from those that are not particularly useful or that are redundant.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

The invention relates to a method for determining a model of interface between a user and the environment thereof in a motor vehicle consisting in creating (E1) an interface model according to the first type of information items representing the vehicle interface elements and a second type of information items representing knowledge of the user about the use of the interface elements, in acquiring (E2) data items representing at least one human activity required for the interaction between the user and the interface elements, wherein said data acquisition is carried out by means of at least one data acquisition device, in analysing (E3) the thus obtainable data and in adjusting (E4) the interface model according the data analysis.

Description

Procédé et système de modélisation d'une interface entre un utilisateur et son environnement à bord d'un véhicule Method and system for modeling an interface between a user and his environment in a vehicle
L'invention concerne un procédé et un système de détermination d'un modèle d'une interface entre un pilote et son environnement à bord d'un véhicule.The invention relates to a method and a system for determining a model of an interface between a pilot and his environment on board a vehicle.
Dans différents secteurs (aéronautique, automobile, maritime...), les véhicules aériens, terrestres ou maritimes nécessitent, pour leur utilisationIn different sectors (aeronautics, automobile, maritime ...), air, land or maritime vehicles require, for their use
(pilotage ou conduite, navigation, communication, surveillance de l'environnement, gestion des systèmes...) des panneaux d'instrumentation dotés d'une pluralité d'éléments d'interface.(piloting or driving, navigation, communication, environmental monitoring, systems management ...) instrument panels having a plurality of interface elements.
Pour mener à bien sa tâche, l'utilisateur du véhicule considéré, pilote des éléments d'interface, doit connaître parfaitement les fonctions remplies par ces éléments d'interface, les informations que ces derniers délivrent, ainsi que les procédures décrivant des séquences d'actions (manuelles, visuelles, auditives) à accomplir en relation avec les éléments d'interface.To carry out its task, the user of the vehicle in question, piloting interface elements, must be perfectly familiar with the functions performed by these interface elements, the information they deliver, as well as the procedures describing sequences of interfaces. actions (manual, visual, auditory) to be performed in relation to the interface elements.
On comprend ainsi que, lors du pilotage d'un véhicule, l'interaction entre l'utilisateur et les éléments d'interface disposés à bord du véhicule revêt une grande importance et fait donc l'objet de beaucoup d'attention.It is thus understood that, when driving a vehicle, the interaction between the user and the interface elements disposed on the vehicle is of great importance and is therefore the subject of much attention.
Il serait donc intéressant de pouvoir évaluer de façon nouvelle et efficace cette interaction afin, par exemple, d'être en mesure d'améliorer des éléments d'interface existants, d'en concevoir de nouveaux, ou d'améliorer des procédures de vol, ou bien d'améliorer l'agencement de plusieurs éléments d'interface les uns par rapport aux autres.It would therefore be interesting to be able to evaluate this interaction in a new and effective way in order, for example, to be able to improve existing interface elements, to design new ones, or to improve flight procedures, or to improve the arrangement of several interface elements relative to each other.
A cet effet, la présente invention a pour objet un procédé de détermination d'un modèle d'une interface entre un utilisateur et son environnement à bord d'un véhicule, caractérisé en ce qu'il comporte les étapes suivantes : - élaboration d'un modèle d'interface à partir, d'une part, d'un premier type d'informations représentatives d'éléments d'interface du véhicule et, d'autre part, d'un second type d'informations représentatives des connaissances détenues par un utilisateur sur l'utilisation des éléments d'interface,For this purpose, the subject of the present invention is a method for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises the following steps: - development of an interface model from, on the one hand, a first type of information representative of vehicle interface elements and, on the other hand, a second type of representative information knowledge held by a user about the use of interface elements,
- acquisition de données représentatives d'au moins une activité humaine qui est sollicitée lors de l'interaction entre l'utilisateur et ces éléments d'interface, l'acquisition de ces données étant effectuée par l'intermédiaire d'au moins un appareil d'acquisition de données,- Acquisition of data representative of at least one human activity that is requested during the interaction between the user and these interface elements, the acquisition of these data being performed via at least one device. 'data acquisition,
- analyse des données ainsi acquises,- analysis of the data thus acquired,
- ajustement du modèle d'interface en fonction de l'analyse des données.- adjustment of the interface model according to the analysis of the data.
Le modèle d'interface est élaboré sur le fondement de la dualité utilisateur-système technique et non sur les seules informations techniques représentatives du système, ce qui permet d'obtenir un modèle très fiable bâti sur un ensemble d'informations structurées entre elles d'une façon qui est particulièrement représentative de l'interaction entre l'utilisateur et son environnement à bord du véhicule, et notamment des éléments d'interface de ce dernier.The interface model is developed on the basis of the technical user-system duality and not only on the technical information representative of the system, which makes it possible to obtain a very reliable model built on a set of structured information between them. a way that is particularly representative of the interaction between the user and his environment on board the vehicle, including the interface elements of the latter.
Grâce aux données enregistrées qui traduisent le comportement visuel et/ou gestuel et/ou vocal et/ou physiologique de l'utilisateur en relation avec les éléments d'interface et à l'interprétation de ces données, il est possible d'enrichir le modèle d'interface préalablement élaboré et donc de l'ajuster au plus près du contexte qu'il doit représenter.Thanks to the recorded data which translate the visual and / or gestural and / or vocal and / or physiological behavior of the user in relation to the interface elements and to the interpretation of these data, it is possible to enrich the model interface previously developed and therefore to adjust closer to the context it must represent.
On peut, par exemple, détecter des anomalies de fonctionnement dans les éléments d'interface, évaluer de nouveaux éléments d'interface, déterminer qu'un élément d'interface devrait délivrer certaines informations ou assurer certaines fonctions, ou bien encore déterminer qu'un nouvel élément d'interface remplissant une ou plusieurs fonctions données serait particulièrement utile. Selon une caractéristique, les deux types d'informations, le premier type d'informations d'origine technique et le second type d'informations d'origine humaine, sont fournies, avec une configuration identique, à une base de données dynamique ayant une structure symétrique utilisateur-système technique.For example, it is possible to detect operating anomalies in the interface elements, to evaluate new interface elements, to determine whether an interface element should deliver certain information or perform certain functions, or to determine that A new interface element that performs one or more given functions would be particularly useful. According to one characteristic, the two types of information, the first type of information of technical origin and the second type of information of human origin, are provided, with identical configuration, to a dynamic database having a structure symmetric user-technical system.
Dans la mesure où les informations des deux types sont toujours fournies dans le même format unique, il s'ensuit un gain de temps et d'efficacité dans le traitement de ces informations et donc dans l'élaboration du modèle.Insofar as the information of both types is always provided in the same single format, it results in a saving of time and efficiency in the processing of this information and thus in the development of the model.
Selon une caractéristique, les informations des deux types sont configurées selon un même modèle cognitif multiagents.According to one characteristic, the information of the two types is configured according to the same multi-agent cognitive model.
Une telle représentation des informations s'avère particulièrement adaptée et efficace pour élaborer le modèle d'interaction.Such a representation of the information proves particularly suitable and effective for developing the interaction model.
Selon une caractéristique, la configuration des informations du premier type selon un modèle cognitif multi-agents comprend une étape d'établissement d'une liaison entre des procédures d'utilisation du véhicule et les éléments d'interface du véhicule.According to one characteristic, the configuration of the information of the first type according to a cognitive multi-agent model comprises a step of establishing a link between the procedures for using the vehicle and the interface elements of the vehicle.
On établit ainsi une correspondance entre les différentes étapes des procédures d'utilisation du véhicule (par exemple, de pilotage) et les éléments d'interface intervenant à chaque étape en vue de la modélisation de ces derniers.This establishes a correspondence between the various stages of the vehicle utilization procedures (for example, piloting) and the interface elements involved at each stage in order to model them.
Selon une caractéristique, la configuration des informations du premier type selon un modèle cognitif multiagents comprend une étape d'identification de zones fonctionnelles sur chaque élément d'interface considéré. En définissant de telles zones à l'intérieur d'un même élément d'interface, il va être possible d'obtenir un modèle détaillé de chaque élément d'interface et donc d'obtenir par la suite, lors de l'étape d'acquisition de données, des informations détaillées sur l'interaction entre l'utilisateur (ex. le pilote) et les zones, voire plusieurs zones de différents éléments d'interface. Le modèle sera ainsi encore plus complet et donc plus fiable en acquérant, par exemple, des données oculométriques relatives à ces zones d'un même élément d'interface ou de plusieurs d'entre eux. Selon une caractéristique, la configuration des informations du premier type selon un modèle cognitif multiagents comprend pour chaque élément d'interface les étapes suivantes :According to one characteristic, the configuration of the information of the first type according to a multi-agent cognitive model comprises a step of identifying functional areas on each interface element considered. By defining such areas within the same interface element, it will be possible to obtain a detailed model of each interface element and thus to obtain subsequently, during the step of data acquisition, detailed information about the interaction between the user (eg the driver) and the zones, or even several areas of different interface elements. The model will thus be even more complete and therefore more reliable by acquiring, for example, eye-tracking data relating to these areas of the same interface element or of several of them. According to one characteristic, the configuration of the information of the first type according to a multi-agent cognitive model comprises for each interface element the following steps:
- détermination des tâches relatives à l'utilisation du véhicule remplies par l'élément d'interface considéré,- determination of the tasks relating to the use of the vehicle filled by the considered interface element,
- détermination des agents du modèle cognitif multiagents par rapport aux tâches déterminées,- determination of the agents of the multiagents cognitive model with respect to the determined tasks,
- établissement d'une liaison entre les agents du modèle cognitif ainsi déterminés et les zones fonctionnelles identifiées de l'élément d'interface considéré.establishing a link between the agents of the cognitive model thus determined and the identified functional areas of the interface element in question.
Le modèle ainsi établi est particulièrement représentatif de l'interaction de l'utilisateur (ex. pilote) avec l'élément d'interface considéré, compte tenu des tâches affectées à l'élément d'interface et qui sont déterminées, par exemple, par les procédures d'utilisation du véhicule (par exemple, de pilotage).The model thus established is particularly representative of the interaction of the user (eg pilot) with the considered interface element, taking into account the tasks assigned to the interface element and which are determined, for example, by the procedures for using the vehicle (eg driving).
Selon une caractéristique, l'activité humaine sollicitée lors de l'interaction entre l'utilisateur et les éléments d'interface est sélectionnée parmi la vision, la parole, l'audition, la motricité, les manifestations et réactions physiologiques du corps humain. L'acquisition et l'analyse de données traduisant des activités humaines très diverses fournissent des informations très utiles permettant, par exemple, de compléter/modifier le modèle d'interaction.According to one characteristic, the human activity solicited during the interaction between the user and the interface elements is selected from vision, speech, hearing, motor skills, physiological manifestations and reactions of the human body. The acquisition and analysis of data reflecting a wide variety of human activities provides very useful information for, for example, completing / modifying the interaction model.
Selon une caractéristique, l'appareil d'acquisition de données est un appareil oculométrique enregistrant des données visuelles représentatives du parcours visuel de l'utilisateur sur les éléments d'interface.According to one characteristic, the data acquisition apparatus is an eye-tracking apparatus recording visual data representative of the user's visual journey on the interface elements.
Un tel appareil est particulièrement utile pour décrire le comportement visuel de l'utilisateur (ex. pilote) lorsque son regard parcourt différents éléments d'interface ainsi que le visuel extérieur, voire des zones particulières à l'intérieur d'un ou de plusieurs éléments d'interface. Cet appareil peut être couplé avec un autre appareil permettant d'enregistrer, par exemple, sous forme vidéo les gestes du pilote, tandis que la position de son regard est suivie par le premier appareil. Des enregistrements audio peuvent également être très utiles. On dispose ainsi d'un plus grand nombre de données à traiter et d'une plus grande variété de données, ce qui permet d'enrichir le modèle d'interface et de le rendre encore plus fidèle au contexte qu'il doit représenter. Le modèle d'interface déterminé comme brièvement décrit ci-dessus trouve des applications dans de nombreux domaines (aéronautique, spatial, automobile, maritime...) et peut être utilisé dans de nombreuses applications :Such a device is particularly useful for describing the visual behavior of the user (eg pilot) when his gaze travels through different interface elements as well as the external visual, or even particular areas within one or more elements interface. This device can be coupled with another device for recording, for example, in video form the actions of the pilot, while the position of his gaze is followed by the first device. Records audio can also be very useful. As a result, there is more data to process and a wider variety of data, which makes it possible to enrich the interface model and make it even more faithful to the context it has to represent. The interface model determined as briefly described above has applications in many fields (aeronautics, space, automobile, maritime ...) and can be used in many applications:
- amélioration d'un ou de plusieurs éléments d'interface ;- improvement of one or more interface elements;
- conception d'un ou de plusieurs éléments d'interface ; - évaluation d'un ou de plusieurs nouveaux éléments d'interface ;- design of one or more interface elements; - evaluation of one or more new interface elements;
- modification d'une procédure d'utilisation (par exemple, de pilotage) du véhicule ;- modification of a procedure of use (for example, piloting) of the vehicle;
- formation d'utilisateurs (par exemple, de pilotes) au pilotage du véhicule. L'invention a également pour objet un système de détermination d'un modèle d'une interface entre un utilisateur et son environnement à bord d'un véhicule, caractérisé en ce qu'il comporte :- training of users (for example, pilots) in driving the vehicle. The invention also relates to a system for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises:
- des moyens d'élaboration d'un modèle d'interface à partir, d'une part, d'un premier type d'informations représentatives d'éléments d'interface du véhicule et, d'autre part, d'un second type d'informations représentatives des connaissances détenues par un utilisateur sur l'utilisation des éléments d'interface,means for developing an interface model from, on the one hand, a first type of information representative of vehicle interface elements and, on the other hand, a second type information representative of the knowledge held by a user on the use of the interface elements,
- au moins un appareil d'acquisition de données représentatives d'au moins une activité humaine qui est sollicitée lors de l'interaction entre l'utilisateur et ces éléments d'interface,at least one apparatus for acquiring data representative of at least one human activity that is requested during the interaction between the user and these interface elements,
- des moyens d'analyse des données ainsi acquises,- means of analysis of the data thus acquired,
- des moyens d'ajustement du modèle d'interface en fonction de l'analyse des données.means for adjusting the interface model according to the analysis of the data.
Ce système comporte les mêmes aspects et avantages que ceux présentés ci-dessus à l'égard du procédé et ils ne seront donc pas rappelés ici. D'autres caractéristiques et avantages apparaîtront au cours de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, sur lesquels :This system has the same aspects and advantages as those presented above with respect to the process and will not be recalled here. Other characteristics and advantages will become apparent from the following description, given solely by way of nonlimiting example and with reference to the appended drawings, in which:
- la figure 1a représente de façon générale un algorithme du procédé de détermination d'un modèle d'interface selon l'inventionFIG. 1a generally represents an algorithm of the method for determining an interface model according to the invention
- la figure 1b représente de façon schématique un système de mise en œuvre du procédé selon l'invention ;- Figure 1b schematically shows a system for implementing the method according to the invention;
- la figure 2 représente de façon schématique le processus d'élaboration du modèle d'interface selon l'invention ;FIG. 2 is a schematic representation of the process of developing the interface model according to the invention;
- la figure 3 représente de façon schématique un algorithme détaillant les étapes illustrées sur l'algorithme de la figure 1a ;FIG. 3 schematically represents an algorithm detailing the steps illustrated on the algorithm of FIG. 1a;
- la figure 4 est un tableau illustrant la correspondance entre une procédure de vol et les instruments de bord utilisés à chaque étape de la procédure ;FIG. 4 is a table illustrating the correspondence between a flight procedure and the flight instruments used at each stage of the procedure;
- la figure 5 illustre l'identification de différentes zones d'information sur un instrument de bord ;FIG. 5 illustrates the identification of different information zones on an on-board instrument;
- la figure 6 illustre de façon schématique les fonctions affectées aux zones définies sur la figure 5 ; - la figure 7 représente sous forme de tableau la liaison entre les agents du modèle cognitif et les zones fonctionnelles de l'instrument de bord illustré à la figure 5 ;FIG. 6 schematically illustrates the functions assigned to the zones defined in FIG. 5; FIG. 7 represents in tabular form the connection between the agents of the cognitive model and the functional areas of the instrument panel illustrated in FIG. 5;
- la figure 8 illustre un exemple d'élaboration des tableaux 16 et 18 de la figure 1a. L'invention trouve une application particulièrement intéressante dans l'aéronautique, notamment dans la modélisation des éléments d'interface d'un cockpit d'avion.FIG. 8 illustrates an example of drawing up tables 16 and 18 of FIG. 1a. The invention finds a particularly interesting application in aeronautics, particularly in the modeling of the interface elements of an aircraft cockpit.
Dans un cockpit d'avion, on trouve plusieurs types de panneaux d'instrumentation, par exemple, le panneau d'instrumentation principal IP ("main instrument pane!" en terminologie anglosaxonne) sur lequel sont agencés plusieurs instruments de bord jouant le rôle d'éléments d'interface pour le pilote appelé PF ("Pilot Flying" en terminologie anglosaxonne) et le copilote appelé PNF ("Pilot Non Flying" en terminologie anglosaxonne), à savoir, par exemple, l'instrument appelé PFD ou afficheur de vol primaire ("Primary Flight Display" en terminologie anglosaxonne) et l'instrument appelé ND ou afficheur de navigation ("Navigation Display" en terminologie anglosaxonne). On trouve également un panneau central CP ("central paner en terminologie anglosaxonne), un panneau supérieur OP ("overhead paner en terminologie anglosaxonne) et un panneau en dessous du pare-brise GS ("glareshield paneF' en terminologie anglosaxonne).In an aircraft cockpit, there are several types of instrumentation panels, for example, the main instrument panel IP ("main instrument pane!" In English terminology) on which are arranged several instruments playing the role of interface elements for the pilot called PF ("Pilot Flying" in English terminology) and the co-pilot called PNF ("Pilot Non Flying" in English terminology), namely, for example, the instrument called PFD or "Primary Flight Display" (Anglo-Saxon terminology) and the instrument called ND or navigation display ("Navigation Display" in English terminology). There is also a central panel CP ("central paner in English terminology), a top panel OP (" overhead paner in English terminology) and a panel below the windshield GS ("glareshield paneF 'in English terminology).
L'utilisateur du cockpit, à savoir le pilote, utilise tous les éléments d'interface des panneaux d'instrumentation de bord précités pour procéder au pilotage de l'avion, à des tâches de navigation, ainsi qu'à des tâches de protection pour maintenir l'avion dans le domaine de vol.The user of the cockpit, namely the pilot, uses all the interface elements of the abovementioned instrumentation panels for piloting the aircraft, for navigation tasks, as well as for protection tasks for the aircraft. maintain the aircraft in the flight area.
Afin de faciliter l'exécution de ces tâches par le pilote et de lui permettre d'exercer son activité avec un maximum de sécurité, il s'est avéré utile de déterminer un modèle d'interface entre le pilote et son environnement à bord de l'avion.In order to facilitate the execution of these tasks by the pilot and to enable him to exercise his activity with maximum safety, it has proved useful to determine a model of interface between the pilot and his environment aboard the aircraft. 'plane.
L'algorithme de la figure 1a illustre les principales étapes du procédé selon l'invention de détermination d'un tel modèle d'interface pilote- cockpit. Cet algorithme est exécuté par un calculateur fonctionnant en coopération avec des moyens de stockage de données/d'informations (bases de données, mémoires...).The algorithm of FIG. 1a illustrates the main steps of the method according to the invention for determining such a pilot-cockpit interface model. This algorithm is executed by a computer operating in cooperation with data storage means / information (databases, memories ...).
Au cours d'une première étape E1 , il est prévu d'élaborer un modèle d'interface de cockpit à partir de deux types d'informations, un premier type d'informations, relatives au système technique et plus particulièrement représentatives d'éléments d'interface du cockpit, et un second type d'informations, relatives à l'humain et, plus particulièrement, représentatives des connaissances détenues par un pilote sur l'utilisation des éléments d'interface du cockpit et sur les procédures de vol, ainsi que de ses comportements (expérience de pilote d'avion). L'interaction pilote-cockpit est basée sur les interfaces, avec un caractère dynamique, incluant les comportements de l'utilisateur et du système technique.During a first step E1, it is planned to develop a cockpit interface model based on two types of information, a first type of information, relating to the technical system and more particularly representative of data elements. cockpit interface, and a second type of human-related information, and in particular, representative of pilot knowledge of the use of cockpit interface elements and flight procedures, as well as of his behaviors (airplane pilot experience). The pilot-cockpit interaction is interface-based, with a dynamic character, including user and technical system behaviors.
Cette étape s'appuie sur l'utilisation d'informations à la fois d'origine technique et d'origine humaine afin de prendre en compte le couple utilisateur- système technique lors de l'élaboration du modèle d'interaction.This step relies on the use of both technical and human origin information in order to take into account the user-system pair during the development of the interaction model.
Comme illustré sur la figure 2, les informations des deux types précités sont fournies à une base de données dynamique 10 dotée d'une structure symétrique pilote (humain)-système technique par rapport à l'axe d'interaction séparant la partie de la base relative à l'aspect humain 12 et celle relative à l'aspect technique 14.As illustrated in FIG. 2, the information of the two aforementioned types is provided to a dynamic database 10 having a pilot symmetric structure (human) -technical system with respect to the interaction axis separating the part of the base relating to the human aspect 12 and that relating to the technical aspect 14.
On notera que les informations sont déversées dans cette base de données de façon structurée suivant une configuration identique qui est définie, selon chaque aspect (humain et technique), par un niveau d'entrées-sorties détaillant toutes les entrées et les sorties utilisées et par un niveau de traitement détaillant les différents sous-systèmes utilisés.It should be noted that the information is poured into this database in a structured way according to an identical configuration which is defined, according to each aspect (human and technical), by an input-output level detailing all the inputs and outputs used and by a level of treatment detailing the different subsystems used.
Le modèle est élaboré en commençant par l'identification des entrées-sorties du côté humain et du côté système technique, avant de passer à l'identification des sous-systèmes au niveau du traitement de l'information. L'élaboration de façon symétrique du modèle d'interaction humain- système technique permet d'appliquer les mêmes méthodes à l'ensemble des entités en présence. Puisque le système technique ainsi que l'humain sont envisagés comme des systèmes complexes, et décomposés de façon analogue en sous systèmes (i.e. si l'on considère les alarmes vocales (appartenant au sous-système vocal) et les alarmes graphiques (appartenant au sous-système graphique) côté système technique), il faut considérer les sous-systèmes à l'aide desquels l'humain percevra, prendra conscience et traitera ces alarmes : côté humain, ces sous-systèmes sont assimilés aux modalités auditive et visuelle, à l'attention, au système de traitement des symboles, à la mémoire à court et long terme et à la prise de décision.The model is developed starting with the identification of inputs and outputs on the human side and the technical system side, before moving on to the identification of subsystems in information processing. The symmetrical development of the human-technical interaction model makes it possible to apply the same methods to all the entities involved. Since the technical system as well as the human are considered as complex systems, and decomposed analogously in subsystems (ie if we consider the vocal alarms (belonging to the vocal subsystem) and the graphic alarms (belonging to the sub-system). -system-graphic) on the technical system side), it is necessary to consider the subsystems with which the human perceives, will become aware and will treat these alarms: on the human side, these subsystems are assimilated to the auditory and visual modalities, to the attention to the symbol processing system, short and long-term memory and decision-making.
Les informations d'origine technique (premier type) et d'origine humaine (second type) sont configurées de façon identique selon un même modèle cognitif multiagents et l'on utilise le langage connu UML ("Unified Modelling Language" en terminologie anglosaxonne) pour formaliser le couple pilote-cockpit.The information of technical origin (first type) and of human origin (second type) are identically configured according to the same multi-agent cognitive model and we use the known language UML ("Unified Modeling Language" in English terminology) to formalize the pilot-cockpit pair.
Dans le modèle cognitif multiagents on va définir des agents permettant de décrire les processus de connaissance du pilote en relation avec les éléments d'interface du cockpit.In the multi-agent cognitive model we will define agents to describe the pilot knowledge processes in relation to the interface elements of the cockpit.
Cette représentation multiagents est particulièrement adaptée à la description de processus pouvant se dérouler simultanément.This multiagents representation is particularly adapted to the description of processes that can take place simultaneously.
En effet, un pilote peut avoir à analyser des informations visuelles (en entrée du côté humain et en sortie du côté système technique) en même temps que des informations auditives, telles que des alarmes sonores.Indeed, a pilot may have to analyze visual information (input from the human side and output from the technical system side) along with auditory information, such as audible alarms.
Cette représentation multiagents est également particulièrement adaptée lorsqu'il s'agit de suivre des informations selon un parcours séquentiel et qui peuvent avoir lieu entre différents éléments d'interface indépendants. Par ailleurs, cette représentation est également utile pour hiérarchiser et classer de façon appropriée des informations en vue de faciliter l'analyse ultérieure des données représentatives d'activités humaines intervenant lors de l'interaction entre le pilote et des éléments d'interface.This multi-agent representation is also particularly suitable when it comes to following information in a sequential manner and which can take place between different independent interface elements. Furthermore, this representation is also useful for properly ranking and classifying information in order to facilitate the subsequent analysis of data representative of human activities occurring during the interaction between the driver and interface elements.
Dans la modélisation cognitive basée sur des agents et des ressources, on détermine les agents du modèle cognitif par leurs rôles, leurs responsabilités, leurs ressources ou fonctions et les buts à atteindre.In cognitive agent-based and resource-based modeling, agents of the cognitive model are identified by their roles, responsibilities, resources or functions, and goals to be attained.
Suivant cette approche multiagents, le domaine d'application, à savoir l'utilisation des éléments d'interface du cockpit d'avion, est analysé en termes de besoins à satisfaire dans un contexte donné. Les agents sont orientés par un but et permettent de rendre compte du désir relatif au schéma constitutif de la croyance du pilote.Following this multi-agent approach, the application domain, namely the use of interface elements of the aircraft cockpit, is analyzed in terms of needs to be met in a given context. The agents are goal oriented and allow to account for the desire relative to the constitutive schema of the pilot's belief.
Par exemple, le pilote pense que pour changer le niveau de vol il a besoin d'un certain nombre de conditions afin d'assurer la bonne marche de sa manœuvre : visibilité, états de moteurs, conditions atmosphériques... Le pilote désire donc obtenir ces informations pour être à même d'accomplir sa tâche et va donc utiliser les ressources cognitives que lui fournissent les éléments d'interface (instruments de bord). II complète ainsi la conscience qu'il a de la situation et peut se projeter dans l'avenir et agir en conséquence.For example, the pilot thinks that to change the flight level he needs a certain number of conditions to ensure the smooth running of his maneuver: visibility, engine conditions, atmospheric conditions ... The pilot therefore wishes to obtain this information to be able to accomplish its task and will therefore use the cognitive resources provided by the interface elements (instruments). He thus completes his awareness of the situation and can plan for the future and act accordingly.
Tous ces aspects vont donc pouvoir être évalués dans un cadre expérimental s'appuyant sur la modélisation cognitive multiagents. Ces agents qui contribuent à des processus cognitifs portent sur la perception, la compréhension et la représentation mentale des éléments d'interface du cockpit.All these aspects will therefore be evaluated in an experimental framework based on multi-agent cognitive modeling. These agents that contribute to cognitive processes relate to the perception, comprehension and mental representation of the interface elements of the cockpit.
Ainsi, chaque agent satisfait les buts fixés à l'aide de plans d'action qui sont par exemple, dans l'aéronautique, des procédures définissant l'utilisation des instruments de bord dans le manuel d'opérations de l'équipage appelé FCOM ("Flight Crew Operating Manuat' en terminologie anglosaxonne) et qui prévoit notamment la revue des différentes check lists, des phases d'atterrissage et de décollage...Thus, each agent satisfies the goals set by means of action plans that are, for example, in aeronautics, procedures defining the use of the instruments in the operations manual of the crew called FCOM ( "Flight Crew Operating Manuat" in English terminology) and which includes the review of different check lists, landing and takeoff phases ...
Du côté de l'utilisateur (pilote), ces plans d'action correspondent à la représentation mentale que l'utilisateur a des procédures de vol écrites et qui varie en fonction de l'expérience.On the user (pilot) side, these action plans correspond to the mental representation that the user has of the written flight procedures and which varies according to the experience.
Comme déjà mentionné ci-dessus en référence à la figure 2, l'architecture cognitive est basée sur deux niveaux principaux, à savoir le niveau d'entrées-sorties et le niveau de traitement de l'information. Des agents sont classés par niveau (entrées-sorties ou traitement) et par type (canal d'entrées-sorties ou système de traitement).As already mentioned above with reference to Figure 2, the cognitive architecture is based on two main levels, namely the input-output level and the level of information processing. Agents are classified by level (input-output or processing) and by type (input-output channel or processing system).
Ainsi, sur le même niveau, on rencontre plusieurs types : au niveau des entrées-sorties, on dispose d'agents de type visuel, d'agents de type auditif, etc. et, au niveau du traitement, on dispose d'agents attentionnels, d'agents mnémoniques, d'agents de prise de décision, etc..Thus, on the same level, there are several types: at the input-output level, we have visual type agents, auditory type agents, etc. and at the level of treatment, attention agents, mnemonic agents, decision-making agents, etc. are available.
Comme indiqué ci-dessus, les agents sont caractérisés par un ou plusieurs rôles, des responsabilités et des ressources.As noted above, agents are characterized by one or more roles, responsibilities, and resources.
Plus particulièrement, le rôle d'un agent est défini par rapport à une tâche ou sous-tâche (par exemple, relative au pilotage du véhicule) qui doit être réalisée. Les responsabilités de l'agent sont d'exécuter la tâche ou la sous- tâche et les ressources utilisées permettent l'exécution effective de la tâche ou de la sous-tâche.More particularly, the role of an agent is defined with respect to a task or sub-task (for example, relating to the control of the vehicle) to be performed. The responsibilities of the agent are to perform the task or subtask and the resources used allow the actual execution of the task or subtask.
Ainsi, par exemple, une scène en trois dimensions peut être représentée par un ensemble d'agents qui sont chacun en charge d'une caractéristique particulière de la scène, telle que le relief, les textures. Les textures correspondent au quadrillage du relief qui peut être variable ou constant, en fonction des bases de données terrain, c'est-à-dire que l'on peut avoir des mailles de la même taille partout ou alors des mailles de tailles différentes selon les zones de relief représentées, les couleurs et la symbologie.Thus, for example, a scene in three dimensions can be represented by a set of agents that are each in charge of a particular characteristic of the scene, such as relief, textures. The textures correspond to the grid of the relief which can be variable or constant, according to the field databases, that is to say that one can have meshes of the same size everywhere or then meshes of different sizes according to the zones of relief represented, the colors and the symbology.
Tout comme les agents, les ressources de ces agents sont classées par niveau (entrées-sorties ou traitement) et par type (canaux d'entrées-sorties ou système de traitement). Ainsi, par exemple, le relief de la scène visuelle en trois dimensions précitée, pouvant être représenté par un agent, peut disposer de ressources variées qui sont utilisées pour détecter et analyser les vallées, les rivières, les bois, les routes, les constructions... de la scène visuelle.Like agents, the resources of these agents are classified by level (input-output or processing) and by type (input-output channels or processing system). Thus, for example, the relief of the aforementioned three-dimensional visual scene, which may be represented by an agent, may have varied resources that are used to detect and analyze valleys, rivers, woods, roads, buildings. .. of the visual scene.
La détermination des agents du modèle cognitif multiagents s'effectue selon les étapes du procédé indiqué ci-dessous, qui sont effectuées de façon itérative en suivant deux approches, l'approche allant du Haut vers leThe agents of the multiagents cognitive model are determined according to the steps of the process indicated below, which are performed iteratively in two approaches, the top-down approach
Bas, qualifiée de "Top-Down", et l'approche du Bas vers le Haut, qualifiée deLow, qualified as "Top-Down", and the bottom-up approach, described as
"Bottom-Up"."Bottom-Up".
L'approche "Top-Down" est fondée sur les connaissances que l'on peut avoir sur les pilotes ainsi que sur leur façon d'utiliser les éléments d'interface du cockpit et permet de faciliter la classification en agents.The "Top-Down" approach is based on knowledge of pilots and their use of cockpit interface elements and facilitates classification into agents.
L'approche "Bottom-Up" est fondée sur les éléments d'interface du cockpit et les indications visuelles que l'on regroupe afin de mettre en évidence des responsabilités et des agents. Top DownThe bottom-up approach is based on cockpit interface elements and visual cues that are grouped together to highlight responsibilities and agents. Top Down
- 1. Identification des tâches- 1. Identification of tasks
- 2. Identification des sous-systèmes utilisés pour effectuer chaque tâche- 2. Identification of the subsystems used to perform each task
- 3. Identification des agents à l'intérieur de chaque sous-système- 3. Identification of the agents within each subsystem
- Identification des liens entre les agents- Identification of links between agents
- Identification des ressources de chaque agent- Identification of the resources of each agent
- Identification des liens entre les ressources et les autres agents- Identification of links between resources and other agents
- 3. Appariement des catégories et des agents- 3. Matching categories and agents
- 2. Regroupement des ressources en catégories- 2. Grouping resources into categories
- 1. Identification des ressources liées aux éléments de la scène visuelle- 1. Identification of resources related to elements of the visual scene
Bottom ÙpBottom Ùp
La modélisation du cockpit suivant ce modèle cognitif multiagents permet de définir les éléments de la scène visuelle à un niveau de granularité fin qui prend en considération des éléments constitutifs de chaque élément d'interface (instruments de bord), à savoir les zones d'informations de ces éléments d'interface, et non chaque élément d'interface comme un ensemble (niveau de granularité important).The modeling of the cockpit following this multi-agent cognitive model makes it possible to define the elements of the visual scene at a level of fine granularity which takes into consideration elements constituting each interface element (instrument instruments), namely the information zones. of these interface elements, not each interface element as a set (high level of granularity).
Dans le cadre de ce modèle, les ressources des agents ainsi définies sont affectées au traitement des éléments d'interface.As part of this model, the resources of the agents thus defined are assigned to the processing of the interface elements.
De façon générale, la formalisation du couple pilote-cockpit ne se contente pas de représenter des entités disparates, mais propose de définir des liens entre ces entités, comme représenté sur la figure 2, en organisant les entités sous forme de tableaux 16, 18 contenant des ressources, des agents, des agents de liaison et des plans, tant du côté humain que du côté du système technique. On notera que les agents de liaison permettent de définir des liens directs avec des ressources spécifiques d'un autre agent. Sans ces agents de liaison, il serait possible de relier seulement des agents, et non des ressources à des agents.In general, the formalization of the pilot-cockpit pair does not merely represent disparate entities, but proposes to define links between these entities, as represented in FIG. 2, by organizing the entities in the form of tables 16, 18 containing resources, agents, liaison officers and plans, both on the human side and on the technical system side. It should be noted that the liaison agents make it possible to define direct links with specific resources of another agent. Without these linkers, it would be possible to link only agents, not resources to agents.
Comme illustré sur la figure 2, la modélisation du système technique est représentée sur la gauche de la figure 2 par la modélisation de l'élément d'interface PFD 20 qui sera détaillée ci-après, tandis que sur la partie droite de cette même figure, on a représenté l'architecture de la modélisation cognitive du côté humain 22 sur les deux niveaux principaux, à savoir des entrées-sorties 24 et le niveau 26 où le traitement de l'information s'effectue.As illustrated in FIG. 2, the modeling of the technical system is represented on the left of FIG. 2 by the modeling of the PFD interface element 20 which will be detailed below, while on the right side of this same FIG. , we have represented the architecture of the cognitive modeling of the human side 22 on the two main levels, namely inputs-outputs 24 and level 26 where the information processing takes place.
Chacun de ces niveaux peut être décomposé en plusieurs sous- systèmes, par exemple, celui de la vision, de l'audition, du langage et de la motricité pour le premier et celui de l'Attention, de la Mémoire à Long Terme (LTM pour "Long Term Memory" en terminologie anglosaxonne), de la Mémoire de Travail (WM pour "Work Memory" en terminologie anglosaxonne) et de la Prise de Décision ("Décision Making" en terminologie anglosaxonne) pour le second.Each of these levels can be broken down into several subsystems, for example, that of vision, hearing, language and motor skills for the first and that of Attention, Long-Term Memory (LTM). for "Long Term Memory" in English terminology), Work Memory (WM for "Work Memory" in English terminology) and Decision Making ("Making Decision" in Anglo-Saxon terminology) for the second.
Dès lors que le modèle d'interface a été élaboré à partir des deux types d'informations (informations représentatives des éléments d'interface et informations représentatives des connaissances et comportements humains sur l'utilisation des éléments d'interface), l'algorithme de la figure 1a prévoit une étapeSince the interface model has been developed from both types of information (information representative of the interface elements and information representative of the human knowledge and behaviors on the use of the interface elements), the algorithm of Figure 1a provides a step
E2 d'acquisition de données.E2 data acquisition.
Au cours de cette étape, on procède à l'acquisition de données qui sont représentatives d'une ou de plusieurs activités humaines (par exemple, la vision, la parole, l'audition, le mouvement des membres humains, la kinesthésie, les manifestations et réactions physiologiques du corps humain...) qui sont impliquées dans l'interaction du pilote avec les éléments d'interface.During this step, data are acquired that are representative of one or more human activities (for example, vision, speech, hearing, movement of human limbs, kinesthesia, and physiological reactions of the human body ...) that are involved in the interaction of the driver with the interface elements.
Ainsi par exemple, à un instant donné, le pilote, d'une part, regarde une zone d'un élément d'interface du cockpit, l'information ou les informations étant détectées par un appareil oculométrique et automatiquement intégrées dans une base de données de résultats et, d'autre part, agit en même temps sur le manche et/ou sur d'autres équipements, l'information ou les informations correspondantes étant recueillies par un système d'enregistrement vidéo ou autre et également stockées.For example, at a given moment, the pilot, on the one hand, looks at an area of an interface element of the cockpit, the information or information being detected by an eye-tracking device and automatically integrated into a database. of results and, on the other hand, acts at the same time on the handle and / or other equipment, the information or the corresponding information being collected by a video recording system or other and also stored.
On notera qu'en fonction de la nature de l'activité humaine concernée, on utilise un appareil d'acquisition de données adapté (oculomètre, enregistreur vidéo, sonde électrodermale...).It will be noted that depending on the nature of the human activity concerned, a suitable data acquisition apparatus (oculometer, video recorder, electrodermal probe, etc.) is used.
Après acquisition de ces données, au cours de l'étape suivante on procède à leur étude (étape E3), par exemple, par le ou les pilotes experts qui ont fait l'objet de l'expérience visée à l'étape E2. Au cours de l'analyse des données acquises, le sujet d'expérience examine les résultats et procède à leur interprétation en essayant de déterminer si une action qu'il a effectuée à un moment donné de l'expérience était bien appropriée et si elle est intervenue au bon moment. Plus généralement, il explicite la relation entre prise d'information/absence de prise d'information et action/absence d'action.After acquisition of these data, during the next step we proceed to their study (step E3), for example, by the expert pilot or pilots who were the subject of the experiment referred to in step E2. During the analysis of the acquired data, the test subject examines the results and interprets them in an attempt to determine whether an action he performed at a given point in the experiment was appropriate and whether intervened at the right time. More generally, it explains the relationship between taking information / not taking information and acting / not acting.
Au cours de l'interprétation de ces résultats, le sujet de l'expérience détermine, par exemple, pourquoi son regard a suivi un parcours visuel donné sur un ou plusieurs éléments d'interface consécutifs et/ou sur une ou plusieurs zones d'un même élément d'interface.During the interpretation of these results, the subject of the experiment determines, for example, why his gaze has followed a given visual path on one or more consecutive interface elements and / or on one or more zones of a same interface element.
En fonction des résultats de cette analyse et de leur interprétation par le sujet de l'expérience et, éventuellement, par d'autres experts de différents domaines, il est possible de valider le cadre de la modélisation de l'interface pilote-cockpit tel qu'il a été élaboré ou d'ajuster ce dernier. Ainsi, par exemple, on peut constater qu'il manque un élément d'interface pour permettre au pilote de mener à bien sa tâche de pilotage, de navigation ou une autre tâche, ou bien un élément d'interface de navigation (afficheur...).Depending on the results of this analysis and their interpretation by the subject of the experiment and, possibly, by other experts from different domains, it is possible to validate the framework of the modeling of the pilot-cockpit interface such as it has been developed or adjust it. Thus, for example, it can be seen that it lacks an interface element to allow the pilot to carry out his task of piloting, navigation or other task, or a navigation interface element (display .. .).
On peut également constater que le niveau de granularité retenu lors de l'élaboration du modèle d'interface est trop fin et donc peu représentatif du contexte réel ou, au contraire, que le niveau de granularité est trop important et donc ne permet pas d'obtenir suffisamment d'informations pertinentes représentatives de ce contexte.It can also be noted that the level of granularity retained during the development of the interface model is too fine and therefore not very representative of the real context or, on the contrary, that the level of granularity is too important and therefore does not allow obtain sufficient relevant information representative of this context.
L'interprétation des résultats de l'expérience permet également de mettre en évidence des dysfonctionnements des éléments d'interface ou des procédures de vol.The interpretation of the results of the experiment also makes it possible to highlight dysfunctions of the interface elements or the flight procedures.
Ceci peut, par exemple, être observé après avoir constaté une fatigue importante et un stress élevé du sujet de l'expérience. Il est donc possible d'améliorer le modèle d'interaction en fonction des résultats de l'étape E3. On procède ainsi de façon itérative en effectuant la boucle représentée sur la figure 1a entre l'étape E4 et l'étape E1 jusqu'à obtenir le modèle d'interaction souhaité qui soit le plus représentatif possible de l'environnement de bord de l'avion.This can, for example, be observed after experiencing significant fatigue and high stress of the subject of the experiment. It is therefore possible to improve the interaction model according to the results of step E3. This is done iteratively by performing the loop shown in FIG. 1a between step E4 and step E1 until the model is obtained. desired interaction that is as representative as possible of the aircraft's on-board environment.
Dès lors que le modèle d'interface a été déterminé par le procédé selon l'invention conformément aux buts fixés, alors ce dernier (modèle validé) peut être utilisé, par exemple, pour la formation de futurs pilotes dans un simulateur de vol ou encore pour l'amélioration des interfaces proposées par le système (disposition, enchaînement des informations, redondance spatiale et multi- modale, etc.).Since the interface model has been determined by the method according to the invention in accordance with the goals set, then the latter (validated model) can be used, for example, for the training of future pilots in a flight simulator or for the improvement of the interfaces proposed by the system (layout, sequence of information, spatial and multimodal redundancy, etc.).
On notera que la figure 1 b représente un système 30 de détermination d'un modèle selon l'invention, représentatif de l'interaction entre l'utilisateur 32 et les éléments d'interface 34. Ce système comprend un calculateur 36 ayant des entrées-sorties pour coopérer avec l'utilisateur 32 et les éléments d'interface 34, ainsi qu'avec un appareil d'acquisition de données 38 (par exemple un appareil oculométrique) qui transmet au calculateur 36 les données acquises qui sont à analyser.It will be noted that FIG. 1b represents a system 30 for determining a model according to the invention, representative of the interaction between the user 32 and the interface elements 34. This system comprises a computer 36 having inputs outputs to cooperate with the user 32 and the interface elements 34, as well as with a data acquisition apparatus 38 (for example an eye-tracking device) which transmits to the computer 36 the acquired data to be analyzed.
L'algorithme de la figure 3 illustre de façon plus détaillée les étapes de l'algorithme de la figure 2 en mettant en évidence la formalisation symétrique du couple pilote-cockpit.The algorithm of FIG. 3 illustrates in more detail the steps of the algorithm of FIG. 2 by highlighting the symmetrical formalization of the pilot-cockpit pair.
L'élaboration du modèle d'interface du côté du système technique débute par une première étape E10, au cours de laquelle on établit un lien entre les procédures de vol définies dans le manuel FCOM et les éléments d'interface du cockpit (instruments de bord tels que PFD, ND...) que le pilote (PF) et le copilote (PNF) doivent consulter pour chaque action décrite dans la procédure de vol concernée. Parmi ces procédures, on trouve la procédure de décollage ("take ofl" en terminologie anglosaxonne), d'après décollage, la procédure de montée ("climb" en terminologie anglosaxonne), la procédure de vol de croisière ("cruise" en terminologie anglosaxonne), la procédure de préparation à la descente ("descent préparation" en terminologie anglosaxonne), la procédure de descente ("descent" en terminologie anglosaxonne), la procédure d'approche standard ("standard approach" en terminologie anglosaxonne), la procédure d'approche non précise ("non-precision approach" en terminologie anglosaxonne) et la procédure d'atterrissage ("landing" en terminologie anglosaxonne).The development of the interface model on the technical system side begins with a first step E10, during which a link is established between the flight procedures defined in the FCOM manual and the interface elements of the cockpit (flight instruments such as PFD, ND ...) that the pilot (PF) and the co-pilot (PNF) must consult for each action described in the flight procedure concerned. These procedures include the take-off procedure, the take-off procedure, the climb procedure in English terminology, and the cruise flight procedure in terminology. anglosaxon), the procedure of descent preparation ("descent preparation" in English terminology), the descent procedure ("descent" in English terminology), the standard approach procedure ("standard approach" in English terminology), the approach procedure non-precision ("non-precision approach" in English terminology) and the landing procedure ("landing" in English terminology).
En associant les instruments de bord concernés par chaque action décrite dans la procédure de vol de montée ("climb") du manuel de pilotage d'un Airbus A340, on obtient le tableau illustré sur la figure 4 montrant, par exemple, que le pilote doit consulter l'instrument appelé FCU ("Flight Control Unif en terminologie anglosaxonne) du panneau GS en mode SET-valeur et l'instrument PFD du panneau principal IP en mode CHECK pour lire l'indication BARO réf. (référence barométrique). De même, durant la montée, le pilote doit consulter l'instrument PFD du panneau principal pour visualiser les informations de vitesse et d'altitude, ainsi que l'altitude de l'avion.By associating the instruments concerned by each action described in the climb procedure of the Airbus A340 flight manual, the table shown in FIG. 4 is obtained, showing, for example, that the pilot must consult the instrument called FCU ("Flight Control Unif in English terminology") of the GS panel in SET-value mode and the PFD instrument of the IP main panel in CHECK mode to read the BARO reference (barometric reference). even during the climb, the pilot must consult the PFD instrument on the main panel to view the speed and altitude information, as well as the altitude of the aircraft.
Dès lors que l'on a relié les procédures de vol avec les éléments d'interface du cockpit concernés, l'algorithme de la figure 3 prévoit une étape suivante E12 au cours de laquelle on procède à l'identification des zones d'information de chaque élément d'interface du cockpit, ainsi qu'à la détermination des fonctions remplies par ces zones.Once the flight procedures have been linked to the cockpit interface elements concerned, the algorithm of FIG. 3 provides a next step E12 during which the information zones of the cockpit are identified. each interface element of the cockpit, as well as the determination of the functions performed by these zones.
A titre d'exemple, on identifie les différentes zones d'informations sur l'élément d'interface PFD d'affichage de vol primaire ("Primary Flight Display" en terminologie anglosaxonne) en référence à la figure 5.By way of example, the different information zones on the primary flight display PFD interface element ("Primary Flight Display" in English terminology) are identified with reference to FIG.
Cette figure est décomposée en deux parties : sur la partie gauche, l'élément d'interface PFD est représenté et, sur la partie droite, on a identifié les différentes zones d'informations de cet élément d'interface ainsi que leur localisation sur ce dernier. On dénombre ainsi neuf zones d'informations repérées par les chiffres de 1 à 9 sur la partie droite de la figure 5 et qui seront désignées par la suite par les références Z1 à Z9.This figure is broken down into two parts: on the left-hand side, the PFD interface element is represented and on the right-hand side, the different information zones of this interface element have been identified as well as their location on this latest. There are thus nine areas of information marked with the numbers 1 to 9 on the right side of Figure 5 and which will be designated later by the references Z1 to Z9.
Après l'identification des zones de chaque élément d'interface, on procède au cours de l'étape suivante E14 à la détermination des rôles et des responsabilités (fonctions des différentes zones compte tenu des tâches et sous- tâches relatives au pilotage de l'avion et dans lesquelles chaque élément d'interface est utilisé). A partir de cette détermination des rôles et des responsabilités des zones, il sera possible de déterminer les agents du modèle cognitif multiagents.After the identification of the zones of each interface element, the following step E14 is used to determine the roles and responsibilities (functions of the different zones in view of the tasks and sub-tasks relating to the piloting of the aircraft and in which each interface element is used). From this determination of roles and responsibilities of the zones, it will be possible to determine the agents of the multiagents cognitive model.
Ainsi, par exemple pour l'élément d'interface PFD, on distingue trois tâches fondamentales qui sont le pilotage de l'avion (T1), la navigation (T2) et la protection pour maintenir l'avion dans le domaine de vol (T3).Thus, for example for the PFD interface element, there are three basic tasks that are the piloting of the aircraft (T1), the navigation (T2) and the protection to keep the aircraft in the flight range (T3 ).
Au sein de chacune de ces trois tâches, il est possible de déterminer des sous-tâches plus précises :Within each of these three tasks, it is possible to determine more specific subtasks:
- indiquer des valeurs de paramètres de l'avion (T11 ),- indicate parameter values of the aircraft (T11),
- indiquer des valeurs ou des points sélectionnés (venant du FMGS : "Flight Management and Guidance System" en terminologie anglosaxonne) (T12),- indicate selected values or points (coming from FMGS: "Flight Management and Guidance System" in English terminology) (T12),
- indiquer les tendances de vol (T13),- indicate flight trends (T13),
- donner les indications des instruments de radionavigation et du FMGS (T21 ),- give the indications for radionavigation instruments and the FMGS (T21),
- permettre de suivre facilement les indications fournies par le FMGS (T22),- make it easy to follow the indications provided by the FMGS (T22),
- présenter les limites du domaine de vol (T31), et - alerter (T32).- present the limits of the flight envelope (T31), and - alert (T32).
Dès lors que ces tâches et sous-tâches ont été déterminées, on procède à la détermination du rôle et des responsabilités des différentes zones de chaque élément d'interface et, par exemple, du PFD.Once these tasks and sub-tasks have been determined, the roles and responsibilities of the different areas of each interface element and, for example, the PFD are determined.
Sur la figure 6 on a identifié et représenté dans un tableau différentes fonctions ou responsabilités des zones précédemment identifiées.In Figure 6 is identified and represented in a table different functions or responsibilities previously identified areas.
Ainsi, la zone Z1 qualifiée de "FMA" ("Flight Mode Annunciatof' en terminologie anglosaxonne) à partir de laquelle on peut identifier quatre sous- zones qui fournissent des informations sur le mode de pilotage (par exemple, mode de pilotage automatique) et sur la radionavigation. La zone Z2 qualifiée de "VA" fournit des informations sur la vitesse de l'air et peut être décomposée en deux sous-zones. La zone Z3 qualifiée de "AA" et qui peut être décomposée en deux sous-zones fournit des informations sur l'attitude de l'avion (tangage, assiette, roulis, guidage, manche...).Thus, the zone Z1 qualified as "FMA"("Flight Mode Annunciatof" in English terminology) from which four sub-zones can be identified which provide information on the piloting mode (for example, automatic pilot mode) and The Z2 zone, referred to as "VA", provides information on the air speed and can be broken down into two sub-zones. The zone Z3 qualified as "AA" and which can be decomposed into two sub-zones provides information on the attitude of the aircraft (pitch, trim, roll, guidance, joystick ...).
La zone Z4 qualifiée de "A/Vv" et qui peut être décomposée en trois sous-zones sert d'altimètre et fournit des informations sur la vitesse verticale de l'avion.The zone Z4 qualified as "A / Vv" and which can be decomposed into three sub-zones serves as an altimeter and provides information on the vertical speed of the aircraft.
La zone Z5 qualifiée de "ILS-GS" (ILS pour "Instrument Landing System" et GS pour "Glide Slope" en terminologie anglosaxonne) fournit des informations sur la position verticale du système d'atterrissage instrument ILS, par rapport à la pente GS.Zone Z5 qualified as "ILS-GS" (ILS for "Instrument Landing System" and GS for "Glide Slope" in English terminology) provides information on the vertical position of the ILS instrument landing system, relative to the slope GS .
La zone Z6 qualifiée . de "ILS-Loc" fournit des informations sur la position horizontale ILS, par rapport au localisateur ("localizer" en terminologie anglosaxonne).Zone Z6 qualified. "ILS-Loc" provides information on the ILS horizontal position, relative to the locator ("localizer" in English terminology).
La zone Z7 qualifiée de "M/l" fournit des informations sur le nombre de Mach de l'avion et des informations de navigation.The zone Z7 qualified as "M / l" provides information on the Mach number of the aircraft and navigation information.
La zone Z8 qualifiée de "H/T" ("heading/track zone" en terminologie anglosaxonne) fournit des informations sur le guidage et sur le cap de l'avion.The zone Z8 qualified as "H / T" ("heading / track zone" in English terminology) provides information on the guidance and the heading of the aircraft.
Enfin, la zone Z9 qualifiée de "Ref/Alt" fournit des informations sur la référence altimétrique. On notera que le nom des zones tient lieu de définition du rôle de l'agent qui sera défini ultérieurement.Finally, the zone Z9 described as "Ref / Alt" provides information on the height reference. It will be noted that the name of the zones acts as a definition of the role of the agent which will be defined later.
Grâce au tableau de la figure 6 et à la détermination des tâches et sous-tâches, il est possible de déterminer au cours de l'étape suivante E16 les agents cognitifs servant à bâtir le modèle cognitif selon les critères liés au pilotage et à la navigation.Using the table in Figure 6 and the determination of tasks and sub-tasks, it is possible to determine in the next step E16 the cognitive agents used to build the cognitive model according to the criteria related to driving and navigation. .
Pour reprendre l'exemple de modélisation de l'élément d'interface PFD, on détermine les agents cognitifs qui permettent de décrire les processus cognitifs d'utilisation des différentes zones de l'élément d'interface PFD comme représenté sur la figure 7. Ainsi, on détermine des agents liés à l'analyse du déplacement verticalTo resume the modeling example of the PFD interface element, cognitive agents are determined which make it possible to describe the cognitive processes for using the different zones of the PFD interface element as shown in FIG. , agents related to vertical displacement analysis are determined
(altitude,V/S), à l'analyse du déplacement horizontal (vitesse et cap), à l'analyse d'attitude /KJC, au traquage des ordres FMGS, à l'orientation/ILS, au FMA, au code couleur et à l'alerte.(altitude, V / S), analysis of horizontal displacement (speed and heading), analysis Attitude / KJC, tracking of FMGS orders, orientation / ILS, FMA, color code and alert.
Comme indiqué dans la colonne "responsabilités agents", par exemple, l'agent A1 a pour rôle d'analyser le déplacement vertical de l'avion en s'intéressant aux paramètres d'altitude et de vitesse verticale et, pour remplir ce rôle, il est responsable des valeurs des paramètres verticaux et des symboles de ces paramètres.As indicated in the column "agent responsibilities", for example, the agent A1 has the role of analyzing the vertical displacement of the aircraft by looking at the parameters of altitude and vertical speed and, to fulfill this role, it is responsible for the values of the vertical parameters and the symbols of these parameters.
Pour remplir ce rôle, l'agent A1 s'appuie sur quatre ressources cognitives liées à la responsabilité des valeurs de paramètres verticaux, d'une part, et sur deux ressources cognitives liées à la responsabilité de la symbologie, d'autre part. Ceci permet à l'agent d'effectuer les tâches liées principalement au pilotage de l'appareil (T11 et T12) et qui sont localisées dans la zone Z4 de l'élément d'interface PFD.To fulfill this role, the agent A1 relies on four cognitive resources related to the responsibility of the values of vertical parameters, on the one hand, and on two cognitive resources related to the responsibility of the symbology, on the other hand. This allows the agent to perform the tasks related mainly to the control of the apparatus (T11 and T12) and which are located in the zone Z4 of the PFD interface element.
Au cours de l'étape suivante E18, on procède à l'identification des entrées et des sorties du système par rapport au contexte d'utilisation, c'est-à-dire que l'on identifie des informations proposées par le système (éléments d'interface tels que le PFD) à un moment donné par rapport à une situation d'utilisation donnée, telle que le décollage ou la montée.During the next step E18, the inputs and outputs of the system are identified with respect to the context of use, that is to say that information provided by the system is identified (elements such as the PFD) at a given time with respect to a given use situation, such as take-off or climb.
Au cours de l'étape suivante E20 de l'algorithme, il est prévu d'identifier des informations du système (par exemple, l'élément d'interface PFD) situées au niveau du traitement.In the next step E20 of the algorithm, it is intended to identify system information (e.g., the PFD interface element) located at the processing level.
La figure 8 illustre de façon détaillée l'élaboration des tableaux 16 et 18 de la figure 2 suivant la structure plan, agent de liaison, agent et ressources, tant du côté système technique que du côté humain, dans le cadre de la surveillance de l'altitude par rapport à l'instrument PFD.FIG. 8 illustrates in detail the preparation of the tables 16 and 18 of FIG. 2 according to the plan structure, the link agent, the agent and the resources, on the technical system side as well as on the human side, in the context of the monitoring of the altitude relative to the PFD instrument.
Ainsi, du côté système technique (tableau 18), on détermine dans le cadre d'un plan relatif à la procédure de montée ("CLIMB") illustrée sur la figure 4, que les ressources mises en œuvre sont les zones Z4 et Z9 du PFD (figure 7), l'agent est l'agent A1 du PFD et l'agent de liaison est l'agent A3 des instruments de bord "EFIS" ("Electronic Flight Instrument System" en terminologie anglosaxonne).Thus, on the technical system side (Table 18), it is determined in the context of a plan relating to the climb procedure ("CLIMB") illustrated in FIG. 4, that the resources implemented are zones Z4 and Z9 of FIG. PFD (FIG. 7), the agent is the agent A1 of the PFD and the binding agent is the agent A3 of the instruments "EFIS" ("Electronic Flight Instrument System" in English terminology).
Le tableau 16 (côté humain) sera décrit ultérieurement. En parallèle de la description qui vient d'être faite au cours des étapes E10 à E20, on procède à rétablissement d'un modèle d'interaction du côté humain en référence aux étapes E22 à E28 qui vont être décrites ci-après.Table 16 (human side) will be described later. In parallel with the description which has just been made during steps E10 to E20, an interaction model of the human side is restored with reference to steps E22 to E28 which will be described below.
Des informations d'origine humaine sont fournies, par exemple, par l'intermédiaire d'entretiens avec des experts en pilotage ou en procédure de vol. Au cours de ces entretiens décrivant des situations données (i.e. utilisation des instruments qui présentent des informations en deux dimensions, par exemple, ND, PFD, par rapport à l'utilisation d'un instrument qui présenterait les mêmes informations directement en trois dimensions) on demande aux experts d'indiquer les actions qu'ils envisageraient d'entreprendre, les contrôles à effectuer, les informations dont ils auraient besoin pour agir...Human-source information is provided, for example, through interviews with pilots or flight process experts. During these interviews describing given situations (ie use of instruments that present information in two dimensions, for example, ND, PFD, compared to the use of an instrument that would present the same information directly in three dimensions) asks the experts to indicate the actions they would consider undertaking, the controls to be carried out, the information they would need to act ...
Au cours d'une première étape E22, il est prévu d'identifier au niveau des entrées-sorties du modèle d'interface côté humain des modalités d'interaction avec le système technique, à savoir, par exemple, les canaux d'entrées-sorties que constituent la vision humaine, le langage humain, l'audition, la kinesthésie...During a first step E22, it is intended to identify, at the input-output level of the human interface interface model, the modes of interaction with the technical system, namely, for example, the input-output channels. outputs that constitute human vision, human language, hearing, kinesthesia ...
Au cours de cette même étape, on procède également à l'identification des ressources nécessaires pour entreprendre la manœuvre appropriée c'est-à- dire, par exemple, percevoir (regarder) l'information d'altitude fournie par la zone correspondante de l'élément d'interface PFD, entendre (écouter) l'alarme auditive ("call-ouf en terminologie anglosaxonne) "TERRAIN" (signifiant que l'avion est en dehors de la zone de sécurité par rapport au terrain, c'est-à-dire trop bas), tirer sur le manche, ou bien encore remettre les gaz.During this same step, the necessary resources are also identified to undertake the appropriate maneuver, ie to perceive (look at) the altitude information provided by the corresponding area of the PFD interface element, hear (listen) the audible alarm ("call-ouf in English terminology)" TERRAIN "(meaning that the aircraft is outside the safety zone with respect to the terrain, that is, ie too low), pull the handle, or even put the gas.
Il convient de noter que, de façon optionnelle, on peut également se limiter au niveau des entrées-sorties à des situations d'utilisation restreintes telles que, par exemple, le décollage. Il s'agit d'un découpage par rapport à des phases de vol, donc à des procédures ou sous-sections de procédure, spécifiques. Il est possible d'aller en profondeur dans ces phases spécifiques, en étudiant leur réalisation en conditions difficiles - mauvaise météo, pannes moteur, défauts dans la présentation de l'information, stress ou fatigue de l'utilisateur. Au cours de l'étape suivante E24, il est prévu d'identifier les interactions multimodales au niveau des entrées-sorties du modèle cognitif humain, c'est-à- dire les interactions entre les différents canaux (vision, audition...). Ainsi, par exemple, on identifie les interactions entre les différentes modalités précédemment identifiées à partir de cas recensés lors des entretiens, tels que celui consistant à percevoir l'information d'altitude sur l'élément d'interface considéré et à entendre l'alarme auditive et ainsi qu'à tirer sur le manche.It should be noted that, optionally, one can also limit the input-output to restricted use situations such as, for example, take-off. It is a division with respect to flight phases, and therefore to specific procedures or sub-sections of the procedure. It is possible to go deep into these specific phases, studying their realization in difficult conditions - bad weather, engine failures, defects in the presentation of information, stress or fatigue of the user. During the next step E24, it is planned to identify the multimodal interactions at the input-output level of the human cognitive model, ie the interactions between the different channels (vision, hearing, etc.). . Thus, for example, we identify the interactions between the different modalities previously identified from cases identified during the interviews, such as that of perceiving the altitude information on the interface element considered and hearing the alarm. auditory and as well as to pull on the handle.
Au cours de l'étape suivante E26, il est prévu de définir le niveau de traitement du modèle cognitif côté humain.In the next step E26, it is planned to define the level of processing of the cognitive model on the human side.
Pour ce faire, on prévoit, d'une part, d'identifier les actions à entreprendre par le pilote et/ou les décisions à prendre qui s'avèrent particulièrement difficiles ou délicates à mettre en œuvre par rapport à la modélisation qui en est faite du côté système technique et, d'autre part, d'établir des hypothèses sur le traitement qui est fait de ces parties sensibles ou difficiles.To do this, it is planned, on the one hand, to identify the actions to be taken by the pilot and / or the decisions to be taken which prove to be particularly difficult or difficult to implement in relation to the modeling that is made of them. on the technical system side and, on the other hand, to make assumptions about the treatment that is made of these sensitive or difficult parts.
Ainsi, par exemple, on suppose que l'utilisateur prendra la bonne décision par rapport aux informations visuelles et auditives que les éléments d'interface du système technique lui fournissent en cas d'alerte collision.Thus, for example, it is assumed that the user will make the right decision with respect to the visual and auditory information that the interface elements of the technical system provide him in the event of a collision alert.
Au cours de cette même étape E26, on procède à l'identification du traitement des informations suivant les différentes modalités (canaux d'entrées- sorties) précédemment identifiées.During this same step E26, the information processing is identified according to the different modalities (input-output channels) previously identified.
Le tableau 16 représentatif de la modélisation du côté humain correspondant au tableau 18 du côté système technique est construit, dans le cadre de la surveillance de l'altitude de l'avion par rapport à l'instrument PFD, à partir du plan défini, à savoir l'utilisation du PFD et le pilotage de l'avion.The representative table 16 of the human side modeling corresponding to table 18 on the technical system side is constructed, as part of the monitoring of the altitude of the aircraft with respect to the PFD instrument, from the defined plane, to know how to use the PFD and how to fly the plane.
Dans ce tableau, on détermine/identifie les ressources utilisées, au niveau des entrées-sorties et du traitement. Ainsi, on identifie les entrées-sorties visuelles, à savoir la surveillance de l'altitude fournie par le PFD et le traitement correspondant, à savoir la Mémoire de Travail (WM) et la Mémoire à Long Terme (LTM), ainsi que la Prise de Décision.In this table, the resources used are determined / identified at the input-output and processing levels. Thus, the visual input-outputs are identified, namely the altitude monitoring provided by the PFD and the corresponding processing, namely the Working Memory (WM) and the Long-Term Memory (LTM), as well as the Taking of Decision.
L'agent correspondant est le "PFD" et les ressources précitées sont liées à l'agent "Suivi Plan de Vol".The corresponding agent is the "PFD" and the aforementioned resources are linked to the "Flight Plan Monitoring" agent.
On élabore ainsi de façon symétrique le modèle cognitif multiagents pilote-cockpit. L'étape suivante E28 permet de compléter le modèle cognitif humain et de le valider avec un expert du domaine (spécialiste en psychologie cognitive, en physiologie, en langage).In this way, the pilot-cockpit multi-agent cognitive model is symmetrically developed. The next step, E28, completes the human cognitive model and validates it with an expert in the field (specialist in cognitive psychology, physiology, language).
Au cours de l'étape suivante E30, il est prévu de procéder à la validation du modèle représentatif du couple humain-système technique (pilote- cockpit) avec les experts des différents domaines impliqués, à savoir des experts en procédure de vol, des experts pilotes, des concepteurs et des experts en facteurs humains (experts de la vision, de l'audition, du langage, de la kinesthésie...). On notera que, de façon optionnelle, les étapes E28 et E30 peuvent être réunies.During the next step E30, it is planned to validate the representative model of the human-technical system pair (pilot-cockpit) with experts from the various fields involved, namely experts in the flight procedure, experts pilots, designers and experts in human factors (experts in vision, hearing, language, kinesthesia ...). It should be noted that, optionally, steps E28 and E30 can be combined.
Une fois le modèle élaboré, on passe à l'étape E2 précédemment décrite au cours de laquelle on utilise les méthodes d'analyse des facteurs humains afin de recueillir des données traduisant des activités humaines correspondantes par l'intermédiaire d'un protocole d'expérimentation.Once the model is developed, proceed to step E2 previously described in which human factors analysis methods are used to collect data reflecting corresponding human activities through an experimental protocol. .
On peut ainsi faire intervenir plusieurs méthodes d'analyse, comme indiqué précédemment, pour acquérir les données visuelles représentatives du parcours visuel du pilote, au cours du temps, sur un ou plusieurs des éléments d'interface du cockpit (plus particulièrement, pour suivre la position du regard du pilote d'une zone d'un élément d'interface à une autre zone d'un autre élément d'interface) par l'intermédiaire d'un appareil oculométrique et acquérir, par l'intermédiaire du système vidéo du cockpit, des données vidéo représentatives des mouvements du pilote qui agit, par exemple, sur le manche, et/ou des données auditives au moyen d'un appareil d'enregistrement audio. Grâce au cadre ou modèle défini au cours des étapes précédentes, il est possible de relier, par exemple, les deux types de données d'activité humaine (données oculométriques et données relatives à la motricité du corps humain) dans la mesure où un réceptacle commun (base de données) a été mis en place pour recueillir les deux types d'informations d'origine technique et d'origine humaine.It is thus possible to use several analysis methods, as indicated above, to acquire the visual data representative of the visual journey of the pilot, over time, on one or more of the interface elements of the cockpit (more particularly, to follow the position of the pilot from one area of an interface element to another zone of another interface element) via an eye-tracking device and acquire, via the video system of the cockpit , video data representative of the movements of the driver acting, for example, on the handle, and / or auditory data by means of an audio recording apparatus. Thanks to the framework or model defined in the previous steps, it is possible to link, for example, the two types of human activity data (oculometric data and data on the motor skills of the human body) in that a common receptacle (database) was set up to collect both types of information of technical origin and of human origin.
On notera que les protocoles expérimentaux sur lesquels sont fondés les différentes évaluations des facteurs humains sont dérivés du modèle d'interaction précédemment élaboré et alimentent également ce modèle de par les résultats qu'ils produisent.It should be noted that the experimental protocols on which the different human factors assessments are based are derived from the model. previously developed interaction and also feed this model by the results they produce.
Par ailleurs, on notera que l'utilisation d'un réceptacle commun interméthodes et interévaluations assure une cohérence, une homogénéité et une traçabilité des données recueillies.Furthermore, it should be noted that the use of a common intermethod and inter-evaluation receptacle ensures coherence, homogeneity and traceability of the collected data.
Plus particulièrement, l'appareil oculométrique 38 de la figure 1 b permet d'enregistrer la position du regard du pilote sur une scène visuelle, permettant ainsi de suivre les différents éléments visuels parcourus par le regard du pilote sur les éléments d'interface du cockpit, ainsi que sur le visuel externe. L'appareil oculométrique comporte un dispositif analogique, à savoir l'oculomètre, qui enregistre les mouvements de l'oeil du pilote. L'oculomètre comporte trois éléments, à savoir, une caméra enregistrant les mouvements de l'œil, une source infrarouge émettant un rayon infrarouge dans l'œil et une caméra enregistrant la scène visuelle vue par le pilote. Ainsi, les données vidéo acquises par la caméra enregistrant les mouvements de l'œil et les données vidéo acquises par la caméra enregistrant la scène visuelle vue par le pilote sont superposées et la position du regard du pilote est représentée par un pointeur (par exemple, un cercle ou un réticule) qui se déplace sur la scène visuelle. L'utilisation de l'oculomètre seul, bien que suffisante pour le visuel externe, n'apporte pas suffisamment de précisions si l'on veut enregistrer des détails particulièrement fins du parcours visuel du pilote, par exemple, la lecture de textes ou la prise d'informations sur des zones spécifiques d'écrans.More particularly, the eye-tracking device 38 of FIG. 1b makes it possible to record the position of the pilot's gaze on a visual scene, thus making it possible to follow the various visual elements traversed by the pilot's gaze on the interface elements of the cockpit. , as well as on the external visual. The eye-tracking device comprises an analog device, namely the eye tracker, which records the movements of the pilot's eye. The eye tracker has three elements, namely, a camera recording the movements of the eye, an infrared source emitting an infrared ray in the eye and a camera recording the visual scene seen by the pilot. Thus, the video data acquired by the camera recording the movements of the eye and the video data acquired by the camera recording the visual scene seen by the pilot are superimposed and the position of the gaze of the pilot is represented by a pointer (for example, a circle or a reticle) that moves on the visual stage. The use of the oculometer alone, although sufficient for the external visual, does not provide sufficient precision if one wants to record particularly fine details of the visual journey of the pilot, for example, the reading of texts or taking information about specific areas of screens.
Ainsi, on associe à l'oculomètre un générateur de champ magnétique pour apporter une précision maximum.Thus, the oculometer is associated with a magnetic field generator to provide maximum accuracy.
Le générateur de champ magnétique est utilisé comme référentiel dans l'espace à trois dimensions pour capter la position de la tête du pilote par rapport aux coordonnées des différentes surfaces et plans qui composent l'environnement réel de celui-ci. A cet égard, les surfaces et plans concernés sont ceux correspondant aux écrans et aux panneaux de commande du cockpit constituant des régions d'intérêt qui peuvent être décomposées elles-mêmes en zones et sous-zones d'intérêt comme on l'a vu précédemment pour chaque élément d'interface.The magnetic field generator is used as a reference in the three-dimensional space to capture the position of the pilot's head relative to the coordinates of the different surfaces and planes that make up the actual environment of the latter. In this respect, the surfaces and planes concerned are those corresponding to the cockpit screens and control panels constituting regions of interest which can be decomposed into zones and subfields of interest as seen previously for each interface element.
Pour analyser les mouvements de la tête du pilote, on fait donc appel à un générateur de champ magnétique ainsi qu'à un récepteur fixé à la tête du pilote et ces éléments combinés au dispositif analogique précité (oculomètre) permettent d'obtenir une précision maximale de la position du regard de l'utilisateur sur une scène visuelle.In order to analyze the movements of the pilot's head, a magnetic field generator and a receiver fixed to the pilot's head are thus used, and these elements, combined with the aforementioned analog device (oculometer), make it possible to obtain maximum precision the position of the user's gaze on a visual scene.
Plus particulièrement, le récepteur fixé à la tête du pilote fournit la position exacte de la tête dans le modèle en trois dimensions. La distance entre ce récepteur de tête et la caméra enregistrant la scène, ainsi que la distance entre le récepteur de tête et les yeux du pilote sont ensuite introduites dans le modèle en trois dimensions. La première des distances précitées est nécessaire pour effectuer la calibration de la caméra par rapport à la scène et la seconde de ces distances est nécessaire pour calibrer le dispositif analogique (oculomètre).More specifically, the receiver attached to the pilot's head provides the exact position of the head in the three-dimensional model. The distance between this head receiver and the camera recording the scene, as well as the distance between the head receiver and the pilot's eyes are then introduced into the three-dimensional model. The first of the aforementioned distances is necessary to perform the calibration of the camera with respect to the scene and the second of these distances is necessary to calibrate the analog device (eye tracker).
On notera que l'adaptation de l'appareil oculométrique précité au cockpit en vue d'apporter un maximum de précision en combinant les données fournies par la position de la tête du pilote et celles fournies par la position de son regard tient compte de l'étude géométrique du cockpit et de l'étude de la posture du pilote.It will be noted that the adaptation of the aforesaid eye-tracking device to the cockpit in order to provide maximum precision by combining the data provided by the position of the pilot's head and those provided by the position of his gaze takes account of the geometric study of the cockpit and the study of the pilot's posture.
En effectuant l'étude géométrique du cockpit, la Demanderesse s'est aperçue que pour implanter le générateur de champ magnétique sur un support dans le cockpit, il convenait de s'assurer que la distance entre le générateur et toute surface métallique soit suffisamment grande pour réduire au minimum les interférences magnétiques pouvant se produire avec l'appareil oculométrique.In performing the geometric study of the cockpit, the Applicant realized that to implant the magnetic field generator on a support in the cockpit, it was necessary to ensure that the distance between the generator and any metal surface is large enough to minimize magnetic interference that may occur with the eye tracking device.
Par ailleurs, lors de la configuration des différents éléments constituant l'appareil oculométrique au sein du cockpit, la Demanderesse a constaté que la distance entre le générateur de champ magnétique et le récepteur de la position de la tête du pilote devait être strictement inférieure à la distance entre le récepteur de la position de la tête du pilote et toute surface métallique, là encore pour réduire le plus possible les interférences magnétiques. II convient de noter que l'étude posturale du pilote permet de définir les limites de son volume de mouvement et donc les distances entre le récepteur de tête et la source de champ magnétique.Moreover, during the configuration of the various elements constituting the eye-tracking device within the cockpit, the Applicant has found that the distance between the magnetic field generator and the receiver of the position of the pilot's head must be strictly less than distance between the receiver of the position of the pilot's head and any metal surface, again to minimize magnetic interference. It should be noted that the pilot's postural study makes it possible to define the limits of his movement volume and thus the distances between the head receiver and the magnetic field source.
Grâce à l'appareil oculométrique précité, il est possible d'enregistrer de manière très précise les mouvements oculaires (comportements) tels que les fixations, balayages et poursuites qui caractérisent la façon dont le pilote regarde les éléments spécifiques d'une scène visuelle aéronautique (instruments de bord et visuel extérieur).Les éléments constitutifs d'un appareil oculométrique, à savoir le dispositif analogique, le générateur de champ magnétique et un casque portant le récepteur de tête, sont disponibles auprès de la société Senso-MotricThanks to the aforementioned eye-tracking device, it is possible to record very precisely the eye movements (behaviors) such as the bindings, sweeps and pursuits that characterize the way the pilot looks at the specific elements of an aeronautical visual scene ( instrumentation and external visual) .The constituent elements of an eye-tracking device, namely the analog device, the magnetic field generator and a helmet carrying the head receiver, are available from the company Senso-Motric.
Instruments GmbH, Warthestrasse 21 , D-14513 Teltow, Allemagne.Instruments GmbH, Warthestrasse 21, D-14513 Teltow, Germany.
Comme déjà indiqué ci-dessus, au cours de l'étape E3 qui fait suite à l'étape d'acquisition des données, ces dernières sont analysées avec le ou les sujets de l'expérience (pilote) afin de vérifier la cohérence et la fiabilité des résultats de l'expérience.As already indicated above, during the step E3 which follows the data acquisition step, these data are analyzed with the subject or subjects of the (pilot) experiment in order to check the coherence and the reliability of the results of the experiment.
Ainsi, selon un exemple emprunté au domaine automobile (l'invention pouvant en effet s'appliquer à d'autres domaines que le domaine aéronautique), en utilisant un oculomètre dans un véhicule d'auto-école, le moniteur et l'élève peuvent, une fois le cours terminé et en visualisant les données vidéo enregistrées avec l'oculomètre, mieux comprendre pourquoi l'élève n'a pas regardé dans le rétroviseur avant de tourner.Thus, according to an example borrowed from the automotive field (the invention may indeed apply to fields other than the aeronautical field), using an eye tracker in a driving school vehicle, the instructor and the student can Once the course is over and viewing the video data recorded with the eye tracker, better understand why the student did not look in the rear view mirror before turning.
Toutes les données recueillies au cours de l'étape E2, analysées et interprétées au cours de l'étape E3, sont ensuite validées à un premier niveau collectif intra-domaine avec les experts du domaine concerné (par exemple, aéronautique constitué d'une population de pilotes) et sont ensuite validées à un niveau collectif inter-domaine avec les experts de différents domaines (experts en facteurs humains, ingénieurs, pilotes), afin que ces données soient partagées avec tous les intervenant concernés.All the data collected during step E2, analyzed and interpreted during step E3, are then validated at a first intra-domain collective level with the experts of the field concerned (for example, aeronautics made up of a population of pilots) and are then validated at a collective inter-domain level with experts from different fields (experts in human factors, engineers, pilots), so that this data is shared with all concerned stakeholders.
Ainsi, les données d'expériences sont explicitées et partagées à trois niveaux, un niveau individuel, un niveau intra-domaine et un niveau inter-domaine.Thus, the experiences data are explained and shared at three levels, an individual level, an intra-domain level and an inter-domain level.
Cette validation avec les experts permet de revenir sur la définition du cadre déterminé lors des premières étapes (élaboration du modèle cognitif multiagents) et d'ajuster et de parfaire le modèle en fonction des résultats d'expériences et de leur interprétation par les experts.This validation with the experts makes it possible to return to the definition of the framework determined during the first stages (development of the cognitive model multiagents) and to adjust and perfect the model according to the results of experiments and their interpretation by the experts.
Dès lors que le modèle est validé, on peut en déduire des améliorations possibles aux éléments d'interface pilote-cockpit, aux procédures d'utilisation de ces éléments d'interface (par exemple, procédure de vol...), ou se servir de ce modèle pour apprendre aux pilotes à se former aux éléments d'interface du cockpit.Once the model is validated, we can deduce possible improvements to pilot-cockpit interface elements, the procedures for using these interface elements (for example, flight procedure ...), or to use of this model to teach pilots to train themselves on the interface elements of the cockpit.
A titre d'exemple, le procédé selon l'invention permet de déterminer à quel moment un système d'affichage placé en hauteur, au-dessus de la tête du pilote ("Head Up Display" en terminologie anglosaxonne) devrait être utilisé pour en optimiser l'utilisation. Le procédé selon l'invention permet également de déterminer si un tel système d'affichage est réellement utilisé par le pilote sur un type de véhicule particulier.By way of example, the method according to the invention makes it possible to determine when a display system placed at a height above the pilot's head ("Head Up Display" in English terminology) should be used to optimize use. The method according to the invention also makes it possible to determine whether such a display system is actually used by the pilot on a particular type of vehicle.
Dans un autre exemple, le procédé selon l'invention permet de se rendre compte que le pilote construit mentalement une représentation visuelle en trois dimensions de la position de son véhicule dans l'espace, et ce, uniquement sur la base d'informations en deux dimensions fournies par des instruments de bord.In another example, the method according to the invention makes it possible to realize that the pilot mentally constructs a three-dimensional visual representation of the position of his vehicle in space, and this, solely on the basis of information in two dimensions provided by aircraft instruments.
Le procédé selon l'invention peut alors servir de base pour concevoir un nouvel instrument fournissant une représentation visuelle en trois dimensions de la position du véhicule dans l'espace.The method according to the invention can then serve as a basis for designing a new instrument providing a three-dimensional visual representation of the position of the vehicle in space.
Le procédé est particulièrement avantageux pour déterminer les informations réellement utiles qui sont fournies par des éléments d'interface du tableau de bord. En effet, grâce notamment à l'acquisition et à l'analyse de données, par exemple, oculométriques, le procédé permet de séparer les informations indispensables à l'utilisateur de celles qui ne sont pas particulièrement utiles ou alors qui sont redondantes. The method is particularly advantageous for determining the really useful information that is provided by interface elements of the dashboard. Indeed, thanks in particular to the acquisition and analysis of data, for example, oculometric, the method makes it possible to separate the information essential to the user from those that are not particularly useful or that are redundant.

Claims

REVENDICATIONS
1. Procédé de détermination d'un modèle d'une interface entre un utilisateur et son environnement à bord d'un véhicule, caractérisé en ce qu'il comporte les étapes suivantes :1. A method for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises the following steps:
- élaboration (E1) d'un modèle d'interface à partir, d'une part, d'un premier type d'informations représentatives d'éléments d'interface du véhicule et, d'autre part, d'un second type d'informations représentatives des connaissances détenues par un utilisateur sur l'utilisation des éléments d'interface,developing (E1) an interface model from, on the one hand, a first type of information representative of vehicle interface elements and, on the other hand, a second type of information. information representative of the knowledge held by a user on the use of the interface elements,
- acquisition (E2) de données représentatives d'au moins une activité humaine qui est sollicitée lors de l'interaction entre l'utilisateur et ces éléments d'interface, l'acquisition de ces données étant effectuée par l'intermédiaire d'au moins un appareil d'acquisition de données,acquisition (E2) of data representative of at least one human activity that is requested during the interaction between the user and these interface elements, the acquisition of these data being carried out via at least one a data acquisition device,
- analyse (E3) des données ainsi acquises,- analysis (E3) of the data thus acquired,
- ajustement (E4) du modèle d'interface en fonction de l'analyse des données.- adjustment (E4) of the interface model according to the analysis of the data.
2. Procédé selon la revendication 1 , caractérisé en ce que les deux types d'informations, le premier type d'informations d'origine technique et le second type d'informations d'origine humaine, sont fournies, avec une configuration identique, à une base de données dynamique ayant une structure symétrique utilisateur-système technique.2. Method according to claim 1, characterized in that the two types of information, the first type of information of technical origin and the second type of information of human origin, are provided, with identical configuration, to a dynamic database with symmetric user-system technical structure.
3. Procédé selon la revendication 1 ou 2, caractérisé en ce que les informations des deux types sont configurées selon un même modèle cognitif multiagents.3. Method according to claim 1 or 2, characterized in that the information of the two types are configured according to the same multi-agent cognitive model.
4. Procédé selon la revendication 3, caractérisé en ce que la configuration des informations du premier type selon un modèle cognitif multiagents comprend une étape d'établissement d'une liaison entre des procédures d'utilisation du véhicule et les éléments d'interface du véhicule.4. Method according to claim 3, characterized in that the configuration of the information of the first type according to a multi-agent cognitive model comprises a step of establishing a link between the vehicle operating procedures and the vehicle interface elements. .
5. Procédé selon la revendication 3 ou 4, caractérisé en ce que la configuration des informations du premier type selon un modèle cognitif multiagents comprend une étape d'identification de zones fonctionnelles sur chaque élément d'interface considéré.5. Method according to claim 3 or 4, characterized in that the configuration of the information of the first type according to a cognitive model multiagent includes a step of identifying functional areas on each interface element considered.
6. Procédé selon les revendications 3 à 5, caractérisé en ce que la configuration des informations du premier type selon un modèle cognitif multiagents comprend pour chaque élément d'interface les étapes suivantes :6. Method according to claims 3 to 5, characterized in that the configuration of the information of the first type according to a multi-agent cognitive model comprises for each interface element the following steps:
- détermination des tâches relatives à l'utilisation du véhicule remplies par l'élément d'interface considéré,- determination of the tasks relating to the use of the vehicle filled by the considered interface element,
- détermination des agents du modèle cognitif multiagents par rapport aux tâches déterminées, - établissement d'une liaison entre les agents du modèle cognitif ainsi déterminés et les zones fonctionnelles identifiées de l'élément d'interface considéré.determination of agents of the multiagents cognitive model with respect to the determined tasks; establishment of a link between the agents of the cognitive model thus determined and the identified functional areas of the interface element in question.
7. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que l'activité humaine sollicitée lors de l'interaction entre l'utilisateur et les éléments d'interface est sélectionnée parmi la vision, la parole, l'audition, la motricité, les manifestations et réactions physiologiques du corps humain.7. Method according to one of claims 1 to 6, characterized in that the human activity solicited during the interaction between the user and the interface elements is selected from vision, speech, hearing, motricity, manifestations and physiological reactions of the human body.
8. Procédé selon l'une des revendications 1 à 7, caractérisé en ce que l'appareil d'acquisition de données est un appareil oculométrique enregistrant des données visuelles représentatives du parcours visuel de l'utilisateur sur les éléments d'interface.8. Method according to one of claims 1 to 7, characterized in that the data acquisition apparatus is an eye tracking device recording visual data representative of the visual path of the user on the interface elements.
9. Procédé selon l'une des revendications 1 à 8, caractérisé en ce que les éléments d'interface sont les instruments de bord d'un cockpit d'avion.9. Method according to one of claims 1 to 8, characterized in that the interface elements are the instrument panels of an aircraft cockpit.
10. Procédé selon l'une des revendications 1 à 9, caractérisé en ce que les éléments d'interface sont les instruments d'un tableau de bord de véhicule automobile.10. Method according to one of claims 1 to 9, characterized in that the interface elements are the instruments of a dashboard of a motor vehicle.
11. Utilisation du modèle d'interaction déterminé selon l'une des revendications 1 à 10 pour concevoir un ou plusieurs éléments d'interface et/ou l'agencement de ceux-ci.11. Use of the interaction model determined according to one of claims 1 to 10 for designing one or more interface elements and / or the arrangement thereof.
12. Utilisation du modèle d'interaction déterminé selon l'une des revendications 1 à 10 pour évaluer un ou plusieurs nouveaux éléments d'interface. 12. Use of the interaction model determined according to one of claims 1 to 10 to evaluate one or more new interface elements.
13. Utilisation du modèle d'interaction déterminé selon l'une des revendications 1 à 10 pour modifier une procédure d'utilisation du véhicule.13. Use of the interaction model determined according to one of claims 1 to 10 to modify a procedure for using the vehicle.
14. Utilisation du modèle d'interaction déterminé selon l'une des revendications 1 à 10 pour la formation d'un pilote. 14. Use of the interaction model determined according to one of claims 1 to 10 for the formation of a pilot.
15. Système (30) de détermination d'un modèle d'une interface entre un utilisateur et son environnement à bord d'un véhicule, caractérisé en ce qu'il comporte :15. System (30) for determining a model of an interface between a user and his environment on board a vehicle, characterized in that it comprises:
- des moyens (36) d'élaboration d'un modèle d'interface à partir, d'une part, d'un premier type d'informations représentatives d'éléments d'interface du véhicule et, d'autre part, d'un second type d'informations représentatives des connaissances détenues par un utilisateur sur l'utilisation des éléments d'interface,means (36) for generating an interface model from, on the one hand, a first type of information representative of vehicle interface elements and, on the other hand, a second type of information representative of the knowledge held by a user on the use of the interface elements,
- au moins un appareil d'acquisition de données (38) représentatives d'au moins une activité humaine qui est sollicitée lors de l'interaction entre l'utilisateur et ces éléments d'interface,at least one data acquisition apparatus (38) representative of at least one human activity that is requested during the interaction between the user and these interface elements,
- des moyens (36) d'analyse des données ainsi acquises,means (36) for analyzing the data thus acquired,
- des moyens (36) d'ajustement du modèle d'interface en fonction de l'analyse des données. means (36) for adjusting the interface model as a function of the analysis of the data.
PCT/FR2006/001701 2005-07-25 2006-07-12 Method and system for modelling an interface between a user and the environment thereof in a motor vehicle WO2007012723A2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
BRPI0615543-0A BRPI0615543A2 (en) 2005-07-25 2006-07-12 the process of determining a model of an interface between a user and his environment on board a vehicle, using a model and system of determining a model of an interface between a user and his environment on board a vehicle
CA2615250A CA2615250C (en) 2005-07-25 2006-07-12 Method and system for modelling an interface between a user and the environment thereof in a motor vehicle
JP2008523395A JP5032476B2 (en) 2005-07-25 2006-07-12 Method and system for modeling the interface between a rider and its environment
EP06778868A EP1915662A2 (en) 2005-07-25 2006-07-12 Method and system for modelling an interface between a user and the environment thereof in a motor vehicle
CN200680027036.2A CN101351763B (en) 2005-07-25 2006-07-12 Process and system of modeling of an interface between a user and his environment aboard a vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0507894A FR2888967B1 (en) 2005-07-25 2005-07-25 METHOD AND SYSTEM FOR MODELING AN INTERFACE BETWEEN A USER AND ITS ENVIRONMENT ON BOARD A VEHICLE
FR0507894 2005-07-25

Publications (3)

Publication Number Publication Date
WO2007012723A2 true WO2007012723A2 (en) 2007-02-01
WO2007012723A3 WO2007012723A3 (en) 2007-03-22
WO2007012723A8 WO2007012723A8 (en) 2007-04-26

Family

ID=36095781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2006/001701 WO2007012723A2 (en) 2005-07-25 2006-07-12 Method and system for modelling an interface between a user and the environment thereof in a motor vehicle

Country Status (8)

Country Link
EP (1) EP1915662A2 (en)
JP (1) JP5032476B2 (en)
CN (1) CN101351763B (en)
BR (1) BRPI0615543A2 (en)
CA (1) CA2615250C (en)
FR (1) FR2888967B1 (en)
RU (1) RU2423294C2 (en)
WO (1) WO2007012723A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101830287A (en) * 2010-04-30 2010-09-15 西安理工大学 Call plate device for driver

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102467596B (en) * 2010-11-15 2016-09-21 商业对象软件有限公司 Instrument board evaluator
FR2989181B1 (en) 2012-04-04 2015-03-27 Eurocopter France METHOD AND APPARATUS FOR ADAPTATION OF THE AIR-MACHINE INTERFACE OF AN AIRCRAFT ACCORDING TO THE LEVEL OF THE FUNCTIONAL STATE OF THE PILOT
RU2605230C1 (en) * 2015-06-03 2016-12-20 Открытое акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королева" Method of controlling spacecraft crew readiness to emergency situations and system for its implementation
US11151810B2 (en) * 2018-10-12 2021-10-19 Aurora Flight Sciences Corporation Adaptable vehicle monitoring system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8051102B2 (en) * 2002-07-26 2011-11-01 Levitronics, Inc. Data base and knowledge operating system
JP4122434B2 (en) * 2003-08-20 2008-07-23 独立行政法人産業技術総合研究所 Usability evaluation processing system using virtual users

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DEGANI A ET AL: "Modes in human-automation interaction: initial observations about a modeling approach" SYSTEMS, MAN AND CYBERNETICS, 1995. INTELLIGENT SYSTEMS FOR THE 21ST CENTURY., IEEE INTERNATIONAL CONFERENCE ON VANCOUVER, BC, CANADA 22-25 OCT. 1995, NEW YORK, NY, USA,IEEE, US, vol. 4, 22 octobre 1995 (1995-10-22), pages 3443-3450, XP010194829 ISBN: 0-7803-2559-1 *
DURIC Z,GRAY W.D.,HEISHMAN R,LI F,ROSENFELD A,SCHOELLES M.J,SCHUNN C,WECHSLER H: "Integrating perceptual and cognitive modeling for adapatative and intelligent human-computer interaction" PROCEEDING OF THE IEEE, vol. 90, juillet 2002 (2002-07), pages 1272-1289, XP011065033 *
GOLDBERG J H ET AL: "COMPUTER INTERFACE EVALUATION USING EYE MOVEMENTS: METHODS AND CONSTRUCTS" INTERNATIONAL JOURNAL OF INDUSTRIAL ERGONOMICS, ELSEVIER, vol. 24, no. 6, octobre 1999 (1999-10), pages 631-645, XP002376232 ISSN: 0169-8141 *
HAYASHI M ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "Hidden Markov models to identify pilot instrument scanning and attention patterns" 2003 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS. SMC'03. CONFERENCE PROCEEDINGS. WASHINGTON, DC, OCT. 5 - 8, 2003, IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS, NEW YORK, NY : IEEE, US, vol. VOL. 5 OF 5, 5 octobre 2003 (2003-10-05), pages 2889-2896, XP010668058 ISBN: 0-7803-7952-7 *
PRITCHETT A R ET AL: "Examining air transporation safety issues through agent-based simulation incorporating human performance models" 21TH. DASC. THE 21TH. DIGITAL AVIONICS SYSTEMS CONFERENCE PROCEEDINGS. IRVINE, CA, OCT. 27 - 31, 2002, DIGITAL AVIONICS SYSTEMS CONFERENCE, NEW YORK, NY : IEEE, US, vol. VOL. 1 OF 2. CONF. 21, 27 octobre 2002 (2002-10-27), pages 46-58, XP010616182 ISBN: 0-7803-7367-7 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101830287A (en) * 2010-04-30 2010-09-15 西安理工大学 Call plate device for driver

Also Published As

Publication number Publication date
EP1915662A2 (en) 2008-04-30
CN101351763A (en) 2009-01-21
BRPI0615543A2 (en) 2011-05-17
FR2888967B1 (en) 2008-05-09
WO2007012723A3 (en) 2007-03-22
WO2007012723A8 (en) 2007-04-26
FR2888967A1 (en) 2007-01-26
RU2008106916A (en) 2009-09-10
CN101351763B (en) 2015-05-06
JP2009503664A (en) 2009-01-29
JP5032476B2 (en) 2012-09-26
RU2423294C2 (en) 2011-07-10
CA2615250A1 (en) 2007-02-01
CA2615250C (en) 2014-02-25

Similar Documents

Publication Publication Date Title
JP7158876B2 (en) System and method for immersive simulator
EP0292381B1 (en) Method for a statistical model elaboration for determining the work load of an aircraft pilot and the resulting model of it, device for carrying out this method and use of the model
EP2647959B1 (en) Method and device for adapting the human-machine interface of an aircraft according to the level of the functional state of the pilot
Leiden et al. A review of human performance models for the prediction of human error
FR3026508A1 (en) CONTEXTUAL HELP WITH FLIGHT MANAGEMENT
US8214183B2 (en) Process and system of modeling of an interface between a user and his environment aboard a vehicle
WO2007012723A2 (en) Method and system for modelling an interface between a user and the environment thereof in a motor vehicle
EP1915591B1 (en) Method for processing data to determine visual patterns in a visual scene
EP4292072A1 (en) Device and method for evaluating skills
EP4078609A1 (en) Method and device to assist with monitoring the cognitive states of an individual
Brock et al. Making ATIS accessible for pilots who are deaf or hard of hearing
Dixon Investigation of Mitigating Pilot Spatial Disorientation with a Computational Tool for Real-Time Triggering of Active Countermeasures
Statler The aviation system monitoring and modeling (ASMM) project: A documentation of its History and Accomplishments: 1999-2005
Dunn Remotely Piloted Aircraft: The impact of audiovisual feedback and workload on operator performance
US20240112562A1 (en) Systems and methods for increasing the safety of voice conversations between drivers and remote parties
Machado Human Interaction and Emerging Technologies (IHIET-AI 2024), Vol. 120, 2024, 114-122
Chittaluri Development and Evaluation of Cueing Symbology for Rotorcraft Operations in Degraded Visual Environment (DVE)
Hartman III An Exploratory Study of General Aviation Visual to Instrument Meteorological Condition Contextual Factors
Young The lived-experience of inflight automation failures: A qualitative descriptive phenomenological study
Causse et al. The 1st International Conference on Cognitive Aircraft Systems–ICCAS 2020
Durand et al. ISAE-SUPAERO Conference paper
Salehi Mental models of hazards and the issue of trust in automation
von Thaden Information behavior among commercial aviation CFIT accident flight crews: transcript analyses
FR3124616A1 (en) METHOD AND DEVICE FOR PREDICTIVE ANALYSIS OF THE BEHAVIOR OF AN OPERATOR IN INTERACTION WITH A COMPLEX SYSTEM
FR3062734A1 (en) MESSAGE INTERPRETATION DEVICE WITH CONTEXT CONSIDERATION

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680027036.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2615250

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2008523395

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWE Wipo information: entry into national phase

Ref document number: 2006778868

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008106916

Country of ref document: RU

WWP Wipo information: published in national office

Ref document number: 2006778868

Country of ref document: EP

ENP Entry into the national phase

Ref document number: PI0615543

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20080122