FR3104283A1 - Système interactif et procédé d’interaction associé - Google Patents

Système interactif et procédé d’interaction associé Download PDF

Info

Publication number
FR3104283A1
FR3104283A1 FR1913857A FR1913857A FR3104283A1 FR 3104283 A1 FR3104283 A1 FR 3104283A1 FR 1913857 A FR1913857 A FR 1913857A FR 1913857 A FR1913857 A FR 1913857A FR 3104283 A1 FR3104283 A1 FR 3104283A1
Authority
FR
France
Prior art keywords
user
exercise
remediation
physiological
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1913857A
Other languages
English (en)
Other versions
FR3104283B1 (fr
Inventor
Georges De Pelsemaeker
Antoine BOILEVIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Systemes Thermiques SAS
Original Assignee
Valeo Systemes Thermiques SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Systemes Thermiques SAS filed Critical Valeo Systemes Thermiques SAS
Priority to FR1913857A priority Critical patent/FR3104283B1/fr
Priority to PCT/FR2020/052151 priority patent/WO2021111057A1/fr
Priority to US17/782,820 priority patent/US20230011113A1/en
Priority to EP20821053.4A priority patent/EP4069542A1/fr
Priority to CN202080095798.6A priority patent/CN115052778A/zh
Publication of FR3104283A1 publication Critical patent/FR3104283A1/fr
Application granted granted Critical
Publication of FR3104283B1 publication Critical patent/FR3104283B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Developmental Disabilities (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Système interactif et procédé d’interaction associé L’invention concerne un système interactif (1) avec un utilisateur (U) occupant un véhicule automobile (100) comportant une interface (3) et un système d’exploitation pour exécuter une application. Selon l’invention, le système interactif (1) comporte un dispositif de mesure (5) comprenant au moins un capteur configuré pour acquérir au moins un paramètre physiologique de l’utilisateur (U), et une unité de traitement (7) embarquée. L’unité de traitement (7) comprend un module d’interprétation configuré pour recevoir le paramètre physiologique et pour définir, à partir du paramètre physiologique, une donnée représentative de l’état physiologique ou émotionnel de l’utilisateur (U), et un module d’analyse configuré pour comparer des données représentatives de l’état physiologique ou émotionnel de l’utilisateur (U) avant et pendant l’exécution d’une application de gestion d’un exercice de remédiation, et pour ajuster au moins un paramètre de l’exercice de remédiation, en fonction des résultats de comparaison. L’invention concerne aussi un procédé d’interaction mis en œuvre au moins en partie par un tel système interactif. Figure pour l’abrégé : Fig. 1

Description

Système interactif et procédé d’interaction associé
L’invention concerne un système interactif avec au moins un utilisateur occupant d’un véhicule automobile. L’invention concerne également un procédé d’interaction avec un utilisateur occupant d’un véhicule automobile.
Le passage au véhicule autonome ou semi-autonome présente de plus en plus d’enjeux, de challenges, quant à la création d’un véhicule intelligent, intuitif, permettant de rendre la conduite et/ou le voyage plus agréable pour l’occupant tel que le conducteur ou les passagers. En particulier, des améliorations peuvent être axées sur la sécurité, le confort et le divertissement ou infodivertissement. Dans de tels véhicules autonomes ou semi-autonomes, les passagers et conducteurs sont amenés à avoir plus de temps libre. Il existe un intérêt d’utiliser ce temps libre dans le véhicule de manière positive.
Par ailleurs, des exemples de systèmes existant permettent d’évaluer l’état physiologique ou émotionnel d’un occupant d’un véhicule automobile. Il est en effet connu d’effectuer des mesures permettant de déterminer différents paramètres concernant un occupant, et ainsi en déduire une donnée représentative de son état physiologique ou émotionnel.
De manière générale, les mesures peuvent être effectuées grâce à des dispositifs portables permettant de récolter des données telle que la conductivité de la peau, la température, ou encore le rythme cardiaque. Le système utilisé comporte généralement une caméra, par exemple de type GoPro®.
Dans les systèmes connus, les paramètres obtenus sont ensuite utilisés pour déterminer l’état émotionnel de l’occupant. Un modèle connu permet d’obtenir, à partir des différents paramètres, une cartographie de l’état émotionnel du passager. Ainsi, celui-ci peut être représenté par un point dans un espace à deux dimensions formé d’un axe des abscisses correspondant à la valence (qualité intrinsèquement agréable ou désagréable d’un stimulus ou d’une situation) et un axe des ordonnées correspondant à l’arousal (force du stimulus émotionnel).
L’invention a pour objectif d’interagir avec l’utilisateur en fonction de l’état physiologique ou émotionnel détecté, pour améliorer son temps libre dans le véhicule.
Un autre objectif est d’améliorer les systèmes connus en proposant un système interactif permettant de modéliser l’état physiologique ou émotionnel d’un utilisateur occupant un véhicule, et d’interpréter cet état de manière à intégrer des paramètres supplémentaires dans le modèle utilisé.
À cet effet, l’invention a pour objet un système interactif avec au moins un utilisateur occupant un véhicule automobile comportant au moins une interface configurée pour interagir avec l’utilisateur, et un système d’exploitation configuré pour exécuter une application sélectionnée par l’utilisateur via l’interface.
Selon l’invention, le système interactif comporte :
  1. un dispositif de mesure comprenant au moins un capteur configuré pour acquérir au moins un paramètre physiologique de l’utilisateur, et
  2. une unité de traitement embarquée configurée pour être connectée à l’interface et au dispositif de mesure, telle que l’unité de traitement comprend :
    1. un module d’interprétation configuré pour recevoir le paramètre physiologique et pour définir, à partir du paramètre physiologique, une donnée représentative de l’état physiologique de l’utilisateur au moyen d’un modèle d’évaluation de l’état physiologique de l’utilisateur, et
    2. un module d’analyse configuré pour comparer des données représentatives de l’état physiologique de l’utilisateur avant et pendant l’exécution d’une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur pour améliorer son état physiologique, et pour ajuster au moins un paramètre de l’exercice de remédiation, en fonction des résultats de comparaison.
En variante ou en complément, le module d’interprétation de l’unité de traitement peut être configuré pour définir, à partir d’un nombre prédéfini de paramètres physiologiques de l’utilisateur, une donnée représentative de l’état émotionnel de l’utilisateur au moyen d’un modèle d’évaluation de l’état émotionnel de l’utilisateur.
Ainsi, l’exercice de remédiation est spécifiquement adapté pour l’utilisateur, ce qui permet de tendre vers un état physiologique ou émotionnel optimal lorsque l’utilisateur réalise l’exercice de remédiation.
Le système interactif peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison.
Le ou les paramètres physiologiques sont par exemple des signes vitaux.
Le paramètre de l’exercice de remédiation peut être ajusté au cours de l’exercice de remédiation en cours. En variante ou en complément, le paramètre peut être ajusté pour une séance ultérieure de l’exercice de remédiation.
Le dispositif de mesure comporte au moins un capteur pour relever un paramètre de l’environnement de l’utilisateur dans le véhicule automobile.
Au moins un capteur du dispositif de mesure peut être configuré pour acquérir au moins un paramètre physiologique de l’utilisateur avant et après ajustement du paramètre de l’exercice de remédiation.
Le module d’interprétation peut être configuré pour définir, à partir des paramètres physiologiques, une donnée représentative de l’état physiologique de l’utilisateur avant et après ajustement du paramètre de l’exercice de remédiation.
Le module d’analyse peut être configuré pour comparer les données représentatives de l’état physiologique de l’utilisateur avant et après ajustement du paramètre de l’exercice de remédiation. Ceci permet d’améliorer l’ajustement de l’exercice de remédiation.
Au moins un capteur du dispositif de mesure peut être configuré pour acquérir au moins un paramètre physiologique de l’utilisateur lorsque l’application est exécutée, durant au moins une séquence parmi :
  1. une séquence de choix dans un menu de l’application,
  2. une séquence de relaxation ou de préparation, antérieure à la réalisation de l’exercice de remédiation par l’utilisateur,
  3. une séquence de réalisation de l’exercice de remédiation par l’utilisateur,
  4. une séquence d’explication de l’exercice de remédiation,
  5. une séquence de retour d’expérience de l’utilisateur sur l’exercice de remédiation réalisé.
Le module d’analyse peut être configuré pour ajuster au moins un paramètre d’au moins une séquence, choisi parmi le type d’au moins une séquence, la durée d’au moins une séquence, l’intensité d’au moins une séquence, la vitesse d’au moins une séquence ou l’exécution d’au moins une séquence.
Selon une option, la séquence d’explication est postérieure à la réalisation de l’exercice de remédiation.
L’application sélectionnée est avantageusement une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur pour améliorer son état émotionnel.
La donnée représentative de l’état émotionnel de l’utilisateur correspond par exemple à un point dans un espace de caractérisation de l’état émotionnel de l’utilisateur.
Selon une approche, l’espace de caractérisation de l’état émotionnel de l’utilisateur est un espace bidimensionnel, formé d’un premier axe correspondant à la valence et d’un deuxième axe correspondant à l’arousal.
Selon une autre approche, l’espace de caractérisation de l’état émotionnel de l’utilisateur est un espace tridimensionnel. L’espace tridimensionnel de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence, d’un deuxième axe correspondant à l’arousal et d’un troisième axe correspondant à la dominance.
Selon un autre aspect, le système interactif peut comporter au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’utilisateur durant au moins une séquence de l’exercice de remédiation, ledit stimulus permettant de modifier l’état physiologique et/ou émotionnel de l’utilisateur. On modifie ainsi l’environnement multi sensoriel pour une meilleure perception de l’exercice.
Selon une option, le capteur est configuré pour relever un paramètre physiologique de l’utilisateur avant activation dudit stimulus et lorsque ledit stimulus interagit avec l’utilisateur. Le module d’interprétation est configuré pour définir, à partir des paramètres physiologiques relevés, des données représentatives de l’état physiologique de l’utilisateur avant activation dudit stimulus et lorsque ledit stimulus interagit avec l’utilisateur.
Le dispositif de mesure peut comporter au moins un capteur configuré pour relever des données de performance de l’utilisateur durant une séance de l’exercice de remédiation, lorsque l’application est exécutée.
L’unité de traitement peut comporter un module d’étude de performance pour déterminer, à partir des données de performance, si l’utilisateur a réalisé l’exercice de remédiation conformément aux instructions de l’application et/ou pour définir la progression de l’utilisateur par rapport à au moins une performance antérieure.
L’unité de traitement peut comporter un support mémoire sur lequel les données de performance sont destinées à être enregistrées.
En variante ou en complément, les données de performance peuvent être déchargées sur un support de stockage de données, externe au véhicule automobile, et être analysées par un moyen de traitement externe au véhicule automobile et/ou être consultées par une équipe médicale ou de santé.
Le système interactif peut comporter un module de télécommunication par téléphonie et/ou messagerie et/ou vidéo, de façon à permettre à l’utilisateur d’interagir avec une équipe de spécialistes du domaine de l’application téléchargée lorsque l’application est exécutée, par exemple pendant une séquence de réalisation de l’exercice de remédiation.
Ledit au moins un capteur du dispositif de mesure peut être un capteur sans contact avec l’utilisateur, choisi parmi au moins un radar à ultra large bande, une caméra infrarouge, un capteur dans le domaine du visible, un microphone.
Le radar à ultra large bande a par exemple une fréquence comprise entre 10GHz et 1THz, en particulier entre 50GHz et 160GHz.
La caméra infrarouge peut être configurée pour détecter des longueurs d’onde comprises entre 0,7μm et 100μm, en particulier entre 25μm et 100μm.
Les capteurs du dispositif de mesure sont avantageusement embarqués dans le véhicule automobile.
L’interface est embarquée dans le véhicule automobile.
Le système interactif peut comporter un terminal mobile configuré pour être connecté à l’unité de traitement, le terminal mobile comportant l’interface pour interagir avec l’utilisateur.
L’invention concerne aussi un procédé d’interaction avec au moins un utilisateur occupant un véhicule automobile, configuré pour être mis en œuvre au moins en partie par un système interactif tel que défini précédemment.
Le procédé d’interaction comporte les phases suivantes :
  1. une phase de mesure d’au moins un paramètre physiologique de l’utilisateur au moyen d’au moins un capteur du dispositif de mesure du système interactif,
  2. une phase de réception et d’interprétation du paramètre physiologique par un module d’interprétation de l’unité de traitement du système interactif, pour définir, à partir du paramètre physiologique, une donnée représentative de l’état physiologique de l’utilisateur au moyen d’un modèle d’évaluation de l’état physiologique de l’utilisateur,
  3. une phase de remédiation comprenant l’exécution d’une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur, et durant laquelle l’utilisateur réalise l’exercice de remédiation de l’application, et
  4. une phase d’analyse par un module d’analyse de l’unité de traitement pour comparer des données représentatives de l’état physiologique de l’utilisateur avant et pendant l’exécution de l’application, et pour ajuster en fonction des résultats de comparaison, au moins un paramètre de l’exercice de remédiation.
Le procédé d’interaction peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison.
Une ou plusieurs phases sont avantageusement mises en œuvre de façon continue.
La phase de mesure d’au moins un paramètre physiologique de l’utilisateur peut être mise en œuvre antérieurement à l’exécution de l’application et en outre lorsque l’application est exécutée, durant au moins une séquence.
Durant la phase de réception et d’interprétation, une donnée représentative de l’état émotionnel de l’utilisateur peut être définie à partir du paramètre physiologique de l’utilisateur au moyen d’un modèle d’évaluation de l’état émotionnel de l’utilisateur.
La donnée représentative de l’état émotionnel de l’utilisateur est placée dans un espace de caractérisation de l’état émotionnel de l’utilisateur, par exemple bidimensionnel ou tridimensionnel.
Selon une option, l’espace de caractérisation de l’état émotionnel de l’utilisateur, tel qu’un espace tridimensionnel ou en variante bidimensionnel, est adapté en fonction de données supplémentaires, en particulier la culture et/ou l’éducation de l’utilisateur et/ou la vie et expérience personnelle de l’utilisateur.
Durant la phase de remédiation, l’application est exécutée selon un nombre prédéfini de séquences parmi :
  1. une séquence de choix dans un menu de l’application,
  2. une séquence de relaxation ou de préparation, antérieure à la réalisation de l’exercice de remédiation par l’utilisateur,
  3. une séquence de réalisation de l’exercice de remédiation par l’utilisateur,
  4. une séquence d’explication de l’exercice de remédiation,
  5. une séquence de retour d’expérience de l’utilisateur sur l’exercice de remédiation réalisé.
Le procédé d’interaction peut comporter une phase d’étude de performance comportant : une étape pour relever des données de performance de l’utilisateur durant une séance de l’exercice de remédiation, lorsque l’application est exécutée, et une étape pour déterminer, à partir des données de performance relevées, si l’utilisateur a réalisé l’exercice de remédiation conformément aux instructions de l’application et/ou pour définir la progression de l’utilisateur.
Le procédé d’interaction peut comporter une étape pour transmettre les mesures sur un support mémoire interne au véhicule ou un support de stockage externe au véhicule.
Le procédé d’interaction peut comporter une étape de commande d’un actionneur dans le véhicule automobile de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’utilisateur durant au moins une séquence de l’exercice de remédiation, ledit stimulus étant agencé pour permettre de modifier l’état physiologique et/ou émotionnel de l’utilisateur, et un paramètre physiologique de l’utilisateur est relevé avant l’étape de commande et lorsque ledit stimulus interagit avec l’utilisateur, pour définir, à partir des paramètres physiologiques relevés, des données représentatives de l’état physiologique de l’utilisateur avant et pendant l’étape de commande.
Le procédé d’interaction peut comporter en outre une étape pour informer l’utilisateur sur son état physiologique ou émotionnel et/ou sur le stimulus appliqué.
D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante, donnée à titre d’exemple illustratif et non limitatif, et des dessins annexés parmi lesquels :
La représente de façon schématique des blocs fonctionnels d’un système interactif avec un utilisateur dans un véhicule et d’un serveur distant.
La est un diagramme schématique d’au moins une partie d’un procédé d’interaction mis en œuvre au moins partiellement par le système interactif de la figure 1.
La est une représentation schématiqued’une cartographie de l’état émotionnel d’un utilisateur dans un espace tridimensionnel de caractérisation de l’état émotionnel.
La montre de façon schématique un axe d’évolution de l’état émotionnel de l’utilisateur dans l’espace tridimensionnel de caractérisation de l’état émotionnel.
La est une représentation schématique de séquences successives d’un exercice de remédiation adaptées pour des utilisateurs respectifs.
La est une représentation schématique d’une cartographie pour le sens de la vue utilisé dans le procédé de la figure 2.
La est une représentation schématique de la construction de la cartographie de la figure 6.
Dans ces figures, les éléments identiques portent les mêmes références.
Les réalisations suivantes sont des exemples. Bien que la description se réfère à un ou plusieurs modes de réalisation, ceci ne signifie pas nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s’appliquent seulement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation peuvent également être combinées ou interchangées pour fournir d’autres réalisations.
Dans la description, certains éléments peuvent être indexés, comme par exemple premier élément ou deuxième élément. Dans ce cas, il s’agit d’un simple indexage pour différencier et dénommer des éléments proches mais non identiques. Cette indexation n’implique pas une priorité d’un élément par rapport à un autre et de telles dénominations peuvent être aisément interchangées sans sortir du cadre de la présente description. Cette indexation n’implique pas non plus un ordre dans le temps.
SYSTÈME INTERACTIF
En référence à la figure 1, l’invention concerne un système interactif 1 avec un ou plusieurs utilisateurs U occupant un véhicule automobile 100, conducteur et/ou passager(s). Un tel système interactif 1 permet de mettre en œuvre au moins en partie un procédé d’interaction avec l’utilisateur U, décrit plus en détail par la suite.
Le système interactif 1 permet de superviser une ou plusieurs séances d’un exercice de remédiation qui peut être réalisé par un utilisateur U dans le véhicule pour améliorer son état physiologique ou émotionnel. En complément, le système interactif 1 peut éventuellement jouer sur l’environnement multi sensoriel de l’utilisateur U, afin qu’il ait une meilleure perception de l’exercice de remédiation.
L’exercice de remédiation peut être un exercice de méditation ou un exercice de relaxation. On pourrait envisager un exercice de loisir dans un domaine d’intérêt de l’utilisateur U.
Il peut en variante s’agir d’un exercice dans un cadre principalement thérapeutique. En particulier, l’exercice thérapeutique peut être un exercice de mouvements répétitifs ou d’actions répétitives qui ne nécessitent pas la présence physique d’un spécialiste de la santé, thérapeute, infirmier ou médecin. Par exemple, de façon non limitative, un exercice thérapeutique peut être choisi parmi l’un des domaines suivants : orthophonie, optométrie, orthoptie, rééducation, voire de la kinésithérapie, concentration, respiration.
De façon avantageuse, le système interactif 1 peut être configuré pour sélectionner et proposer automatiquement une application d’un exercice de remédiation à l’utilisateur U qui corresponde à son état physiologique ou émotionnel. En alternative ou en complément, le système interactif 1 peut être configuré pour spécifiquement adapter l’exercice de remédiation à l’utilisateur.
Pour ce faire, le système interactif 1 comporte une ou plusieurs interfaces 3 pour interagir avec un utilisateur U, un dispositif de mesure 5, et une unité de traitement 7 embarquée dans le véhicule automobile 100, configurée pour être connectée à l’interface ou aux interfaces 3 et au dispositif de mesure 5.
On entend par « connectée », une liaison informatique de l’unité de traitement 7 avec l’interface 3 ou les interfaces 3, et le dispositif de mesure 5, de façon à pouvoir échanger des données. Il peut s’agir d’une liaison par câble ou sans fil. L’échange de données peut par exemple se faire par un réseau CAN pour «Controller Area Network» en anglais, LIN BUS, Wifi, Bluetooth, ou autres.
L’interface 3 peut être embarquée dans le véhicule automobile 100. Une telle interface 3 est généralement nommée interface homme-machine, connue sous le sigle HMI pour «human-machine interface» en anglais.
En variante ou en complément, le système interactif 1 peut comporter un terminal mobile 9, tel qu’un téléphone intelligent connu sous l’appellation anglaise «smartphone» et peut être configuré pour être connecté à l’unité de traitement 7 du véhicule automobile 100. Un tel terminal mobile peut comporter une interface 3 pour interagir avec l’utilisateur.
L’interaction peut se faire par le son et/ou par l’image et/ou par retour tactile.
De façon non exhaustive, au moins une interface d’entrée de commande et une interface de sortie peuvent être prévues. L’interface de sortie peut être ou non l’interface d’entrée de commande.
En particulier, le système interactif 1 peut comporter au moins une interface 3 d’affichage. Une interface d’affichage permet par exemple l’affichage d’un menu déroulant permettant à l’utilisateur de naviguer et faire un choix parmi plusieurs options. Le système interactif 1 peut posséder une ou plusieurs interfaces 3 d’affichage qui peuvent se présenter, par exemple, sous la forme d’un ou plusieurs dispositifs portables, tels qu’une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
Une interface 3 d’affichage sous la forme d’un écran qui peut ou non être tactile, peut aussi être prévue. L’écran tactile permet de faire office à la fois d’interface d’entrée de commande par appui, ou contact de l’utilisateur U, et d’interface de sortie par affichage.
L’interface 3 ou au moins l’une des interfaces prévues, permet de recevoir une ou plusieurs notifications à l’attention de l’utilisateur U, notamment concernant au moins une application disponible sur le serveur 11. Une ou plusieurs notifications peuvent également permettre d’informer l’utilisateur U sur son état physiologique ou émotionnel, suite à une analyse de données obtenues par le dispositif de mesure 5, comme décrit plus en détail par la suite.
Le dispositif de mesure 5 comporte un ou plusieurs capteurs configurés pour mettre en œuvre une ou plusieurs phases de mesure du procédé d’interaction décrit par la suite.
Les capteurs du dispositif de mesure 5 sont notamment configurés pour acquérir au moins un paramètre lié à l’utilisateur ou plusieurs utilisateurs. Une telle acquisition peut se faire à tout moment, notamment avant, pendant ou après l’exécution d’une application, voire selon que l’environnement multi sensoriel est modifié ou non.
Les paramètres liés à l’utilisateur peuvent comprendre au moins un paramètre physiologique de l’utilisateur. De façon non exhaustive et non limitative, les paramètres physiologiques peuvent être des signes vitaux, tels que le rythme cardiaque, le pouls, la respiration, ou encore la coloration de la peau sur le visage pour détecter un afflux sanguin.
Les capteurs sont préférentiellement des capteurs embarqués dans le véhicule automobile 100. La présence des capteurs automobile dans le véhicule peut être liée à de l’infodivertissement dans le véhicule, à des facteurs de sécurité, de confort.
Il peut s’agir de capteurs sans contact avec l’utilisateur U ou encore des capteurs de contact.
Les capteurs peuvent comprendre une ou plusieurs caméras, par exemple dans le domaine du visible, des capteurs de signes vitaux, un ou plusieurs microphones.
Au moins un microphone peut enregistrer la voix de l’utilisateur U ou des utilisateurs dans le véhicule automobile 100.
Les capteurs, notamment de signes vitaux, peuvent par exemple se présenter sous la forme de capteurs sans contact comme par exemple un radar, une caméra. De façon alternative ou en complément, les capteurs peuvent être prévus dans des éléments portables (montre, chemise, bracelet, etc…), portés par l’utilisateur U.
Une ou plusieurs caméras peuvent être prévues pour identifier des expressions du visage ou des postures de l’utilisateur U.
Au moins une caméra peut être une caméra temps de vol ou «time of flight»en anglais.
Dans un mode de réalisation préféré, une ou plusieurs caméras, peuvent être en particulier des caméras infrarouges configurées pour prendre des images dans le domaine infrarouge. Ces caméras sont par exemple dirigées vers les positions attendues des différents occupants du véhicule : siège conducteur, siège passager, banquette arrière, etc…En particulier, une ou plusieurs caméras très grand angle (par exemple de type « œil de poisson » connu sous l’appellation « fish-eye » en anglais) peuvent couvrir plusieurs positions de façon simultanée. Les caméras infrarouges détectent préférentiellement des longueurs d’onde comprises entre 0,7µm et 100µm, préférentiellement 25µm et 100µm.
Ces caméras comportent, avantageusement, des caméras infrarouges proches « NIR » pour « Near Infra Red » en anglais, et/ou infrarouges lointains « FIR » pour « Far Infra Red » en anglais.
Les images issues des caméras NIR, infrarouges proches, peuvent par exemple servir à délimiter la position, les dimensions et mouvements de différentes parties du corps d’un utilisateur U du véhicule. Les images issues des caméras FIR, infrarouges lointains, peuvent par exemple servir à identifier les parties du corps de l’utilisateur U échangeant le plus de chaleur avec l’habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaissent ainsi plus chaudes.
Selon un mode de réalisation particulier, le système interactif 1 comporte un radar de courte portée à ultra large bande. La fréquence du radar peut par exemple être comprise entre 10GHz et 1THz, préférentiellement entre 50GHz et 160GHz.
Des capteurs de signes vitaux en contact avec le passager peuvent également être utilisés. Ils se présentent, par exemple, sous la forme d’éléments conducteurs installés dans des parties du véhicule (accoudoir, volant, siège, etc…). Ces capteurs de signes vitaux peuvent être configurés pour mesurer des paramètres tels que le rythme et/ou la fréquence cardiaque, la fréquence et/ou l’amplitude respiratoire, la conductivité de la peau, les ondes cérébrales, etc…
En variante ou en complément, d’autres types de paramètres peuvent également récupérés au moyen d’autres capteurs.
Le dispositif de mesure 5 permet avantageusement de déterminer l’environnement du ou des passagers, celui-ci pouvant influer sur l’état physiologique ou émotionnel du ou des passagers. Ainsi, des données telles que la température, l’intensité lumineuse, le bruit, la vitesse du véhicule, etc…peuvent être récoltées.
Le dispositif de mesure 5 peut également comporter des biocapteurs pouvant détecter des paramètres tels que des composés organiques, des ions, des bactéries, ou autre.
En outre, au moins un capteur du dispositif de mesure 5 peut être configuré pour relever des données de performance de l’utilisateur U durant une séance de l’exercice de remédiation. Il peut s’agir de façon non limitative, de suivre l’évolution de la position et/ou de mouvements réalisés par l’utilisateur, par exemple de ses yeux, d’un membre, d’une partie du corps, de surveiller sa respiration sur une séance, ou autre.
Par ailleurs, l’unité de traitement 7 peut comprendre un ou plusieurs moyens de traitement configurés pour mettre en œuvre au moins en partie le procédé d’interaction décrit par la suite.
De façon générale, les moyens de traitement peuvent comporter l’un ou plusieurs des moyens parmi un ou plusieurs moyens de télécommunication ou télématique, un comparateur, au moins un calculateur, un processeur et/ou tout autre matériel permettant d’exécuter un logiciel ou non, un circuit intégré propre à une application connu sous le sigle ASIC, une mémoire morte connue sous le sigle ROM, une mémoire vive connue sous le sigle RAM, ou autre mémoire, ou encore d’autres matériels conventionnels ou personnalisés.
Les modules de l’unité de traitement 7 décrits ci-après, peuvent comporter un ou plusieurs de ces moyens de traitement. De plus, les modules tels que définis ci-après sont différenciés pour mieux faire ressortir leurs fonctionnalités, bien entendu des moyens de traitement peuvent être communs ou non entre différents modules de l’unité de traitement 7.
À titre d’exemple, l’unité de traitement 7 peut comprendre un module d’interprétation configuré pour recevoir un ou plusieurs paramètres liés à l’utilisateur U d’un ou plusieurs capteurs du dispositif de mesure 5.
Le module d’interprétation peut être configuré pour définir, à partir du ou des paramètres obtenus par le dispositif de mesure 5, une donnée représentative de l’état physiologique de l’utilisateur. Pour ce faire, l’unité de traitement 7, en particulier le module d’interprétation, est configuré pour utiliser un modèle d’évaluation de l’état physiologique de l’utilisateur U.
En particulier, l’unité de traitement 7, notamment le module d’interprétation, peut être configuré pour définir, à partir d’un nombre prédéfini de paramètres liés à l’utilisateur, notamment de paramètres physiologiques, une donnée représentative de l’état émotionnel de l’utilisateur U en utilisant un modèle d’évaluation de l’état émotionnel de l’utilisateur U.
Selon un exemple de réalisation, la donnée représentative de l’état émotionnel correspond à un point dans un espace de caractérisation de l’état émotionnel de l’utilisateur U. Comme schématisé sur la figure 1, l’espace de caractérisation de l’état émotionnel de l’utilisateur U peut être un espace tridimensionnel. Cet espace tridimensionnel de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence V, d’un deuxième axe correspondant à l’arousal A et d’un troisième axe correspondant à la dominance D.
De façon alternative, l’espace de caractérisation de l’état émotionnel de l’utilisateur U, pourrait être un espace bidimensionnel formé d’un premier axe correspondant à la valence et d’un deuxième axe correspondant à l’arousal.
La valence V caractérise le niveau de plaisir (V+) ou de désagrément (V-) associé à une émotion. Autrement dit, la valence permet de caractériser comment un individu vit une situation, positivement (V+), en étant heureux, ou négativement (V-), en étant triste, en colère, malheureux.
L’arousal A peut être défini comme étant l’intensité de la réponse générée par une situation, une émotion. Autrement dit, l’arousal permet de définir si l’individu vit la situation avec beaucoup d’excitation (A+), ou au contraire avec peu d’excitation, s’il est relaxé, endormi, passif (A-).
La dominance D, quant à elle, caractérise le niveau de maîtrise et de contrôle de la réponse de l’individu à cette émotion. Autrement dit, la dominance permet de caractériser si l’individu est en contrôle, responsable de sa réaction et de ses actes (D+) ou au contraire s’il est submergé, impulsif, sous le contrôle de ses émotions (D-).
Un exemple de cartographie de l’état émotionnel dans l’espace tridimensionnel A, V, D est représenté sur la figure 1. Dans cet exemple, W correspond par exemple à un état d’anxiété, X correspond par exemple à un état d’extase, Y correspond par exemple à un état de sérénité, Z correspond par exemple à un état de dépression. Le point d’intersection des trois axes de l’espace tridimensionnel A, V, D correspond à la position neutre de l’état émotionnel de l’utilisateur U.
Le traitement du modèle d’évaluation de l’émotion peut être amélioré. En particulier, la cartographie peut être modifiée en prenant en compte l’impact de la culture et/ou de l’éducation de l’occupant, permettant d’obtenir un profil utilisateur pour chaque utilisateur U. La cartographie peut également être adaptée en prenant en compte l’impact de la vie personnelle et/ou de l’expérience de l’utilisateur U.
De plus, l’unité de traitement 7 peut comporter un module de communication de données avec un serveur 11 dans lequel est notamment stockée une librairie d’applications de gestion d’exercices de remédiation, au moins une donnée représentative d’un état physiologique et/ou émotionnel étant par exemple associée à chaque application. Les applications de la librairie sont destinées à être téléchargées sur demande dans le véhicule automobile 100.
L’unité de traitement 7 peut comporter un module de traitement de données configuré pour sélectionner, parmi les applications de la librairie et en fonction d’une ou plusieurs données représentatives de l’état physiologique et/ou émotionnel de l’utilisateur U et de la donnée représentative d’un état physiologique e/ou émotionnel associée à chaque application, au moins une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur U pour améliorer son état physiologique et/ou émotionnel.
L’unité de traitement 7 peut comporter un module d’information configuré pour notifier à l’utilisateur, via une ou plusieurs interfaces 3, au moins une information concernant la ou les applications sélectionnées. L’unité de traitement 7, par exemple le module d’information, peut comporter un ou plusieurs moyens de traitement pour détecter une action de validation de l’utilisateur U via l’interface 3, par exemple par appui sur un écran tactile, ou par sélection via une molette ou un pavé tactile, de l’application notifiée.
Le système interactif 1 peut accueillir des applications disponibles sur le serveur 11. À cet effet, l’unité de traitement 7 peut comporter un module de téléchargement pour télécharger l’application validée par l’utilisateur U, depuis le serveur 11. Le système interactif 1 comporte un système d’exploitation permettant d’exécuter l’application, téléchargée sur demande depuis le serveur 11.
L’unité de traitement 7 comporte au moins un moyen de traitement pour détecter une commande d’exécution de l’application par l’utilisateur U via l’interface 3.
Selon une option avantageuse, l’unité de traitement 7 peut comporter un module d’analyse prévu pour analyser l’état physiologique ou émotionnel de l’utilisateur U lorsqu’il réalise l’exercice de remédiation, et en déduire comment adapter cet exercice spécifiquement pour l’utilisateur, afin qu’il puisse tendre vers un état optimal.
À cet effet, le module d’analyse est configuré pour comparer des données représentatives de l’état physiologique de l’utilisateur obtenues à partir de paramètres liés à l’utilisateur relevés par le dispositif de mesure 5 avant et pendant l’exécution d’une application. Le module d’analyse, peut en fonction des résultats de comparaison, déterminer si un ajustement de l’exercice de remédiation est nécessaire, et ajuster au moins un paramètre de l’exercice de remédiation.
Le paramètre à ajuster peut être choisi parmi le type d’au moins une séquence, la durée d’au moins une séquence, l’intensité d’au moins une séquence, la vitesse d’au moins une séquence ou l’exécution ou non d’au moins une séquence.
L’unité de traitement 7 peut comporter en outre un module d’étude de performance configuré pour recevoir des données de performance obtenues par le dispositif de mesure 5 durant une séance de l’exercice de remédiation, et pour évaluer la performance de l’utilisateur U et/ou sa progression par rapport à au moins une performance antérieure.
L’unité de traitement 7 peut comporter un support mémoire sur lequel une ou plusieurs données sont destinées à être enregistrées, telles que des paramètres liés à l’utilisateur U, des données représentatives de l’état physiologique ou émotionnel de l’utilisateur U, des données de performance. En variante ou en complément, une ou plusieurs données peuvent être destinées à être déchargées sur un support de stockage de données, externe au véhicule automobile 100, et destinées à être analysées par un moyen de traitement externe au véhicule automobile 100 et/ou être consultées par une équipe médicale ou de santé.
En outre, le système interactif 1 peut comporter un module de télécommunication par téléphonie et/ou messagerie et/ou vidéo, de façon à permettre à l’utilisateur U d’interagir avec une équipe de spécialistes du domaine de l’application téléchargée lorsque l’application est exécutée, par exemple pendant une séquence de réalisation de l’exercice de remédiation. Le module de télécommunication peut être embarqué dans le véhicule automobile 100 ou en alternative être intégré au terminal mobile 9.
De façon avantageuse, l’interaction avec l’utilisateur U peut également se faire par stimuli multi sensoriel, notamment par l’intermédiaire d’équipements, d’éléments physiques dans le véhicule automobile 100, par exemple par massage et/ou une vibration et/ou par ajustement d’au moins un paramètre aéraulique d’un flux d’air destiné à traverser l’habitacle, comme la température et le débit, de la température d’un équipement ou élément physique dans le véhicule comme le volant ou un siège, de l’odeur environnante, de l’éclairage dans l’habitacle, ou de l’environnement sonore.
À cet effet, le système interactif 1 peut comporter au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’utilisateur U, de façon à modifier l’état physiologique ou émotionnel de l’utilisateur U.
Les stimuli multi sensoriels sont par exemple basés sur les cinq sens : vue, odorat, toucher, ouïe, goût. Les stimuli multi sensoriels utilisés peuvent, par exemple, être, pour la vue: l’utilisation de l’éclairage intérieur avec des lumières de différentes couleurs et/ou de différentes intensités; pour l’odorat : l’utilisation d’un nébuliseur ou d’un diffuseur pour la diffusion de parfum, d’huiles essentielles ou encore de phéromones; pour le toucher : l’utilisation de panneaux radiants, nébulisation d’eau, utilisation de jets d’air chauds et/ou froids; pour l’ouïe : la sélection de sons, ou de musiques ou de bruits d’ambiance ; pour le goût : la diffusion de parfum ou nébulisation pouvant créer des phéromones combinant les cinq saveurs principales, à savoir salé, acide, amer, sucré, umami. D’autres types de stimuli peuvent être envisagés.
Au moins un capteur du dispositif de mesure 5 peut être configuré pour relever un paramètre lié à l’utilisateur, par exemple avant et pendant l’application d’un stimulus.
Le module d’interprétation de l’unité de traitement 7 peut être configuré pour définir, à partir des paramètres relevés, les données représentatives de l’état physiologique de l’utilisateur avant activation du stimulus et lorsque le stimulus interagit avec l’utilisateur.
PROCÉDÉ D’INTERACTION
En référence aux figures1 et 2, le procédé d’interaction avec un utilisateur est décrit ci-après. La description qui suit se réfère à un utilisateur. Bien entendu, le procédé d’interaction peut être appliqué, simultanément ou non, à plusieurs occupants du véhicule automobile.
Le procédé d’interaction peut être mis en œuvre au moins en partie par le système interactif tel que décrit précédemment.
Sélection d’une application de remédiation
Selon un premier aspect, le procédé d’interaction permet de choisir et de proposer une application d’un exercice de remédiation à réaliser par l’utilisateur U en fonction de son état physiologique ou émotionnel.
À cet effet, le procédé d’interaction comporte une phase de mesure M pendant laquelle un ou plusieurs paramètres liés à l’utilisateur U, en particulier des paramètres physiologiques de l’utilisateur U, sont acquis. Cette phase de mesure M peut être effectuée par au moins un capteur du dispositif de mesure 5 du système interactif 1 précédemment décrit. Les mesures peuvent être effectuées simultanément ou les unes après les autres pour différents utilisateurs dans le véhicule automobile.
La mesure d’au moins un paramètre lié à l’utilisateur U, peut se faire à tout moment, notamment avant, pendant, après l’exécution de l’application d’un exercice de remédiation. Éventuellement, la mesure peut se faire également avant, pendant, après l’application d’un stimulus.
Des paramètres décrivant l’environnement dans lequel se trouve l’utilisateur U peuvent également être relevés, récoltés de manière à en déduire leur effet éventuel sur l’état physiologique ou émotionnel de l’utilisateur U.
La phase de mesure M d’au moins un paramètre lié à l’utilisateur U peut être mise en œuvre antérieurement à l’exécution de l’application et en outre lorsque l’application est exécutée.
Les données obtenues lors de la phase mesure M peuvent être transmises vers le support mémoire interne au véhicule automobile 100 ou un support de stockage externe au véhicule automobile.
Le procédé d’interaction peut comporter une phase de réception et d’interprétation I du ou des paramètres obtenus lors de la phase de mesure M. Cette phase de réception et d’interprétation I peut être effectuée par l’unité de traitement 7 du système interactif 1, notamment le module d’interprétation de cette unité de traitement 7.
Durant la phase de réception et d’interprétation I, une donnée représentative de l’état physiologique de l’utilisateur U est définie à partir du ou des paramètres reçus, au moyen du modèle d’évaluation de l’état physiologique de l’utilisateur U. Les paramètres physiologiques sont modélisés de manière à obtenir une donnée représentative de l’état physiologique de l’utilisateur, en particulier de son état émotionnel. La donnée représentative peut être représentée dans un espace de caractérisation de l’état émotionnel, tel qu’un espace tridimensionnel, en utilisant le modèle d’évaluation des émotions.
La figure 3 illustre un exemple de placement de la donnée représentative décrite précédemment et obtenue grâce à l’unité de traitement 7, dans l’espace de caractérisation, tel que l’espace tridimensionnel A, V, D. Cette donnée varie au cours du temps passé par l’utilisateur U dans le véhicule automobile 100. Ainsi, une première donnée représentative est fournie à un temps t0et la donnée représentative fournie à un temps t correspond au présent. Des mesures en continu sont de préférence effectuées, de manière à obtenir la courbe représentée sur la figure 3. Toutefois, des mesures discrètes peuvent également être réalisées.
Une fois l’évaluation de la donnée représentative effectuée, une étape d’analyse ou de traitement peut être réalisée, de façon à déterminer l’état physiologique ou émotionnel de l’utilisateur U, par exemple en fonction du placement de la donnée représentative sur l’espace de caractérisation, tel que l’espace tridimensionnel A, V, D. Cette étape d’analyse permet de cartographier l’état physiologique ou émotionnel de l’utilisateur U et décider ou non si une action est nécessaire pour améliorer l’état de l’utilisateur U.
En se référant de nouveau à la figure 1, si une action est nécessaire, le procédé d’interaction peut comporter une phase de sélection d’au moins une application de la librairie stockée sur le serveur 11. Il s’agit notamment d’applications de gestion d’exercices de remédiation à réaliser par l’utilisateur U pour améliorer son état physiologique ou émotionnel, en fonction de la donnée représentative définie de l’état physiologique ou émotionnel de l’utilisateur U. Le choix de l’application dépend de la remédiation désirée.
Pour ce faire, le procédé d’interaction peut comporter une étape d’interrogation du serveur 11 pour identifier des applications de la librairie adéquates pour remédier à l’état physiologique ou émotionnel de l’utilisateur U. Ceci peut être mis en œuvre par l’unité de traitement 7, notamment le module de communication de données de l’unité de traitement 7 avec le serveur 11.
Le processus de sélection de l’application se fait en fonction de l’état physiologique / émotionnel de l’utilisateur U mesuré par le dispositif de mesure 5 dans le véhicule automobile 100.
Par exemple, si l’état physiologique de l’utilisateur U correspond à un état stressé ou d’énervement, et/ou si son état émotionnel correspond à un état de rage ou de colère, une application de relaxation peut être sélectionnée. Ou encore, si l’état physiologique de l’utilisateur U correspond à un état d’énervement et/ou si son état émotionnel correspond à un état de peur, une application de méditation peut être sélectionnée. Au contraire, si l’utilisateur démontre un état physiologique calme et/ou un état émotionnel neutre, une application d’exercices à choix multiples par exemple peut être sélectionnée. Selon un autre exemple, si l’utilisateur est dans un état physiologique calme et/ou dans un état émotionnel de l’ordre du dégoût, une application d’apprentissage peut lui être proposée, par exemple en cas d’une anomalie de vision, une application d’orthoptie peut être sélectionnée pour un exercice de mouvements des yeux, ou autre. Ou encore, si l’utilisateur est dans un état physiologique calme et/ou dans un état émotionnel correspondant à de la joie, une application d’un exercice de rééducation peut être sélectionnée. Selon un autre exemple, si l’état physiologique correspond à un état endormi et/ou si l’état émotionnel correspond à de la tristesse, une application d’un exercice de stimulation peut être sélectionnée. Si l’état physiologique de l’utilisateur U démontre une fatigue et/ou si l’état émotionnel correspond à un état de surprise, une application d’un exercice de concentration peut être sélectionnée. Selon encore un autre exemple, si un état d'inattention est détecté une application d’exercices d’attention peut être sélectionnée.
Cette sélection peut être effectuée par un module de traitement de données de l’unité de traitement 7 du système interactif 1.
À cet effet, la cartographie de l’état physiologique ou émotionnel de l’utilisateur U peut être corrélée à une ou plusieurs cartographies correspondant à différentes applications stockées sur le serveur 11. Parmi les différentes applications d’exercices de remédiation disponibles dans la libraire, celles permettant de ramener l’état de l’utilisateur U vers une position neutre peuvent être sélectionnées. Par exemple, dans le cas d’un espace de caractérisation de l’état émotionnel de l’utilisateur, tel qu’un espace tridimensionnel A, V, D ou en variante bidimensionnel A,V, la ou les applications pour lesquelles une donnée représentative est située symétriquement à la donnée représentative de l’état émotionnel de l’utilisateur par rapport à la position neutre dans l’espace de caractérisation, qui peut être tridimensionnel A, V, D, peuvent être sélectionnées, comme schématisé sur la figure 4. Dans cet exemple purement à titre d’explication, la donnée représentative de l’état émotionnel de l’utilisateur à un instant donné est par exemple située en position P1 dans l’espace de caractérisation, qui peut être tridimensionnel A, V, D. Une application pour laquelle une donnée représentative est située dans une position P2 symétrique à la position P1 par rapport à la position neutre à l’intersection des axes A, V, D (ou A, V dans le cas d’un espace bidimensionnel), tendra à ramener l’état émotionnel de l’utilisateur vers cette position neutre et sera donc sélectionnée. La cartographie des applications peut être soit sur le serveur 11 soit être téléchargée via le système interactif 1, par exemple sur un espace de stockage prévu à cet effet de l’unité de traitement 7.
En se référant de nouveau aux figures 1 et 2, après cette sélection d’une ou plusieurs applications, le procédé d’interaction comporte une phase de notification à l’utilisateur. Cette phase de notification permet d’informer l’utilisateur, via l’interface 3 ou l’une des interfaces du système interactif 1, quant à l’application ou aux applications sélectionnées de manière automatique. Au moins une information concernant une application sélectionnée peut être notifiée à l’utilisateur U, par exemple par affichage. Cette notification peut être opérée par l’unité de traitement 7 du système interactif 1, par exemple le module d’information de l’unité de traitement 7.
La notification peut également permettre d’informer l’utilisateur U sur son état physiologique ou émotionnel.
L’utilisateur U peut alors valider l’application qui lui est notifiée ou l’une des applications si une liste, éventuellement classée, lui est notifiée. Cette validation peut se faire par interaction avec l’interface 3, par exemple par appui sur un écran tactile embarqué ou non dans le véhicule automobile 100.
Le procédé d’interaction peut comporter une étape de détection d’une action de validation de l’utilisateur. Cette détection peut être opérée par l’unité de traitement 7, par exemple un module d’information de l’unité de traitement 7.
Il s’en suit une phase de téléchargement depuis le serveur 11 de l’application validée par l’utilisateur U, par exemple par un module de téléchargement de l’unité de traitement 7. L’application validée est téléchargée sur un espace de stockage prévu à cet effet de l’unité de traitement 7.
Le procédé d’interaction comporte également une phase de remédiation R (figure 2).
Cette phase de remédiation R comprend l’exécution de l’application téléchargée. L’utilisateur peut alors réaliser au moins une séance de l’exercice de remédiation.
En se référant aux figures 2 et 5, de façon avantageuse, l’application se déroule selon un nombre prédéfini de séquences parmi une séquence S1 de choix dans un menu de l’application, une séquence S2 de relaxation ou de préparation, une séquence S3 de réalisation de l’exercice de remédiation par l’utilisateur, une séquence S4 d’explication de l’exercice de remédiation, une séquence S5 de retour d’expérience de l’utilisateur sur l’exercice de remédiation réalisé. De préférence, les applications d’exercice de remédiation de la librairie sont séquencées de façon similaire. Ces différentes séquences S1 à S5 permettent d’accompagner l’utilisateur pendant l’exécution de l’application.
La séquence S2 de relaxation ou de préparation est antérieure à la séquence S3 de réalisation de l’exercice de remédiation par l’utilisateur. En effet, en relaxant l’utilisateur avant de réaliser l’exercice, il peut réaliser l’exercice de façon performante. Une telle séquence S2 de relaxation ou de préparation peut être de durée relative car elle dépend de l’état physiologique ou émotionnel de l’utilisateur. En effet, il ne sert à rien de faire perdurer cette séquence S2 de relaxation ou de préparation si l’utilisateur est déjà dans un état relaxé par exemple.
La séquence S4 d’explication de l’exercice de remédiation peut être exécutée après la séquence S3 de réalisation de l’exercice. Cette séquence S4 permet d’expliquer à l’utilisateur l’utilité, l’objectif de l’exercice, son importance et/ou son effet thérapeutique. Durant cette séquence S4 d’explication, l’utilisateur peut recevoir au moins une information concernant sa performance, et/ou sa progression. L’utilisateur peut aussi recevoir au moins une information concernant son état physiologique ou émotionnel durant l’exercice.
Selon une option avantageuse, lorsque l’application est exécutée, l’utilisateur peut interagir avec au moins un spécialiste ou une équipe de spécialistes du domaine concerné, selon l’application téléchargée. Cette interaction de l’utilisateur avec l’équipe peut se faire via le module de télécommunication par téléphonie et/ou messagerie et/ou vidéo. L’utilisateur peut par exemple poser des questions, verbalement ou par écrit, pendant une séquence S3 de réalisation de l’exercice de remédiation, ou durant une séquence S4 d’explication, et d’avoir une réponse de cette équipe de spécialistes, ou encore durant une séquence S5 de retour d’expérience. Comme l’utilisateur, l’équipe connectée peut répondre par écrit ou verbalement.
Les informations renseignées par l’utilisateur durant la dernière séquence S5 de retour d’expérience, peuvent être mémorisées sur le support de mémoire interne au véhicule et/ou sur un support de stockage externe au véhicule. Ces informations de retour d’expérience peuvent être analysées par au moins un moyen de traitement du système interactif 1 pour améliorer l’exercice de remédiation.
Au moins certaines de ces séquences sont essentielles, notamment la séquence S3 de réalisation de l’exercice de remédiation par l’utilisateur, et la séquence S1 de choix dans un menu de l’application.
D’autres séquences S2, S4, S5 peuvent être en option. Notamment, une ou plusieurs des séquences S2 de relaxation, S4 d’explication, S5 de retour d’expérience, peuvent être omises sur demande de l’utilisateur via l’interface 3. En variante, certaines séquences S2, S4, S5 peuvent ne pas être proposées à l’utilisateur de façon automatique par le système interactif 1.
De plus, les séquences S1 à S5 peuvent être adaptées spécifiquement pour l’utilisateur. L’adaptation des séquences peut se faire en fonction de l’état physiologique ou émotionnel de l’utilisateur durant ces séquences S1 – S5, comme détaillé par la suite.
La phase de mesure M précédemment décrite peut se faire durant au moins l’une des séquences S1 à S5 lorsque l’application est exécutée.
Afin de permettre une analyse personnalisée sur la performance de l’utilisateur lorsqu’il réalise l’exercice de remédiation, le procédé d’interaction peut comporter une phase d’étude de performance. Cette phase d’étude de performance est en particulier mise en œuvre durant une séquence S3 de réalisation de l’exercice de remédiation par l’utilisateur.
La phase d’étude de performance comporte une étape pour relever des données de performance de l’utilisateur durant une séance de l’exercice de remédiation, lorsque l’application est exécutée.
Il s’en suit une étape pour déterminer, à partir des données de performance relevées, si l’utilisateur a réalisé l’exercice de remédiation conformément aux instructions de l’application. Les données de performance peuvent être comparées à des données statistiques ou optimales qui peuvent par exemple être accessibles depuis le serveur 11 ou être téléchargées via le système interactif 1. De telles données statistiques ou optimales sont généralement disponibles lorsqu’il y a un suivi par un praticien.
L’étude de performance peut être réalisée par l’unité de traitement, et en particulier par le module d’étude de performance de l’unité de traitement.
En variante ou en complément, le procédé d’interaction peut comporter une étape pour définir la progression de l’utilisateur par rapport à au moins une performance antérieure. Pour ce faire, le procédé peut comporter une ou plusieurs étapes de comparaisons des données relevées durant différentes performances pour réaliser des statistiques de progression. En particulier, il est possible d’identifier un ou plusieurs aspects de l’exercice de remédiation pour lesquels la performance de l’utilisateur montre une amélioration, tels qu’une meilleure concentration lors de l’exercice de méditation, ou un mouvement d’une partie du corps plus précis, ou autre.
Une phase de notification peut permettre d’informer l’utilisateur de cette progression.
Adaptation de l’exercice
Selon un deuxième aspect, le procédé d’interaction permet d’adapter un exercice de remédiation choisi par l’utilisateur U et/ou proposé de façon automatique par le système interactif 1 de la figure 1, en fonction de l’état physiologique ou émotionnel de l’utilisateur U. Ce deuxième aspect vient en variante ou en complément du premier aspect du procédé d’interaction précédemment décrit.
Selon ce deuxième aspect, outre les phases de mesure M, de réception et d’interprétation I, et de remédiation R précédemment décrites en référence aux figures 1 à 5, le procédé d’interaction comporte une phase d’analyse A. Cette phase d’analyse A peut être mise en œuvre par l’unité de traitement 7 du système interactif 1, notamment par le module d’analyse de l’unité de traitement 7.
La phase d’analyse A permet de potentiellement ajuster l’exercice de remédiation en fonction de l’état physiologique ou émotionnel de l’utilisateur U lorsqu’il réalise cet exercice.
À cet effet, la phase d’analyse A peut comporter une étape pour comparer des données représentatives de l’état physiologique de l’utilisateur définies à partir de paramètres obtenus par le dispositif de mesure 5 avant et pendant l’exécution de l’application. La phase d’analyse A comporte une étape pour déterminer en fonction des résultats de comparaison si un ajustement de l’exercice de remédiation est nécessaire, et pour ajuster potentiellement au moins un paramètre de l’exercice de remédiation.
La phase d’analyse A peut également prendre en compte les données de performance obtenues par le dispositif de mesure 5, pour ajuster potentiellement l’exercice de remédiation en fonction des performances antérieures et/ou en cours de l’utilisateur, ou en fonction de sa progression.
De façon alternative ou en complément, la phase d’analyse A peut aussi prendre en compte des données liées à l’utilisation du véhicule automobile, comme par exemple des données de navigation.
Le paramètre peut être ajusté au cours de l’exercice de remédiation pendant. En variante ou en complément, le paramètre peut être ajusté pour une séance ultérieure de l’exercice de remédiation.
Avant le début d’exercice, par exemple en début de la séquence S2 ou S3, il peut y avoir une analyse de la performance d’une session antérieure et une adaptation en fonction de cette analyse de performance.
L’ajustement de l’exercice de remédiation s’opère en jouant sur la durée, l’intensité, le type de contenu, la vitesse d’une séquence S1, S2, S3, S4, S5 en fonction de l’état physiologique de l’utilisateur durant les séquences S1, S2, S3, S4, S5. Par exemple, une ou plusieurs séquences peuvent être de durée raccourcie, ou être accélérées ou ralenties par exemple. Un changement de type de séquence peut être par exemple de changer la musique si l’exercice est accompagné d’une musique et que la musique précédente a pour effet par exemple de crisper l’utilisateur.
Également, selon l’état physiologique et/ou émotionnel de l’utilisateur, au moins l’une des séquences lorsqu’elle n’est pas essentielle, pourra ne pas être exécutée, déployée. Le choix des séquences à exécuter est donc ajusté. Par exemple, si le système interactif 1, en particulier l’unité de traitement 7, détermine que l’utilisateur U est fatigué, une ou plusieurs des séquences optionnelles, comme la séquence S2 de relaxation, S4 d’explication, ou S5 de retour d’expérience, peuvent ne pas être exécutées.
Notamment, si la valence est trop négative, la durée d’une ou plusieurs séquences peut être réduite. Au contraire, si la valence est plus positive la durée d’une ou plusieurs séquences peut être augmentée. De façon similaire, si l'arousal est très positif, la durée d’une ou plusieurs séquences peut être augmentée voire l’intensité ou la difficulté d’une ou plusieurs séquences peut être augmentée. Dans le cas contraire, si l’arousal est très négatif, la durée d’une ou plusieurs séquences et/ou l’intensité peut être diminuée significativement.
Par exemple, si l’état physiologique de l’utilisateur est dans une zone correspondant à un état endormi et/ou si son état émotionnel traduit un état de rage ou de colère, la durée d’une ou plusieurs séquences peut être diminuée et le rythme de ces séquences peut être adapté. Pour un état physiologique stressé et/ou un état émotionnel neutre, la durée peut être stable et le rythme adapté. Si l’état physiologique de l’utilisateur correspond à un énervement et/ou si son état émotionnel correspond à de la peur, le rythme des séquences peut être réduit et la séquence d’explications peut être plus longue. Selon un autre exemple, si l’état physiologique de l’utilisateur est dans une zone correspondant à un état de fatigue et/ou si son état émotionnel est dans une zone correspondant à un état de dégoût, la durée d’une ou plusieurs séquences peut être diminuée. Au contraire, si son état physiologique correspond à un état calme et/ou si son état émotionnel traduit de la joie ou de la tristesse, la durée d’une ou plusieurs séquences peut être rallongée. Selon encore un autre exemple, si son état physiologique correspond à un état calme et/ou si son état émotionnel correspond à un état de surprise, la durée d’une ou plusieurs séquences peut être rallongée et le rythme de ces séquences peut être adapté.
Pour faciliter la compréhension de l’ajustement des séquences S1 – S5, quatre exemples, choisis de façon arbitraire, sont représentés sur la figure 5. Chaque exemple correspond à un ajustement de l’exercice de remédiation pour un utilisateur respectif U1, U2, U3, U4.
Ainsi, pour le premier exemple, concernant l’utilisateur U1, on constate que la durée est plus courte par exemple que pour l’utilisateur U2 du deuxième exemple. La durée totale de l’ensemble des séquences S1 à S5 peut être raccourcie par le système interactif 1, plus précisément par l’unité de traitement, par exemple après avoir déterminé en fonction des paramètres obtenus par le dispositif de mesure que l’utilisateur U1 est fatigué. Cette durée raccourcie peut aussi être une conséquence d’une très bonne performance antérieure de l’utilisateur U1, ou encore parce que le système interactif 1 a détecté que l’utilisateur U1 est sur un trajet de courte durée, par exemple à partir de données de navigation collectées de façon connue.
Dans le deuxième exemple, concernant l’utilisateur U2, la séquence S3 de réalisation de l’exercice de remédiation peut être de durée plus longue par rapport aux autres séquences S1, S2, S4, S5. La durée de la séquence S3 de réalisation de l’exercice de remédiation, peut être rallongée par l’unité de traitement, par exemple après avoir déterminé en fonction des paramètres obtenus par le dispositif de mesure que l’utilisateur U2 a un besoin de remédiation de façon plus approfondie, par exemple pour un exercice thérapeutique, ou encore si l’unité de traitement détermine que l’utilisateur U2 est dans un état de grande concentration ou d’éveil.
Dans le troisième exemple, concernant l’utilisateur U3, la séquence S4 d’explication est omise. Cette omission peut se faire par exemple si l’unité de traitement détermine en fonction des paramètres obtenus par le dispositif de mesure que l’utilisateur U3 est fatigué, et/ou qu’il a déjà fait cet exercice et en connaît l’explication.
Dans le quatrième exemple, concernant l’utilisateur U4, les séquences S2 de relaxation et S5 de retour d’expérience. L’omission de la séquences S2 de relaxation peut se faire par exemple si l’unité de traitement détermine en fonction des paramètres obtenus par le dispositif de mesure que l’utilisateur U4 est déjà dans un état détendu, relaxé suffisant pour réaliser l’exercice de remédiation et n’a pas besoin de plus de relaxation. L’omission de la séquence S5 de retour d’expérience peut se faire par exemple si l’unité de traitement détermine en fonction des paramètres obtenus par le dispositif de mesure lors d’une précédente séance, que l’état émotionnel de l’utilisateur U4 est plus négatif lors de cette séquence S5, par exemple si la valence devient négative, ou qu’il ne présente pas d’intérêt lors de cette séquence S5.
Également, en fonction de l’état physiologique ou émotionnel de l’utilisateur, le système interactif peut déterminer que l’exercice choisi par l’utilisateur n’est pas pertinent, par exemple parce l’utilisateur n’est pas suffisamment en forme pour l’exécuter, et proposer de façon automatique d’arrêter l’exercice ou d’effectuer un autre exercice plus adapté à l’état physiologique ou émotionnel de l’utilisateur. Le système interactif propose alors un exercice alternatif plus approprié ou peut également proposer de remettre la remédiation à plus tard.
Le système interactif peut encore vérifier à l’aide des paramètres obtenus par le dispositif de mesure, si l’utilisateur atteint le niveau de relaxation attendu lors de l’exécution de la séquence S2 de relaxation. Si ce niveau de relaxation n’est pas atteint, le système interactif peut proposer de façon automatique de ne pas exécuter l’exercice (séquence S3). En effet, dans un tel cas, l’exercice risque de ne pas avoir de pertinence pour obtenir l’effet de remédiation recherché.
De plus, le procédé d’interaction permet avantageusement d’identifier si les ajustements effectués sur les séquences sont bénéfiques ou non pour l’utilisateur.
À cet effet, la phase de mesure M peut être mise en œuvre avant et après ajustement du ou des paramètres de l’exercice de remédiation par au moins un capteur du dispositif de mesure 5 (voir figures 1 et 2). Durant la phase de réception et d’interprétation I, une donnée représentative de l’état physiologique ou émotionnel de l’utilisateur U est définie pour les périodes antérieure et postérieure à l’ajustement du ou des paramètres de l’exercice de remédiation.
Durant la phase d’analyse A, les données représentatives de l’état physiologique ou émotionnel de l’utilisateur U avant et après ajustement du paramètre de l’exercice de remédiation peuvent être comparées. En fonction des résultats de comparaison, le module d’analyse peut déterminer si l’ajustement du ou des paramètres a eu un effet bénéfique ou au contraire négatif sur l’état physiologique ou émotionnel, par exemple en positionnant les données représentatives dans l’espace tridimensionnel A, V, D, comme décrit précédemment. Ainsi, le procédé d’interaction ne vise pas une remédiation ponctuelle, mais cherche à tendre à tout moment vers un état physiologique, émotionnel optimal de l’utilisateur U pour que l’exercice de remédiation se déroule correctement. Cet état optimal peut varier dans le temps.
Adaptation de l’environnement multi sensoriel
Selon encore un autre aspect du procédé d’interaction, l’environnement multi sensoriel de l’utilisateur U peut être adapté en fonction de son état physiologique ou émotionnel. Cette action sur l’environnement multi sensoriel peut venir en complément de l’exercice de remédiation. Cela permet d’offrir à l’utilisateur U une meilleure perception de l’exercice de remédiation.
À cet effet, la cartographie de l’état physiologique ou émotionnel de l’utilisateur U peut être corrélée à une ou plusieurs cartographies correspondant à différents stimuli, basés sur un ou plusieurs des cinq sens. À titre d’exemple illustratif, un exemple de cartographie correspondant au sens de la vue est schématisé sur la figure 6.
La cartographie des sens peut s’effectuer en plusieurs étapes E1, E2, E3, comme illustré sur la figure 7. Pour plus de clarté, la cartographie d’un seul sens, tel que la vue, est représentée sur la figure 7. La cartographie initiale, à l’étape E1, correspond à un état émotionnel primaire de l’utilisateur, c’est-à-dire un état émotionnel ou l’utilisateur réagit de manière primaire. La cartographie est ensuite modifiée en prenant en compte l’impact de la culture et/ou de l’éducation de l’utilisateur, c’est l’étape E2. On remarque dans l’exemple arbitraire de la figure 7, que les couleurs rouge R et bleue B sont plus proches de la neutralité suivant l’axe A de l’arousal, par rapport à la cartographie initiale (E1). La dernière étape E3 dans la construction de la cartographie, concerne l’impact de la vie personnelle et/ou de l’expérience de l’utilisateur. On remarque dans l’exemple arbitraire de la figure 7, que la couleur bleue B se rapproche du côté positif suivant l’axe de la valence V et de la dominance D.
Le procédé d’interaction, et en particulier la phase de remédiation R, peut comporter une étape d’action lors de laquelle au moins un stimulus multi sensoriel est appliqué de manière à modifier l’état physiologique ou émotionnel de l’utilisateur U (figures 1 et 2). Le choix du stimulus ou des stimuli dépend de l’effet désiré. Après avoir placé la donnée représentative de l’état émotionnel de l’utilisateur U sur la cartographie, différents types d’actions peuvent être sélectionnés.
Par exemple, un stimulus localisé symétriquement par rapport à la position neutre dans l’espace de caractérisation de l’état émotionnelde l’utilisateur U, tel que l’espace tridimensionnel A, V, D peut être appliqué. De cette manière, l’état émotionnel de l’utilisateur peut tendre vers la position neutre.
On peut aussi envisager d’appliquer un stimulus positionné dans la direction opposée à la position neutre dans l’espace de caractérisation de l’état émotionnelde l’utilisateur U, tel que l’espace tridimensionnel A, V, D (par rapport à la position initiale) ; de façon à amplifier une émotion par exemple.
On peut encore prévoir d’appliquer un stimulus permettant de passer de la position initiale (statut initial de l’état émotionnel) à une position spécifique donnée (statut désiré de l’état émotionnel), le ou les stimuli étant choisis en fonction de la position spécifique donnée.
Plus précisément, l’étape d’action pour l’application d’un stimulus, est une étape de commande d’au moins un actionneur dans le véhicule automobile de manière à activer le stimulus multi sensoriel. Ce stimulus peut être appliqué durant au moins une séquence de l’exercice de remédiation.
Le procédé peut comporter une étape d’information lors de laquelle l’utilisateur est informé du stimulus ou des stimuli appliqués.
Dans une perspective d’être toujours mieux adapté à l’utilisateur U, la phase de mesure M d’au moins un paramètre lié à l’utilisateur peut être mise en œuvre avant l’étape d’action et lorsque le stimulus interagit avec l’utilisateur U par au moins un capteur du dispositif de mesure 5. À partir de ces paramètres, des données représentatives de l’état physiologique de l’utilisateur avant et pendant l’étape d’action, peuvent être définies lors de la phase d’interprétation I, par exemple par le module d’interprétation de l’unité de traitement 7.
Durant la phase d’analyse A, les données représentatives de l’état physiologique ou émotionnel de l’utilisateur U avant et après application du stimulus peuvent être comparées. En fonction des résultats de comparaison, le module d’analyse peut déterminer si l’application du stimulus a eu un effet bénéfique ou au contraire négatif sur l’état physiologique ou émotionnel, par exemple en positionnant les données représentatives dans l’espace tridimensionnel A, V, D, comme décrit précédemment.
Une ou plusieurs phases du procédé d’interaction selon l’un ou l’autre des aspects précédemment décrits, notamment parmi les phases de mesure M, d’interprétation I, de remédiation R, et d’analyse A, peuvent être mises en œuvre de façon continue. De plus, ces phases M, I, R, A mises en œuvre de façon continue sont également mises en œuvre en parallèle de l’exécution d’une ou plusieurs des séquences S1 à S5 telles que décrites précédemment.
On comprend donc que le procédé d’interaction mis en œuvre au moins partiellement par le système interactif 1 tel que décrit précédemment peut permettre de proposer de façon automatique une ou plusieurs applications d’une librairie stockée sur un serveur 11 distant. Ces applications concernent des exercices de remédiation qui correspondent à l’état physiologique ou émotionnel de l’utilisateur U, défini à partir de mesures effectuées dans le véhicule automobile 100 et par une interprétation de ces mesures en utilisant un modèle d’évaluation de l’état physiologique ou émotionnel de l’utilisateur U.
Le système interactif 1 permet également de gérer, superviser des exercices de remédiation exécutés selon différentes séquences S1 à S5, et d’adapter les séquences S1-S5 en fonction de l’état physiologique ou émotionnel de l’utilisateur U au cours des exercices de remédiation. L’exercice de remédiation est ainsi spécifiquement adapté pour l’utilisateur U, ce qui permet de tendre vers un état physiologique (ou émotionnel) optimal lorsque l’utilisateur réalise l’exercice de remédiation.
Enfin, l’environnement multi sensoriel de l’utilisateur U peut être amélioré par application d’un ou plusieurs stimuli afin de favoriser une meilleure perception des exercices de remédiation par l’utilisateur U.

Claims (10)

  1. Système interactif (1) avec au moins un utilisateur (U) occupant un véhicule automobile (100) comportant:
    • au moins une interface (3) configurée pour interagir avec l’utilisateur (U), et
    • un système d’exploitation configuré pour exécuter une application sélectionnée par l’utilisateur (U) via l’interface (3),
      caractérisé en ce quele système interactif (1) comporte:
    • un dispositif de mesure (5) comprenant au moins un capteur configuré pour acquérir au moins un paramètre physiologique de l’utilisateur (U), et
    • une unité de traitement (7) embarquée configurée pour être connectée à l’interface (3) et au dispositif de mesure (5), telle que l’unité de traitement (7) comprend:
      • un module d’interprétation configuré pour recevoir le paramètre physiologique et pour définir, à partir du paramètre physiologique, une donnée représentative de l’état physiologique de l’utilisateur (U) au moyen d’un modèle d’évaluation de l’état physiologique de l’utilisateur (U), et
      • un module d’analyse configuré pour comparer des données représentatives de l’état physiologique de l’utilisateur (U) avant et pendant l’exécution d’une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur (U) pour améliorer son état physiologique, et pour ajuster au moins un paramètre de l’exercice de remédiation, en fonction des résultats de comparaison.
  2. Système interactif (1) selon la revendication précédente, dans lequel:
    • au moins un capteur du dispositif de mesure (5) est configuré pour acquérir au moins un paramètre physiologique de l’utilisateur (U) avant et après ajustement du paramètre de l’exercice de remédiation,
    • le module d’interprétation est configuré pour définir, à partir des paramètres physiologiques, une donnée représentative de l’état physiologique de l’utilisateur (U) avant et après ajustement du paramètre de l’exercice de remédiation, et
    • le module d’analyse est configuré pour comparer les données représentatives de l’état physiologique de l’utilisateur (U) avant et après ajustement du paramètre de l’exercice de remédiation.
  3. Système interactif (1) selon l’une des revendications précédentes, dans lequel:
    • au moins un capteur du dispositif de mesure (5) est configuré pour acquérir au moins un paramètre physiologique de l’utilisateur (U) lorsque l’application est exécutée, durant au moins une séquence parmi:
      • une séquence (S1) de choix dans un menu de l’application,
      • une séquence (S2) de relaxation ou de préparation, antérieure à la réalisation de l’exercice de remédiation par l’utilisateur (U),
      • une séquence (S3) de réalisation de l’exercice de remédiation par l’utilisateur (U),
      • une séquence (S4) d’explication de l’exercice de remédiation,
      • une séquence (S5) de retour d’expérience de l’utilisateur (U) sur l’exercice de remédiation réalisé, et
    • le module d’analyse est configuré pour ajuster au moins un paramètre d’au moins une séquence (S1, S2, S3, S4, S5), choisi parmi le type d’au moins une séquence, la durée d’au moins une séquence, l’intensité d’au moins une séquence, la vitesse d’au moins une séquence ou l’exécution d’au moins une séquence.
  4. Système interactif (1) selon l’une quelconque des revendications précédentes, dans lequel:
    • le module d’interprétation de l’unité de traitement (7) est configuré pour définir, à partir d’un nombre prédéfini de paramètres physiologiques de l’utilisateur, une donnée représentative de l’état émotionnel de l’utilisateur (U) au moyen d’un modèle d’évaluation de l’état émotionnel de l’utilisateur (U), la donnée représentative correspondant à un point dans un espace de caractérisation de l’état émotionnel de l’utilisateur (U), et dans lequel
    • l’application sélectionnée est une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur (U) pour améliorer son état émotionnel.
  5. Système interactif (1) selon la revendication 3 prise ensemble avec l’une quelconque des revendicationsprécédentes, comportant au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’utilisateur (U) durant au moins une séquence (S1, S2, S3, S4, S5) de l’exercice de remédiation, ledit stimulus permettant de modifier l’état physiologique de l’utilisateur (U).
  6. Système interactif (1) selon l’une quelconque des revendications précédentes, dans lequel:
    • le dispositif de mesure (5) comporte au moins un capteur configuré pour relever des données de performance de l’utilisateur (U) durant une séance de l’exercice de remédiation, lorsque l’application est exécutée, et
    • l’unité de traitement (7) comporte un module d’étude de performance pour déterminer, à partir des données de performance, si l’utilisateur (U) a réalisé l’exercice de remédiation conformément aux instructions de l’application et/ou pour définir la progression de l’utilisateur (U) par rapport à au moins une performance antérieure.
  7. Système interactif (1) selon l’une quelconque des revendications précédentes, dans lequel ledit au moins un capteur du dispositif de mesure (5) est un capteur sans contact avec l’utilisateur, choisi parmi au moins un radar à ultra large bande, une caméra infrarouge, un capteur dans le domaine du visible, un microphone.
  8. Procédé d’interaction avec au moins un utilisateur (U) occupant un véhicule automobile, configuré pour être mis en œuvre au moins en partie par un système interactif (1) selon l’une quelconque des revendications précédentes, caractérisé en ce que le procédé d’interaction comporte les phases suivantes :
    • une phase de mesure (M) d’au moins un paramètre physiologique de l’utilisateur (U) au moyen d’au moins un capteur du dispositif de mesure (5) du système interactif,
    • une phase de réception et d’interprétation (I) du paramètre physiologique par un module d’interprétation de l’unité de traitement (7) du système interactif (1), pour définir, à partir du paramètre physiologique, une donnée représentative de l’état physiologique de l’utilisateur (U) au moyen d’un modèle d’évaluation de l’état physiologique de l’utilisateur (U),
    • une phase de remédiation (R) comprenant l’exécution d’une application de gestion d’un exercice de remédiation à réaliser par l’utilisateur, et durant laquelle l’utilisateur (U) réalise l’exercice de remédiation de l’application, et
    • une phase d’analyse (A) par un module d’analyse de l’unité de traitement (7) pour comparer des données représentatives de l’état physiologique de l’utilisateur avant et pendant l’exécution de l’application, et pour ajuster en fonction des résultats de comparaison, au moins un paramètre de l’exercice de remédiation.
  9. Procédé d’interaction selon la revendication 8, dans lequel durant la phase de remédiation (R), l’application est exécutée selon un nombre prédéfini de séquences parmi :
    • une séquence (S1) de choix dans un menu de l’application,
    • une séquence (S2) de relaxation ou de préparation, antérieure à la réalisation de l’exercice de remédiation par l’utilisateur (U),
    • une séquence (S3) de réalisation de l’exercice de remédiation par l’utilisateur (U),
    • une séquence (S4) d’explication de l’exercice de remédiation,
    • une séquence (S5) de retour d’expérience de l’utilisateur sur l’exercice de remédiation réalisé.
  10. Procédé d’interaction selon l’une quelconque des revendications 8 à 9, comportant une étape de commande d’un actionneur dans le véhicule automobile (100) de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’utilisateur (U) durant au moins une séquence (S1, S2, S3, S4, S5) de l’exercice de remédiation, ledit stimulus étant agencé pour permettre de modifier l’état physiologique de l’utilisateur (U), et dans lequel un paramètre physiologique de l’utilisateur (U) est relevé avant l’étape de commande et lorsque ledit stimulus interagit avec l’utilisateur (U), pour définir, à partir des paramètres physiologiques relevés, des données représentatives de l’état physiologique de l’utilisateur (U) avant et pendant l’étape de commande.
FR1913857A 2019-12-06 2019-12-06 Système interactif et procédé d’interaction associé Active FR3104283B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1913857A FR3104283B1 (fr) 2019-12-06 2019-12-06 Système interactif et procédé d’interaction associé
PCT/FR2020/052151 WO2021111057A1 (fr) 2019-12-06 2020-11-23 Systeme interactif et procede d'interaction associe
US17/782,820 US20230011113A1 (en) 2019-12-06 2020-11-23 Interactive system and associated interaction method
EP20821053.4A EP4069542A1 (fr) 2019-12-06 2020-11-23 Systeme interactif et procede d'interaction associe
CN202080095798.6A CN115052778A (zh) 2019-12-06 2020-11-23 交互系统及相关交互方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1913857 2019-12-06
FR1913857A FR3104283B1 (fr) 2019-12-06 2019-12-06 Système interactif et procédé d’interaction associé

Publications (2)

Publication Number Publication Date
FR3104283A1 true FR3104283A1 (fr) 2021-06-11
FR3104283B1 FR3104283B1 (fr) 2021-11-12

Family

ID=69630524

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1913857A Active FR3104283B1 (fr) 2019-12-06 2019-12-06 Système interactif et procédé d’interaction associé

Country Status (5)

Country Link
US (1) US20230011113A1 (fr)
EP (1) EP4069542A1 (fr)
CN (1) CN115052778A (fr)
FR (1) FR3104283B1 (fr)
WO (1) WO2021111057A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180173230A1 (en) * 2016-12-20 2018-06-21 GM Global Technology Operations LLC Contextual-assessment vehicle systems
WO2019086856A1 (fr) * 2017-11-03 2019-05-09 Sensumco Limited Systèmes et procédés permettant de combiner et d'analyser des états humains

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180173230A1 (en) * 2016-12-20 2018-06-21 GM Global Technology Operations LLC Contextual-assessment vehicle systems
WO2019086856A1 (fr) * 2017-11-03 2019-05-09 Sensumco Limited Systèmes et procédés permettant de combiner et d'analyser des états humains

Also Published As

Publication number Publication date
EP4069542A1 (fr) 2022-10-12
FR3104283B1 (fr) 2021-11-12
US20230011113A1 (en) 2023-01-12
WO2021111057A1 (fr) 2021-06-10
CN115052778A (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
US10901509B2 (en) Wearable computing apparatus and method
US20220279267A1 (en) Optical Measurement System Integrated into a Hearing Device
CN106943117A (zh) 生物体信息计测装置
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
US11983255B2 (en) Mobility user authentication apparatus and method using brain wave
WO2020104742A1 (fr) Système interactif avec un occupant d'un vehicule automobile
JP2020099670A (ja) 生体計測装置、生体計測方法、コンピュータ読み取り可能な記録媒体、およびプログラム
FR3104283A1 (fr) Système interactif et procédé d’interaction associé
WO2021111094A1 (fr) Système interactif et procédé d'interaction associé
WO2020129426A1 (fr) Dispositif de mesure biologique, méthode de mesure biologique, support de stockage lisible par ordinateur, et programme
WO2022017737A1 (fr) Système interactif et procédé d'interaction associé
FR3112222A1 (fr) Système interactif, notamment pour véhicule automobile
EP3908911A1 (fr) Systeme interactif
WO2017006062A1 (fr) Systeme et procede de caracterisation du sommeil d'un individu
Moseley Immersive brain entrainment in virtual worlds: actualizing meditative states
WO2021007511A1 (fr) Procédé et appareil pour expérience informatique basée sur l'humeur
JP7359092B2 (ja) 車両ユーザ支援システム、及び車両ユーザ支援装置
Wubbels et al. Exploring calibration techniques for functional near-infrared imaging (fNIR) controlled brain-computer interfaces
EP4103244A1 (fr) Système de sélection d'une fragrance
Garcia High Dynamic Range (HDR) Signal Processing, Augmented Reality and Wearable Technology Applications in Audiovisual Perception and Sensing
KR20190048803A (ko) 인간 감정 감응형 스마트 미러 시스템

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210611

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5