FR3088604A1 - Système interactif avec un occupant d’un véhicule automobile - Google Patents

Système interactif avec un occupant d’un véhicule automobile Download PDF

Info

Publication number
FR3088604A1
FR3088604A1 FR1871681A FR1871681A FR3088604A1 FR 3088604 A1 FR3088604 A1 FR 3088604A1 FR 1871681 A FR1871681 A FR 1871681A FR 1871681 A FR1871681 A FR 1871681A FR 3088604 A1 FR3088604 A1 FR 3088604A1
Authority
FR
France
Prior art keywords
occupant
emotional state
interactive system
stimulus
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1871681A
Other languages
English (en)
Other versions
FR3088604B1 (fr
Inventor
Daniel NEVEU
Georges De Pelsemaeker
Mateo Lopez
Antoine BOILEVIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Systemes Thermiques SAS
Original Assignee
Valeo Systemes Thermiques SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Systemes Thermiques SAS filed Critical Valeo Systemes Thermiques SAS
Priority to FR1871681A priority Critical patent/FR3088604B1/fr
Priority to PCT/FR2019/052722 priority patent/WO2020104742A1/fr
Priority to CN201980076677.4A priority patent/CN113164119A/zh
Priority to EP19829282.3A priority patent/EP3883472A1/fr
Priority to US17/295,251 priority patent/US20210394762A1/en
Publication of FR3088604A1 publication Critical patent/FR3088604A1/fr
Application granted granted Critical
Publication of FR3088604B1 publication Critical patent/FR3088604B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0228Microwave sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0016Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the smell sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0022Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the tactile sense, e.g. vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3306Optical measuring means
    • A61M2205/3313Optical measuring means used specific wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3317Electromagnetic, inductive or dielectric measuring means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Educational Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

Système interactif avec un occupant d’un véhicule automobile comportant: un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, la donnée représentative correspondant à un point dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant, au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.

Description

Description
Titre de l'invention : Système interactif avec un occupant d’un véhicule automobile [0001] L’invention concerne un système interactif avec un occupant d’un véhicule automobile. L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile.
[0002] Le passage à la voiture autonome présente de plus en plus de challenges quant à la création d’un véhicule empathique qui permettra de rendre la conduite et/ou le voyage plus agréable. Les progrès restants peuvent être regroupés en trois axes regroupant la sécurité, le confort et le divertissement.
[0003] Des exemples de systèmes existant permettent d’évaluer l’état émotionnel d’un occupant d’un véhicule automobile. Il est en effet connu d’effectuer des mesures permettant de déterminer différents paramètres concernant un occupant, et ainsi en déduire une donnée représentative de son état émotionnel.
[0004] De manière générale, les mesures peuvent être effectuées grâce à des dispositifs portables permettant de récolter des données telle que la conductivité de la peau, la température, ou encore le rythme cardiaque. Le système utilisé comporte si possible une caméra, par exemple de type GoPro®.
[0005] Dans les systèmes connus, les paramètres obtenus sont ensuite utilisés pour déterminer l’état émotionnel de l’occupant. Un modèle connu consiste à obtenir, à partir des différents paramètres, une cartographie de l’état émotionnel du passager. Ainsi, celui-ci peut être représenté par un point dans un espace à deux dimensions formé d’un axe des abscisses correspondant à la valence (qualité intrinsèquement agréable ou désagréable d’un stimulus ou d’une situation) et un axe des ordonnées correspondant à 1’arousal (force du stimulus émotionnel).
[0006] L’invention vise à améliorer les systèmes connus en proposant un système interactif permettant de modéliser l’état émotionnel d’un occupant d’un véhicule, non seulement en le plaçant dans un espace tri dimensionnel, mais également en l’interprétant de manière à intégrer des paramètres supplémentaires dans le modèle utilisé. De plus, l’invention propose également d’agir sur l’occupant en fonction de l’état émotionnel détecté et ainsi avoir un impact sur la sécurité et/ou le confort de ou des occupants du véhicule.
[0007] L’invention a pour objet un système interactif avec un occupant d’un véhicule automobile comportant:
a. un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,
b. une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle,
c. la donnée représentative correspondant à un point dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant,
d. au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
[0008] Selon un aspect de l’invention, les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouges.
[0009] Selon un aspect de l’invention, le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz.
[0010] Selon un aspect de l’invention, la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7qm et 100 μιη, en particulier entre 25μιη et ΙΟΟμιη.
[0011] Selon un aspect de l’invention, l’espace tridimensionnel de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence, d’un deuxième axe correspondant à la dominance et d’un troisième axe correspondant à 1’arousal.
[0012] Selon un aspect de l’invention, la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel.
[0013] Selon un aspect de l’invention, la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.
[0014] Selon un aspect de l’invention, le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant.
[0015] Selon un aspect de l’invention, les données supplémentaires peuvent être déterminées au moyen d’un système de mesures autonome permettant la mesure de la qualité de l’air et/ou de la pollution, et/ou des microparticules et/ou des allergènes et/ou de l’environnement sonore et/ou de l’environnement lumineux et/ou de la température et/ ou du taux d’humidité.
[0016] Selon un aspect de l’invention, le modèle d’évaluation est créé au moyen d’intelligence artificielle.
[0017] Selon un aspect de l’invention, l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air.
[0018] Selon un aspect de l’invention, le stimulus multi sensoriel permet une modification de l’état émotionnel de l’occupant.
[0019] Selon un aspect de l’invention, le stimulus multi sensoriel permet une remédiation de l’état émotionnel de l’occupant.
[0020] Selon un aspect de l’invention, le stimulus multi sensoriel permet une amplification de l’état émotionnel de l’occupant.
[0021] Selon un aspect de l’invention, le système interactif possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.
[0022] Selon un aspect de l’invention, l’au moins un capteur peut être choisi parmi : une caméra, en particulier à infra rouges lointains et/ou à proches infra rouges et/ou dans le visible, un microphone, un dispositif portable, un capteur installé dans le véhicule en particulier un élément conducteur placé dans un siège et/ou dans un volant et/ou dans un accoudoir.
[0023] Selon un aspect de l’invention, le système interactif peut comporter au moins une caméra à infra rouges lointains, plusieurs capteurs de signes vitaux et un microphone.
[0024] Selon un aspect de l’invention, le système interactif comporte au moins un moyen d’affichage, particulièrement une interface utilisateur.
[0025] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0026] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un texte et/ou une couleur et/ou un son et/ou une vibration.
[0027] L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :
a. mesurer un paramètre lié à un occupant du véhicule au moyen d’au moins un capteur,
b. réceptionner le paramètre par une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant,
c. analyser la donnée représentative et la placer dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant,
d. interpréter la donnée représentative en adaptant l’espace tridimensionnel en fonction de données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant,
e. actionner un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant de l’habitacle du véhicule pour interagir avec l’occupant en fonction de ladite donnée.
[0028] Selon un aspect de l’invention, le procédé comporte en outre une étape consistant à informer l’occupant sur son état émotionnel et/ou sur le stimulus appliqué [0029] [0030] [0031] [0032]
L’invention sera mieux comprise et d’autres détails, caractéristiques et avantages de l’invention apparaîtront à la lecture de la description suivante faite à titre d’exemple non limitatif en référence au dessin annexé dans lequel :
[fig.l] : la figure 1 est un diagramme schématique d’au moins une partie du procédé selon l’invention, [fig.2] : la figure 2 est une représentation schématique d’un espace tridimensionnel AVD utilisé dans une des étapes du procédé de la figure 1, [fig.3] : la figure 3 est une représentation schématique de l’étape d’évaluation du procédé de la figure 1, [fig.4] : la figure 4 est une représentation schématique de l’étape d’analyse du procédé de la figure 1, [fig.5] : la figure 5 est une représentation schématique de la cartographie multi sensorielle utilisée dans le procédé de la figure 1, [fig.6] : la figure 6 est une représentation schématique de la construction de la cartographie de la figure 5, [fig.7] : la figure 7 est une représentation schématique de l’étape d’action du procédé de la figure 1.
Le système interactif proposé dans l’invention utilise un procédé possédant cinq étapes. Ces cinq étapes représentées schématiquement sur la figure 1 consistent en :
a. une étape de mesures (M) effectuée par un dispositif de mesure et pendant laquelle un ou plusieurs paramètres concernant le ou les occupants sont récoltés,
b. une étape d’évaluation et d’interprétation (I) lors de laquelle les paramètres obtenus sont modélisés de manière à obtenir une donnée représentative de l’état émotionnel du ou des occupants,
c. une étape d’analyse (A) permettant de cartographier l’état émotionnel de l’occupant et décider ou non si une action est nécessaire,
d. une étape d’action (Ac) lors de laquelle au moins un stimulus multi sensoriel est appliqué de manière à modifier l’état émotionnel du ou des occupants,
e. une étape d’information (Inf) lors de laquelle l’occupant est informé de son état émotionnel et des stimuli appliqués.
Lors de l’étape de mesure (M), le dispositif de mesure va acquérir un ou plusieurs paramètres décrivant le statut et donc l’état émotionnel de l’occupant (ce qui est décrit pour un occupant peut bien sûr être appliqué à plusieurs occupants du véhicule simultanément). Des paramètres décrivant l’environnement dans lequel se trouve l’occupant peuvent également être récoltés de manière à en déduire leur effet éventuel sur l’état émotionnel de l’occupant.
Le dispositif décrit dans les paragraphes précédents est composé d’un ou plusieurs capteurs. Ces capteurs sont préférentiellement des capteurs embarqués dans le véhicule, comme par exemple une ou plusieurs caméras, des capteurs de signes vitaux, un ou plusieurs microphones ou encore des capteurs de contact.
[0033] Dans un mode de réalisation préféré, les mesures sont effectuées par des caméras, en particulier des caméras infrarouges qui prennent des images dans le domaine infrarouge. Ces caméras sont dirigées vers les positions attendues des différents occupants du véhicule : siège conducteur, siège passager, banquette arrière, etc...En particulier, une ou plusieurs caméras très grand angle (par exemple de type « fisheye » ou « œil de poisson » en français) peuvent couvrir plusieurs positions de façon simultanée. Les caméras infrarouges détectent préférentiellement des longueurs d’onde comprises entre 0,7pm et lOOpm, préférentiellement 25pm et lOOpm.
[0034] Ces caméras comportent, avantageusement, des caméras infrarouges proches (« NIR » pour « Near Infra Red »), et/ou des caméras infrarouges lointains (« FIR » pour « Far Infra Red »).
[0035] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes.
[0036] Comme précisé ci-dessus, le dispositif de mesure permet également de déterminer l’environnement du ou des passagers, celui-ci pouvant influer sur son état émotionnel. Ainsi, des données telles que la température, l’intensité lumineuse, le bruit, la vitesse du véhicule, etc.. .vont pouvoir être récoltées.
[0037] D’autres types de paramètres seront également récupérés au moyen d’autres capteurs. [0038] Le dispositif de mesure comporte au moins un microphone permettant d’enregistrer la voix du ou des passagers.
[0039] Le dispositif de mesure peut également comporter des biocapteurs pouvant détecter des paramètres tels que des composés organiques, des ions, des bactéries, etc...
[0040] Le dispositif de mesure peut aussi être composé de capteurs de signes vitaux. Ceux-ci peuvent par exemple se présenter sous la forme de capteurs sans contact comme par exemple un radar, une caméra, ou encore des éléments portables (montre, chemise, bracelet, etc...).
[0041] Des capteurs de signes vitaux en contact avec le passager peuvent également être utilisés. Ils se présentent, par exemple, sous la forme d’éléments conducteurs installés dans des parties du véhicule (accoudoir, volant, siège, etc...). Ces capteurs de signes vitaux mesurent des paramètres tels que le rythme et/ou la fréquence cardiaque, la fréquence et/ou l’amplitude respiratoire, la conductivité de la peau, les ondes cé6 rébrales, etc...
[0042] Un mode de réalisation préféré utilise un radar de courte portée à ultra large bande. La fréquence du radar peut par exemple être comprise entre 10GHz et ITHz, préférentiellement entre 50GHz et 160GHz.
[0043] L’étape suivante d’interprétation et/ou d’évaluation (I) consiste à évaluer et interpréter les paramètres obtenus lors de l’étape de mesure (M). Ainsi ces paramètres vont être traduits en une donnée représentative facilement représentée dans un premier espace tridimensionnel ou espace 3D (AVD) de caractérisation de l’état émotionnel. Cet espace 3D est représenté sur la figure 3. Il est formé d’un premier axe correspondant à la valence (V), d’un deuxième axe correspondant à la dominance (D) et d’un troisième axe correspondant à Γarousal (A).
[0044] La valence caractérise le niveau de plaisir ou de désagrément associé à une émotion alors que Γ arousal peut être défini comme étant l'intensité des affects et de la réponse générée par cette émotion. La dominance, quant à elle, caractérise le niveau de maîtrise et de contrôle de la réponse de l'individu à cette émotion.
[0045] La figure 3 illustre le placement de la donnée représentative décrite précédemment et obtenue grâce à une unité de traitement utilisant un modèle d’évaluation des émotions, dans l’espace tridimensionnel AVD. Cette donnée varie au cours du temps passé par l’occupant dans le véhicule. Ainsi, une première donnée représentative est fournie pour un temps t0 alors que la donnée représentative correspondant au présent est illustrée par tactual· Des mesures en continu sont de préférence effectuées, de manière à obtenir la courbe représentée sur la figure 3. Toutefois, des mesures discrètes peuvent également être réalisées.
[0046] Une fois l’évaluation de la donnée représentative effectuée, une étape d’analyse (A) est performée. Cette analyse (A) permet de déterminer l’état émotionnel de l’occupant en fonction du placement de la donnée représentative sur l’espace 3D AVD.
[0047] Un exemple de la cartographie décrite précédemment, est représenté sur la figure 4. Cette cartographie de l’état émotionnel de l’occupant va ensuite être corrélée à une ou plusieurs cartographies correspondant à différents stimuli. Ces stimuli sont basés sur les cinq sens : vue, odorat, goût, toucher, ouïe. Les cartographies correspondant à chacun des cinq sens sont représentées sur la figure 5.
[0048] La cartographie des cinq sens s’effectue en trois étapes illustrées sur la figure 6. En effet, les réglages initiaux du véhicule peuvent être décrits comme étant ceux correspondant à l’état émotionnel primaire de l’occupant, c'est-à-dire un état émotionnel ou l’occupant réagi de manière primaire.
[0049] La cartographie est ensuite modifiée en prenant en compte l’impact de la culture et/ ou de l’éducation de l’occupant. Cette étape peut, par exemple, être effectuée par apprentissage profond (ou « deep learning » en anglais), permettant d’obtenir un profil utilisateur pour chaque occupant.
[0050] La dernière étape dans la construction de la cartographie, concerne l’impact de la vie personnelle et/ou de l'expérience de l’occupant. Cette étape se fait de préférence, par apprentissage statistique (ou « machine learning » en anglais) permettant ainsi d’adapter en temps réel la cartographie.
[0051] L’étape d’action (Ac) représentée sur la figure 1, correspond à l’application d’un ou plusieurs stimuli. Le choix du stimulus dépend de l’effet désiré. Après avoir placé la donnée représentative de l’occupant sur la cartographie adaptée de la manière expliquée dans les paragraphes précédents, différents types d’actions peuvent être sélectionnés. Le point d’intersection des trois axes de l’espace tridimensionnel AVD correspond à la position neutre de l’état émotionnel de l’occupant.
[0052] La figure 7 illustrent trois exemple d’actions pouvant être appliquées. De ce fait, les choix peuvent être :
a. une remédiation, pour laquelle un stimulus localisé symétriquement par rapport à la position neutre dans l’espace 3D AVD va être appliqué. De cette manière, l’état émotionnel de l’occupant est ramené à la position neutre représentée sur la figure 7 ;
b. une amplification, pour laquelle un stimulus positionné dans la direction opposée à la position neutre dans l’espace 3D (par rapport à la position initiale) est appliqué ;
c. une modification permettant de passer de la position initiale (statut initial de l’état émotionnel) à une position spécifique donnée (statut désiré de l’état émotionnel), le ou les stimuli étant choisis en fonction de la position spécifique donnée.
[0053] Les stimuli multisensoriels utilisés peuvent, par exemple, être :
a. Pour la vue : utilisation de l’éclairage intérieur avec différentes couleurs et/ou de différentes intensités,
b. Pour l’odorat : utilisation d’un diffuseur de parfum, d’huiles essentielles ou encore de phéromones,
c. Pour le toucher : utilisation de panneaux radiants, nébulisation d’eau, utilisation de jets d’air chauds et/ou froids,
d. Pour l’ouïe : sélection de musiques ou de bruits d’ambiance,
e. Pour le goût : diffusion de parfum ou nébulisation pouvant créer des phéromones combinant les cinq saveurs principales (salé, acide, amer, sucré, umami).
[0054] Il peut exister des moyens d’affichage permettant d’informer l’occupant sur son état émotionnel. Le système interactif peut posséder un ou plusieurs moyens d’affichage. Celui-ci peut se présenter, par exemple, sous la forme d’un dispositif portable, en par ticulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0055] Le moyen d’affichage peut également se présenter sous la forme d’un texte et/ou d’une couleur et/ou d’un son et/ou d’une vibration.
[0056] L’invention ne se limite pas au modes de réalisation décrits dans cette demande. Diverses modifications peuvent être apportées sans s’écarter de la portée de l’invention. En particulier :
a. le type de stimulus peut être différent que ceux décrits dans la demande,
b. le prétraitement peut ne prendre en compte qu’une partie des cinq sens pour effectuer la cartographie décrite précédemment,
c. les mesures peuvent être effectuées simultanément ou les unes après les autres pour les différents occupants du véhicule,
d. l’ordre des étapes du procédé peut varier, par exemple un stimulus peut être appliqué avant l’étape de mesure des paramètres.

Claims (1)

  1. Revendications [Revendication 1] Système interactif avec un occupant d’un véhicule automobile comportant:
    a. un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,
    b. une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle,
    c. la donnée représentative correspondant à un point dans un espace tridimensionnel (AVD) de caractérisation de l’état émotionnel de l’occupant,
    d. au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
    [Revendication 2] Système interactif selon la revendication 1, caractérisé en ce que les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouge. [Revendication 3] Système interactif selon la revendication 2, caractérisé en ce que le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz. [Revendication 4] Système interactif selon l’une des revendications 2 ou 3, caractérisé en ce que la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm. [Revendication 5] Système interactif selon l’une des revendications 1 à 4, caractérisé en ce que l’espace tridimensionnel (AVD) de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence (V), d’un deuxième axe correspondant à la dominance (D) et d’un troisième axe correspondant à 1’arousal (A). [Revendication 6] Système interactif selon l’une des revendications 1 à 5, caractérisé en ce que la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel.
    [Revendication 7] [Revendication 8] [Revendication 9] [Revendication 10] [Revendication 11] [Revendication 12] [Revendication 13] [Revendication 14] [Revendication 15] [Revendication 16]
    Système interactif selon la revendication 6, caractérisé en ce que la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.
    Système interactif selon l’une des revendications 6 ou 7, caractérisé en ce que le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant, lesquelles données supplémentaires s’ajoutent à des données correspondant à l’état émotionnel primaire de l’occupant.
    Système interactif selon l’une des revendications 1 à 8, caractérisé en ce que le modèle d’évaluation est créé au moyen d’intelligence artificielle. Système interactif selon l’une des revendications 1 à 9, caractérisé en ce que l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière.
    Système interactif selon l’une des revendications 1 à 10, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une modification de l’état émotionnel de l’occupant.
    Système interactif selon la revendication 11, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une remédiation de l’état émotionnel de l’occupant.
    Système interactif selon la revendication 11, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une amplification de l’état émotionnel de l’occupant.
    Système interactif selon l’une des revendications 1 à 13, caractérisé en ce qu’il possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.
    Système interactif selon l’une des revendications 1 à 14, caractérisé en ce qu’il comporte au moins un moyen d’affichage (5), particulièrement une interface utilisateur.
    Procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :
    a. mesurer (M) un paramètre lié à un occupant du véhicule au moyen d’au moins un capteur,
    b. réceptionner (I) le paramètre par une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant,
    c. analyser (A) la donnée représentative et la placer dans un espace tridimensionnel (AVD) de caractérisation de l’état émotionnel de l’occupant,
    d. interpréter (I) la donnée représentative en adaptant l’espace tridimensionnel (AVD) en fonction de données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant,
    e. actionner (Ac) un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus étant agencé pour permettre de modifier l’état émotionnel dudit occupant de l’habitacle du véhicule pour interagir avec l’occupant en fonction de ladite donnée.
    [Revendication 17] Procédé selon la revendication 16, comportant en outre une étape consistant à informer l’occupant (Inf) sur son état émotionnel et/ou sur le stimulus appliqué.
FR1871681A 2018-11-21 2018-11-21 Système interactif avec un occupant d’un véhicule automobile Active FR3088604B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1871681A FR3088604B1 (fr) 2018-11-21 2018-11-21 Système interactif avec un occupant d’un véhicule automobile
PCT/FR2019/052722 WO2020104742A1 (fr) 2018-11-21 2019-11-15 Système interactif avec un occupant d'un vehicule automobile
CN201980076677.4A CN113164119A (zh) 2018-11-21 2019-11-15 与机动车辆的乘员交互的系统
EP19829282.3A EP3883472A1 (fr) 2018-11-21 2019-11-15 Système interactif avec un occupant d'un vehicule automobile
US17/295,251 US20210394762A1 (en) 2018-11-21 2019-11-15 System interacting with an occupant of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1871681A FR3088604B1 (fr) 2018-11-21 2018-11-21 Système interactif avec un occupant d’un véhicule automobile

Publications (2)

Publication Number Publication Date
FR3088604A1 true FR3088604A1 (fr) 2020-05-22
FR3088604B1 FR3088604B1 (fr) 2021-07-23

Family

ID=66641015

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1871681A Active FR3088604B1 (fr) 2018-11-21 2018-11-21 Système interactif avec un occupant d’un véhicule automobile

Country Status (5)

Country Link
US (1) US20210394762A1 (fr)
EP (1) EP3883472A1 (fr)
CN (1) CN113164119A (fr)
FR (1) FR3088604B1 (fr)
WO (1) WO2020104742A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3146864A1 (fr) 2023-03-22 2024-09-27 Psa Automobiles Sa Procédé de gestion d’ambiances multisensorielles dépendant de données externes au véhicule automobile

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11787062B2 (en) * 2019-12-12 2023-10-17 The Boeing Company Emotional intelligent robotic pilot
CN112869742A (zh) * 2021-01-11 2021-06-01 金纪高科智能科技(北京)有限公司 一种基于视频算法的实时监测预警系统及方法
CN114949531A (zh) * 2022-05-13 2022-08-30 青岛大学 基于生理信号的vr双模式情绪自动控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040014123A (ko) * 2002-08-06 2004-02-14 윤재민 가상인격체의 감정표현과 동작구현 시스템 및 그 방법
WO2014118467A1 (fr) * 2013-02-01 2014-08-07 Peugeot Citroen Automobiles Sa Procede de commande d'organes fonctionnels d'un vehicule pour generer differentes ambiances multisensorielles dans le vehicule
DE102015200775A1 (de) * 2015-01-20 2016-07-21 Bayerische Motoren Werke Aktiengesellschaft Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511080A (ja) * 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置
AU2007327315B2 (en) * 2006-12-01 2013-07-04 Rajiv Khosla Method and system for monitoring emotional state changes
US10111611B2 (en) * 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
DE102015105581A1 (de) * 2014-11-03 2016-05-04 Audi Ag System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen
US9792084B2 (en) * 2015-01-02 2017-10-17 Gracenote, Inc. Machine-led mood change
CN106293383A (zh) * 2015-06-19 2017-01-04 奥迪股份公司 用于控制机动车辆的界面装置的方法
DE102015216623A1 (de) * 2015-08-31 2017-03-02 Bayerische Motoren Werke Aktiengesellschaft Situative Neuromodulation eines Insassen eines Kraftfahrzeugs
US10430810B2 (en) * 2015-09-22 2019-10-01 Health Care Direct, Inc. Systems and methods for assessing the marketability of a product
KR101781537B1 (ko) * 2015-11-16 2017-09-26 엘지전자 주식회사 차량의 실내 방향 장치의 제어방법
EP3207868A1 (fr) * 2016-02-19 2017-08-23 Patonomics AB Procédé et appareil permettant d'identifier un état émotionnel transitoire d'un mammifère vivant
FR3059221A1 (fr) * 2016-11-28 2018-06-01 Ironova Dispositif apte a identifier un etat emotionnel, bracelet integrant un tel dispositif et procede associe d'identification et de reaction a un etat emotionnel
CN108056774A (zh) * 2017-12-29 2018-05-22 中国人民解放军战略支援部队信息工程大学 基于视频刺激材料的实验范式情绪分析实现方法及其装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040014123A (ko) * 2002-08-06 2004-02-14 윤재민 가상인격체의 감정표현과 동작구현 시스템 및 그 방법
WO2014118467A1 (fr) * 2013-02-01 2014-08-07 Peugeot Citroen Automobiles Sa Procede de commande d'organes fonctionnels d'un vehicule pour generer differentes ambiances multisensorielles dans le vehicule
DE102015200775A1 (de) * 2015-01-20 2016-07-21 Bayerische Motoren Werke Aktiengesellschaft Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3146864A1 (fr) 2023-03-22 2024-09-27 Psa Automobiles Sa Procédé de gestion d’ambiances multisensorielles dépendant de données externes au véhicule automobile

Also Published As

Publication number Publication date
FR3088604B1 (fr) 2021-07-23
US20210394762A1 (en) 2021-12-23
WO2020104742A1 (fr) 2020-05-28
CN113164119A (zh) 2021-07-23
EP3883472A1 (fr) 2021-09-29

Similar Documents

Publication Publication Date Title
EP3883472A1 (fr) Système interactif avec un occupant d'un vehicule automobile
Wood et al. Remembering together: The importance of shared emotional memory in event experiences
FR2917854A1 (fr) Systeme de commande muni d'un capteur de donnees physiologiques pour une installation de conditionnement d'air d'un vehicule automobile.
EP2795270A2 (fr) Methode de cotation du bruit des freins d'un vehicule automobile
FR3038770A1 (fr) Systeme de surveillance de l'etat de vigilance d'un operateur
JP7080657B2 (ja) 感情識別装置
FR3028741A1 (fr) Dispositif de mesure du rythme cardiaque du conducteur d’un vehicule
WO2020144424A1 (fr) Systeme interactif
JP7183782B2 (ja) 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム
FR3090171A1 (fr) Procédé de détermination d’un niveau de somnolence d’un conducteur de véhicule
FR3099610A1 (fr) Dispositif d’evaluation d’emotion
US11872992B2 (en) Vehicle user-assistance system, vehicle user-assistance device, and vehicle user-assistance server
FR2998159A1 (fr) Procede et systeme de gestion du stress d'un conducteur de vehicule automobile
WO2016156678A1 (fr) Procédé de commande, dispositif de commande, système et véhicule automobile comprenant un tel dispositif de commande
FR3104283A1 (fr) Système interactif et procédé d’interaction associé
FR3104284A1 (fr) Système interactif et procédé d’interaction associé
WO2022017737A1 (fr) Système interactif et procédé d'interaction associé
EP3218219B1 (fr) Interface homme/machine et procédé de contrôle de fonctions d'un véhicule par détection de mouvement et/ou d'expression du conducteur
FR3023528A1 (fr) Procede d'interaction pour ajuster un parametre depuis le volant d'un vehicule
FR3123027A1 (fr) Système d’optimisation du positionnement d’un siège de véhicule
JP2023518407A (ja) ユーザ適合したサービスをユーザに提供する技術
FR3056492A1 (fr) Dispositif lumineux d'indication d'un etat de configuration d'un siege de vehicule
FR3103606A1 (fr) Surveillance de passagers de véhicules par comparaison de valeurs de paramètres physiologiques à des valeurs de référence
FR3128049A1 (fr) Dispositif de simulation de conduite amélioré
Bioulac, MD, PhD Trouble Déficit de l’Attention/Hyperactivité et Technologies de l’Information et de la Communication

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200522

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6