FR3088604A1 - Système interactif avec un occupant d’un véhicule automobile - Google Patents
Système interactif avec un occupant d’un véhicule automobile Download PDFInfo
- Publication number
- FR3088604A1 FR3088604A1 FR1871681A FR1871681A FR3088604A1 FR 3088604 A1 FR3088604 A1 FR 3088604A1 FR 1871681 A FR1871681 A FR 1871681A FR 1871681 A FR1871681 A FR 1871681A FR 3088604 A1 FR3088604 A1 FR 3088604A1
- Authority
- FR
- France
- Prior art keywords
- occupant
- emotional state
- interactive system
- stimulus
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 26
- 230000002996 emotional effect Effects 0.000 claims abstract description 53
- 238000005259 measurement Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000013210 evaluation model Methods 0.000 claims abstract description 8
- 230000000875 corresponding effect Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 13
- 230000008451 emotion Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000037007 arousal Effects 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 239000002304 perfume Substances 0.000 claims description 4
- 230000003321 amplification Effects 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 239000000341 volatile oil Substances 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 claims description 2
- 239000006199 nebulizer Substances 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000005067 remediation Methods 0.000 claims description 2
- 238000012512 characterization method Methods 0.000 abstract 1
- 238000013507 mapping Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000003016 pheromone Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 239000013566 allergen Substances 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011859 microparticle Substances 0.000 description 1
- 238000002663 nebulization Methods 0.000 description 1
- 150000002894 organic compounds Chemical class 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 235000019583 umami taste Nutrition 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4848—Monitoring or testing the effects of treatment, e.g. of medication
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6893—Cars
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/30—Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0204—Acoustic sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0228—Microwave sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0016—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the smell sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0022—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the tactile sense, e.g. vibrations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0027—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0044—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/33—Controlling, regulating or measuring
- A61M2205/3306—Optical measuring means
- A61M2205/3313—Optical measuring means used specific wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/33—Controlling, regulating or measuring
- A61M2205/3317—Electromagnetic, inductive or dielectric measuring means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
- B60W2050/0029—Mathematical model of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Psychiatry (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Psychology (AREA)
- Automation & Control Theory (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Mathematical Physics (AREA)
- Social Psychology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Educational Technology (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Anesthesiology (AREA)
- Hematology (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
Système interactif avec un occupant d’un véhicule automobile comportant: un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, la donnée représentative correspondant à un point dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant, au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
Description
Description
Titre de l'invention : Système interactif avec un occupant d’un véhicule automobile [0001] L’invention concerne un système interactif avec un occupant d’un véhicule automobile. L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile.
[0002] Le passage à la voiture autonome présente de plus en plus de challenges quant à la création d’un véhicule empathique qui permettra de rendre la conduite et/ou le voyage plus agréable. Les progrès restants peuvent être regroupés en trois axes regroupant la sécurité, le confort et le divertissement.
[0003] Des exemples de systèmes existant permettent d’évaluer l’état émotionnel d’un occupant d’un véhicule automobile. Il est en effet connu d’effectuer des mesures permettant de déterminer différents paramètres concernant un occupant, et ainsi en déduire une donnée représentative de son état émotionnel.
[0004] De manière générale, les mesures peuvent être effectuées grâce à des dispositifs portables permettant de récolter des données telle que la conductivité de la peau, la température, ou encore le rythme cardiaque. Le système utilisé comporte si possible une caméra, par exemple de type GoPro®.
[0005] Dans les systèmes connus, les paramètres obtenus sont ensuite utilisés pour déterminer l’état émotionnel de l’occupant. Un modèle connu consiste à obtenir, à partir des différents paramètres, une cartographie de l’état émotionnel du passager. Ainsi, celui-ci peut être représenté par un point dans un espace à deux dimensions formé d’un axe des abscisses correspondant à la valence (qualité intrinsèquement agréable ou désagréable d’un stimulus ou d’une situation) et un axe des ordonnées correspondant à 1’arousal (force du stimulus émotionnel).
[0006] L’invention vise à améliorer les systèmes connus en proposant un système interactif permettant de modéliser l’état émotionnel d’un occupant d’un véhicule, non seulement en le plaçant dans un espace tri dimensionnel, mais également en l’interprétant de manière à intégrer des paramètres supplémentaires dans le modèle utilisé. De plus, l’invention propose également d’agir sur l’occupant en fonction de l’état émotionnel détecté et ainsi avoir un impact sur la sécurité et/ou le confort de ou des occupants du véhicule.
[0007] L’invention a pour objet un système interactif avec un occupant d’un véhicule automobile comportant:
a. un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,
b. une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle,
c. la donnée représentative correspondant à un point dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant,
d. au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
[0008] Selon un aspect de l’invention, les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouges.
[0009] Selon un aspect de l’invention, le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz.
[0010] Selon un aspect de l’invention, la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7qm et 100 μιη, en particulier entre 25μιη et ΙΟΟμιη.
[0011] Selon un aspect de l’invention, l’espace tridimensionnel de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence, d’un deuxième axe correspondant à la dominance et d’un troisième axe correspondant à 1’arousal.
[0012] Selon un aspect de l’invention, la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel.
[0013] Selon un aspect de l’invention, la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.
[0014] Selon un aspect de l’invention, le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant.
[0015] Selon un aspect de l’invention, les données supplémentaires peuvent être déterminées au moyen d’un système de mesures autonome permettant la mesure de la qualité de l’air et/ou de la pollution, et/ou des microparticules et/ou des allergènes et/ou de l’environnement sonore et/ou de l’environnement lumineux et/ou de la température et/ ou du taux d’humidité.
[0016] Selon un aspect de l’invention, le modèle d’évaluation est créé au moyen d’intelligence artificielle.
[0017] Selon un aspect de l’invention, l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air.
[0018] Selon un aspect de l’invention, le stimulus multi sensoriel permet une modification de l’état émotionnel de l’occupant.
[0019] Selon un aspect de l’invention, le stimulus multi sensoriel permet une remédiation de l’état émotionnel de l’occupant.
[0020] Selon un aspect de l’invention, le stimulus multi sensoriel permet une amplification de l’état émotionnel de l’occupant.
[0021] Selon un aspect de l’invention, le système interactif possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.
[0022] Selon un aspect de l’invention, l’au moins un capteur peut être choisi parmi : une caméra, en particulier à infra rouges lointains et/ou à proches infra rouges et/ou dans le visible, un microphone, un dispositif portable, un capteur installé dans le véhicule en particulier un élément conducteur placé dans un siège et/ou dans un volant et/ou dans un accoudoir.
[0023] Selon un aspect de l’invention, le système interactif peut comporter au moins une caméra à infra rouges lointains, plusieurs capteurs de signes vitaux et un microphone.
[0024] Selon un aspect de l’invention, le système interactif comporte au moins un moyen d’affichage, particulièrement une interface utilisateur.
[0025] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0026] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un texte et/ou une couleur et/ou un son et/ou une vibration.
[0027] L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :
a. mesurer un paramètre lié à un occupant du véhicule au moyen d’au moins un capteur,
b. réceptionner le paramètre par une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant,
c. analyser la donnée représentative et la placer dans un espace tridimensionnel de caractérisation de l’état émotionnel de l’occupant,
d. interpréter la donnée représentative en adaptant l’espace tridimensionnel en fonction de données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant,
e. actionner un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant de l’habitacle du véhicule pour interagir avec l’occupant en fonction de ladite donnée.
[0028] Selon un aspect de l’invention, le procédé comporte en outre une étape consistant à informer l’occupant sur son état émotionnel et/ou sur le stimulus appliqué [0029] [0030] [0031] [0032]
L’invention sera mieux comprise et d’autres détails, caractéristiques et avantages de l’invention apparaîtront à la lecture de la description suivante faite à titre d’exemple non limitatif en référence au dessin annexé dans lequel :
[fig.l] : la figure 1 est un diagramme schématique d’au moins une partie du procédé selon l’invention, [fig.2] : la figure 2 est une représentation schématique d’un espace tridimensionnel AVD utilisé dans une des étapes du procédé de la figure 1, [fig.3] : la figure 3 est une représentation schématique de l’étape d’évaluation du procédé de la figure 1, [fig.4] : la figure 4 est une représentation schématique de l’étape d’analyse du procédé de la figure 1, [fig.5] : la figure 5 est une représentation schématique de la cartographie multi sensorielle utilisée dans le procédé de la figure 1, [fig.6] : la figure 6 est une représentation schématique de la construction de la cartographie de la figure 5, [fig.7] : la figure 7 est une représentation schématique de l’étape d’action du procédé de la figure 1.
Le système interactif proposé dans l’invention utilise un procédé possédant cinq étapes. Ces cinq étapes représentées schématiquement sur la figure 1 consistent en :
a. une étape de mesures (M) effectuée par un dispositif de mesure et pendant laquelle un ou plusieurs paramètres concernant le ou les occupants sont récoltés,
b. une étape d’évaluation et d’interprétation (I) lors de laquelle les paramètres obtenus sont modélisés de manière à obtenir une donnée représentative de l’état émotionnel du ou des occupants,
c. une étape d’analyse (A) permettant de cartographier l’état émotionnel de l’occupant et décider ou non si une action est nécessaire,
d. une étape d’action (Ac) lors de laquelle au moins un stimulus multi sensoriel est appliqué de manière à modifier l’état émotionnel du ou des occupants,
e. une étape d’information (Inf) lors de laquelle l’occupant est informé de son état émotionnel et des stimuli appliqués.
Lors de l’étape de mesure (M), le dispositif de mesure va acquérir un ou plusieurs paramètres décrivant le statut et donc l’état émotionnel de l’occupant (ce qui est décrit pour un occupant peut bien sûr être appliqué à plusieurs occupants du véhicule simultanément). Des paramètres décrivant l’environnement dans lequel se trouve l’occupant peuvent également être récoltés de manière à en déduire leur effet éventuel sur l’état émotionnel de l’occupant.
Le dispositif décrit dans les paragraphes précédents est composé d’un ou plusieurs capteurs. Ces capteurs sont préférentiellement des capteurs embarqués dans le véhicule, comme par exemple une ou plusieurs caméras, des capteurs de signes vitaux, un ou plusieurs microphones ou encore des capteurs de contact.
[0033] Dans un mode de réalisation préféré, les mesures sont effectuées par des caméras, en particulier des caméras infrarouges qui prennent des images dans le domaine infrarouge. Ces caméras sont dirigées vers les positions attendues des différents occupants du véhicule : siège conducteur, siège passager, banquette arrière, etc...En particulier, une ou plusieurs caméras très grand angle (par exemple de type « fisheye » ou « œil de poisson » en français) peuvent couvrir plusieurs positions de façon simultanée. Les caméras infrarouges détectent préférentiellement des longueurs d’onde comprises entre 0,7pm et lOOpm, préférentiellement 25pm et lOOpm.
[0034] Ces caméras comportent, avantageusement, des caméras infrarouges proches (« NIR » pour « Near Infra Red »), et/ou des caméras infrarouges lointains (« FIR » pour « Far Infra Red »).
[0035] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes.
[0036] Comme précisé ci-dessus, le dispositif de mesure permet également de déterminer l’environnement du ou des passagers, celui-ci pouvant influer sur son état émotionnel. Ainsi, des données telles que la température, l’intensité lumineuse, le bruit, la vitesse du véhicule, etc.. .vont pouvoir être récoltées.
[0037] D’autres types de paramètres seront également récupérés au moyen d’autres capteurs. [0038] Le dispositif de mesure comporte au moins un microphone permettant d’enregistrer la voix du ou des passagers.
[0039] Le dispositif de mesure peut également comporter des biocapteurs pouvant détecter des paramètres tels que des composés organiques, des ions, des bactéries, etc...
[0040] Le dispositif de mesure peut aussi être composé de capteurs de signes vitaux. Ceux-ci peuvent par exemple se présenter sous la forme de capteurs sans contact comme par exemple un radar, une caméra, ou encore des éléments portables (montre, chemise, bracelet, etc...).
[0041] Des capteurs de signes vitaux en contact avec le passager peuvent également être utilisés. Ils se présentent, par exemple, sous la forme d’éléments conducteurs installés dans des parties du véhicule (accoudoir, volant, siège, etc...). Ces capteurs de signes vitaux mesurent des paramètres tels que le rythme et/ou la fréquence cardiaque, la fréquence et/ou l’amplitude respiratoire, la conductivité de la peau, les ondes cé6 rébrales, etc...
[0042] Un mode de réalisation préféré utilise un radar de courte portée à ultra large bande. La fréquence du radar peut par exemple être comprise entre 10GHz et ITHz, préférentiellement entre 50GHz et 160GHz.
[0043] L’étape suivante d’interprétation et/ou d’évaluation (I) consiste à évaluer et interpréter les paramètres obtenus lors de l’étape de mesure (M). Ainsi ces paramètres vont être traduits en une donnée représentative facilement représentée dans un premier espace tridimensionnel ou espace 3D (AVD) de caractérisation de l’état émotionnel. Cet espace 3D est représenté sur la figure 3. Il est formé d’un premier axe correspondant à la valence (V), d’un deuxième axe correspondant à la dominance (D) et d’un troisième axe correspondant à Γarousal (A).
[0044] La valence caractérise le niveau de plaisir ou de désagrément associé à une émotion alors que Γ arousal peut être défini comme étant l'intensité des affects et de la réponse générée par cette émotion. La dominance, quant à elle, caractérise le niveau de maîtrise et de contrôle de la réponse de l'individu à cette émotion.
[0045] La figure 3 illustre le placement de la donnée représentative décrite précédemment et obtenue grâce à une unité de traitement utilisant un modèle d’évaluation des émotions, dans l’espace tridimensionnel AVD. Cette donnée varie au cours du temps passé par l’occupant dans le véhicule. Ainsi, une première donnée représentative est fournie pour un temps t0 alors que la donnée représentative correspondant au présent est illustrée par tactual· Des mesures en continu sont de préférence effectuées, de manière à obtenir la courbe représentée sur la figure 3. Toutefois, des mesures discrètes peuvent également être réalisées.
[0046] Une fois l’évaluation de la donnée représentative effectuée, une étape d’analyse (A) est performée. Cette analyse (A) permet de déterminer l’état émotionnel de l’occupant en fonction du placement de la donnée représentative sur l’espace 3D AVD.
[0047] Un exemple de la cartographie décrite précédemment, est représenté sur la figure 4. Cette cartographie de l’état émotionnel de l’occupant va ensuite être corrélée à une ou plusieurs cartographies correspondant à différents stimuli. Ces stimuli sont basés sur les cinq sens : vue, odorat, goût, toucher, ouïe. Les cartographies correspondant à chacun des cinq sens sont représentées sur la figure 5.
[0048] La cartographie des cinq sens s’effectue en trois étapes illustrées sur la figure 6. En effet, les réglages initiaux du véhicule peuvent être décrits comme étant ceux correspondant à l’état émotionnel primaire de l’occupant, c'est-à-dire un état émotionnel ou l’occupant réagi de manière primaire.
[0049] La cartographie est ensuite modifiée en prenant en compte l’impact de la culture et/ ou de l’éducation de l’occupant. Cette étape peut, par exemple, être effectuée par apprentissage profond (ou « deep learning » en anglais), permettant d’obtenir un profil utilisateur pour chaque occupant.
[0050] La dernière étape dans la construction de la cartographie, concerne l’impact de la vie personnelle et/ou de l'expérience de l’occupant. Cette étape se fait de préférence, par apprentissage statistique (ou « machine learning » en anglais) permettant ainsi d’adapter en temps réel la cartographie.
[0051] L’étape d’action (Ac) représentée sur la figure 1, correspond à l’application d’un ou plusieurs stimuli. Le choix du stimulus dépend de l’effet désiré. Après avoir placé la donnée représentative de l’occupant sur la cartographie adaptée de la manière expliquée dans les paragraphes précédents, différents types d’actions peuvent être sélectionnés. Le point d’intersection des trois axes de l’espace tridimensionnel AVD correspond à la position neutre de l’état émotionnel de l’occupant.
[0052] La figure 7 illustrent trois exemple d’actions pouvant être appliquées. De ce fait, les choix peuvent être :
a. une remédiation, pour laquelle un stimulus localisé symétriquement par rapport à la position neutre dans l’espace 3D AVD va être appliqué. De cette manière, l’état émotionnel de l’occupant est ramené à la position neutre représentée sur la figure 7 ;
b. une amplification, pour laquelle un stimulus positionné dans la direction opposée à la position neutre dans l’espace 3D (par rapport à la position initiale) est appliqué ;
c. une modification permettant de passer de la position initiale (statut initial de l’état émotionnel) à une position spécifique donnée (statut désiré de l’état émotionnel), le ou les stimuli étant choisis en fonction de la position spécifique donnée.
[0053] Les stimuli multisensoriels utilisés peuvent, par exemple, être :
a. Pour la vue : utilisation de l’éclairage intérieur avec différentes couleurs et/ou de différentes intensités,
b. Pour l’odorat : utilisation d’un diffuseur de parfum, d’huiles essentielles ou encore de phéromones,
c. Pour le toucher : utilisation de panneaux radiants, nébulisation d’eau, utilisation de jets d’air chauds et/ou froids,
d. Pour l’ouïe : sélection de musiques ou de bruits d’ambiance,
e. Pour le goût : diffusion de parfum ou nébulisation pouvant créer des phéromones combinant les cinq saveurs principales (salé, acide, amer, sucré, umami).
[0054] Il peut exister des moyens d’affichage permettant d’informer l’occupant sur son état émotionnel. Le système interactif peut posséder un ou plusieurs moyens d’affichage. Celui-ci peut se présenter, par exemple, sous la forme d’un dispositif portable, en par ticulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0055] Le moyen d’affichage peut également se présenter sous la forme d’un texte et/ou d’une couleur et/ou d’un son et/ou d’une vibration.
[0056] L’invention ne se limite pas au modes de réalisation décrits dans cette demande. Diverses modifications peuvent être apportées sans s’écarter de la portée de l’invention. En particulier :
a. le type de stimulus peut être différent que ceux décrits dans la demande,
b. le prétraitement peut ne prendre en compte qu’une partie des cinq sens pour effectuer la cartographie décrite précédemment,
c. les mesures peuvent être effectuées simultanément ou les unes après les autres pour les différents occupants du véhicule,
d. l’ordre des étapes du procédé peut varier, par exemple un stimulus peut être appliqué avant l’étape de mesure des paramètres.
Claims (1)
- Revendications [Revendication 1] Système interactif avec un occupant d’un véhicule automobile comportant:a. un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,b. une unité de traitement embarquée utilisant un modèle d’évaluation de l’état émotionnel de l’occupant, ladite unité de traitement étant agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle,c. la donnée représentative correspondant à un point dans un espace tridimensionnel (AVD) de caractérisation de l’état émotionnel de l’occupant,d. au moins un actionneur configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
[Revendication 2] Système interactif selon la revendication 1, caractérisé en ce que les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouge. [Revendication 3] Système interactif selon la revendication 2, caractérisé en ce que le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz. [Revendication 4] Système interactif selon l’une des revendications 2 ou 3, caractérisé en ce que la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm. [Revendication 5] Système interactif selon l’une des revendications 1 à 4, caractérisé en ce que l’espace tridimensionnel (AVD) de caractérisation de l’état émotionnel est formé d’un premier axe correspondant à la valence (V), d’un deuxième axe correspondant à la dominance (D) et d’un troisième axe correspondant à 1’arousal (A). [Revendication 6] Système interactif selon l’une des revendications 1 à 5, caractérisé en ce que la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel. [Revendication 7] [Revendication 8] [Revendication 9] [Revendication 10] [Revendication 11] [Revendication 12] [Revendication 13] [Revendication 14] [Revendication 15] [Revendication 16]Système interactif selon la revendication 6, caractérisé en ce que la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.Système interactif selon l’une des revendications 6 ou 7, caractérisé en ce que le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant, lesquelles données supplémentaires s’ajoutent à des données correspondant à l’état émotionnel primaire de l’occupant.Système interactif selon l’une des revendications 1 à 8, caractérisé en ce que le modèle d’évaluation est créé au moyen d’intelligence artificielle. Système interactif selon l’une des revendications 1 à 9, caractérisé en ce que l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière.Système interactif selon l’une des revendications 1 à 10, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une modification de l’état émotionnel de l’occupant.Système interactif selon la revendication 11, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une remédiation de l’état émotionnel de l’occupant.Système interactif selon la revendication 11, caractérisé en ce que le stimulus multi sensoriel est agencé pour permettre une amplification de l’état émotionnel de l’occupant.Système interactif selon l’une des revendications 1 à 13, caractérisé en ce qu’il possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.Système interactif selon l’une des revendications 1 à 14, caractérisé en ce qu’il comporte au moins un moyen d’affichage (5), particulièrement une interface utilisateur.Procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :a. mesurer (M) un paramètre lié à un occupant du véhicule au moyen d’au moins un capteur,b. réceptionner (I) le paramètre par une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant,c. analyser (A) la donnée représentative et la placer dans un espace tridimensionnel (AVD) de caractérisation de l’état émotionnel de l’occupant,d. interpréter (I) la donnée représentative en adaptant l’espace tridimensionnel (AVD) en fonction de données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant,e. actionner (Ac) un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus étant agencé pour permettre de modifier l’état émotionnel dudit occupant de l’habitacle du véhicule pour interagir avec l’occupant en fonction de ladite donnée.[Revendication 17] Procédé selon la revendication 16, comportant en outre une étape consistant à informer l’occupant (Inf) sur son état émotionnel et/ou sur le stimulus appliqué.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1871681A FR3088604B1 (fr) | 2018-11-21 | 2018-11-21 | Système interactif avec un occupant d’un véhicule automobile |
PCT/FR2019/052722 WO2020104742A1 (fr) | 2018-11-21 | 2019-11-15 | Système interactif avec un occupant d'un vehicule automobile |
CN201980076677.4A CN113164119A (zh) | 2018-11-21 | 2019-11-15 | 与机动车辆的乘员交互的系统 |
EP19829282.3A EP3883472A1 (fr) | 2018-11-21 | 2019-11-15 | Système interactif avec un occupant d'un vehicule automobile |
US17/295,251 US20210394762A1 (en) | 2018-11-21 | 2019-11-15 | System interacting with an occupant of a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1871681A FR3088604B1 (fr) | 2018-11-21 | 2018-11-21 | Système interactif avec un occupant d’un véhicule automobile |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3088604A1 true FR3088604A1 (fr) | 2020-05-22 |
FR3088604B1 FR3088604B1 (fr) | 2021-07-23 |
Family
ID=66641015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1871681A Active FR3088604B1 (fr) | 2018-11-21 | 2018-11-21 | Système interactif avec un occupant d’un véhicule automobile |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210394762A1 (fr) |
EP (1) | EP3883472A1 (fr) |
CN (1) | CN113164119A (fr) |
FR (1) | FR3088604B1 (fr) |
WO (1) | WO2020104742A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3146864A1 (fr) | 2023-03-22 | 2024-09-27 | Psa Automobiles Sa | Procédé de gestion d’ambiances multisensorielles dépendant de données externes au véhicule automobile |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11787062B2 (en) * | 2019-12-12 | 2023-10-17 | The Boeing Company | Emotional intelligent robotic pilot |
CN112869742A (zh) * | 2021-01-11 | 2021-06-01 | 金纪高科智能科技(北京)有限公司 | 一种基于视频算法的实时监测预警系统及方法 |
CN114949531A (zh) * | 2022-05-13 | 2022-08-30 | 青岛大学 | 基于生理信号的vr双模式情绪自动控制系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040014123A (ko) * | 2002-08-06 | 2004-02-14 | 윤재민 | 가상인격체의 감정표현과 동작구현 시스템 및 그 방법 |
WO2014118467A1 (fr) * | 2013-02-01 | 2014-08-07 | Peugeot Citroen Automobiles Sa | Procede de commande d'organes fonctionnels d'un vehicule pour generer differentes ambiances multisensorielles dans le vehicule |
DE102015200775A1 (de) * | 2015-01-20 | 2016-07-21 | Bayerische Motoren Werke Aktiengesellschaft | Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008511080A (ja) * | 2004-08-23 | 2008-04-10 | サーノフ コーポレーション | 融合画像を形成するための方法および装置 |
AU2007327315B2 (en) * | 2006-12-01 | 2013-07-04 | Rajiv Khosla | Method and system for monitoring emotional state changes |
US10111611B2 (en) * | 2010-06-07 | 2018-10-30 | Affectiva, Inc. | Personal emotional profile generation |
DE102015105581A1 (de) * | 2014-11-03 | 2016-05-04 | Audi Ag | System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen |
US9792084B2 (en) * | 2015-01-02 | 2017-10-17 | Gracenote, Inc. | Machine-led mood change |
CN106293383A (zh) * | 2015-06-19 | 2017-01-04 | 奥迪股份公司 | 用于控制机动车辆的界面装置的方法 |
DE102015216623A1 (de) * | 2015-08-31 | 2017-03-02 | Bayerische Motoren Werke Aktiengesellschaft | Situative Neuromodulation eines Insassen eines Kraftfahrzeugs |
US10430810B2 (en) * | 2015-09-22 | 2019-10-01 | Health Care Direct, Inc. | Systems and methods for assessing the marketability of a product |
KR101781537B1 (ko) * | 2015-11-16 | 2017-09-26 | 엘지전자 주식회사 | 차량의 실내 방향 장치의 제어방법 |
EP3207868A1 (fr) * | 2016-02-19 | 2017-08-23 | Patonomics AB | Procédé et appareil permettant d'identifier un état émotionnel transitoire d'un mammifère vivant |
FR3059221A1 (fr) * | 2016-11-28 | 2018-06-01 | Ironova | Dispositif apte a identifier un etat emotionnel, bracelet integrant un tel dispositif et procede associe d'identification et de reaction a un etat emotionnel |
CN108056774A (zh) * | 2017-12-29 | 2018-05-22 | 中国人民解放军战略支援部队信息工程大学 | 基于视频刺激材料的实验范式情绪分析实现方法及其装置 |
-
2018
- 2018-11-21 FR FR1871681A patent/FR3088604B1/fr active Active
-
2019
- 2019-11-15 US US17/295,251 patent/US20210394762A1/en active Pending
- 2019-11-15 WO PCT/FR2019/052722 patent/WO2020104742A1/fr unknown
- 2019-11-15 CN CN201980076677.4A patent/CN113164119A/zh active Pending
- 2019-11-15 EP EP19829282.3A patent/EP3883472A1/fr active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040014123A (ko) * | 2002-08-06 | 2004-02-14 | 윤재민 | 가상인격체의 감정표현과 동작구현 시스템 및 그 방법 |
WO2014118467A1 (fr) * | 2013-02-01 | 2014-08-07 | Peugeot Citroen Automobiles Sa | Procede de commande d'organes fonctionnels d'un vehicule pour generer differentes ambiances multisensorielles dans le vehicule |
DE102015200775A1 (de) * | 2015-01-20 | 2016-07-21 | Bayerische Motoren Werke Aktiengesellschaft | Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3146864A1 (fr) | 2023-03-22 | 2024-09-27 | Psa Automobiles Sa | Procédé de gestion d’ambiances multisensorielles dépendant de données externes au véhicule automobile |
Also Published As
Publication number | Publication date |
---|---|
FR3088604B1 (fr) | 2021-07-23 |
US20210394762A1 (en) | 2021-12-23 |
WO2020104742A1 (fr) | 2020-05-28 |
CN113164119A (zh) | 2021-07-23 |
EP3883472A1 (fr) | 2021-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3883472A1 (fr) | Système interactif avec un occupant d'un vehicule automobile | |
Wood et al. | Remembering together: The importance of shared emotional memory in event experiences | |
FR2917854A1 (fr) | Systeme de commande muni d'un capteur de donnees physiologiques pour une installation de conditionnement d'air d'un vehicule automobile. | |
EP2795270A2 (fr) | Methode de cotation du bruit des freins d'un vehicule automobile | |
FR3038770A1 (fr) | Systeme de surveillance de l'etat de vigilance d'un operateur | |
JP7080657B2 (ja) | 感情識別装置 | |
FR3028741A1 (fr) | Dispositif de mesure du rythme cardiaque du conducteur d’un vehicule | |
WO2020144424A1 (fr) | Systeme interactif | |
JP7183782B2 (ja) | 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム | |
FR3090171A1 (fr) | Procédé de détermination d’un niveau de somnolence d’un conducteur de véhicule | |
FR3099610A1 (fr) | Dispositif d’evaluation d’emotion | |
US11872992B2 (en) | Vehicle user-assistance system, vehicle user-assistance device, and vehicle user-assistance server | |
FR2998159A1 (fr) | Procede et systeme de gestion du stress d'un conducteur de vehicule automobile | |
WO2016156678A1 (fr) | Procédé de commande, dispositif de commande, système et véhicule automobile comprenant un tel dispositif de commande | |
FR3104283A1 (fr) | Système interactif et procédé d’interaction associé | |
FR3104284A1 (fr) | Système interactif et procédé d’interaction associé | |
WO2022017737A1 (fr) | Système interactif et procédé d'interaction associé | |
EP3218219B1 (fr) | Interface homme/machine et procédé de contrôle de fonctions d'un véhicule par détection de mouvement et/ou d'expression du conducteur | |
FR3023528A1 (fr) | Procede d'interaction pour ajuster un parametre depuis le volant d'un vehicule | |
FR3123027A1 (fr) | Système d’optimisation du positionnement d’un siège de véhicule | |
JP2023518407A (ja) | ユーザ適合したサービスをユーザに提供する技術 | |
FR3056492A1 (fr) | Dispositif lumineux d'indication d'un etat de configuration d'un siege de vehicule | |
FR3103606A1 (fr) | Surveillance de passagers de véhicules par comparaison de valeurs de paramètres physiologiques à des valeurs de référence | |
FR3128049A1 (fr) | Dispositif de simulation de conduite amélioré | |
Bioulac, MD, PhD | Trouble Déficit de l’Attention/Hyperactivité et Technologies de l’Information et de la Communication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20200522 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |