FR3091603A1 - Système interactif - Google Patents
Système interactif Download PDFInfo
- Publication number
- FR3091603A1 FR3091603A1 FR1900118A FR1900118A FR3091603A1 FR 3091603 A1 FR3091603 A1 FR 3091603A1 FR 1900118 A FR1900118 A FR 1900118A FR 1900118 A FR1900118 A FR 1900118A FR 3091603 A1 FR3091603 A1 FR 3091603A1
- Authority
- FR
- France
- Prior art keywords
- occupant
- comfort index
- interactive system
- emotional
- emotional state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 22
- 230000002996 emotional effect Effects 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000012512 characterization method Methods 0.000 claims abstract description 3
- 238000005259 measurement Methods 0.000 claims description 19
- 230000037007 arousal Effects 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 5
- 230000008451 emotion Effects 0.000 claims description 4
- 239000002304 perfume Substances 0.000 claims description 4
- 238000013210 evaluation model Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 239000000341 volatile oil Substances 0.000 claims description 3
- 239000006199 nebulizer Substances 0.000 claims description 2
- 230000001953 sensory effect Effects 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000013507 mapping Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000002663 nebulization Methods 0.000 description 2
- 239000003016 pheromone Substances 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000013566 allergen Substances 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 239000011859 microparticle Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 150000002894 organic compounds Chemical class 0.000 description 1
- 238000005067 remediation Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 235000019583 umami taste Nutrition 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60H—ARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
- B60H3/00—Other air-treating devices
- B60H3/0007—Adding substances other than water to the air, e.g. perfume, oxygen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/25—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q3/00—Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
- B60Q3/80—Circuits; Control arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
L’invention concerne un système interactif avec un occupant d’un véhicule automobile comportant: un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,une unité de traitement embarquée agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, ladite donnée représentative étant un score d’index de confort (CISn) dudit occupant,la donnée représentative correspondant à un point dans un espace bidimensionnel (anvn) de caractérisation de l’état émotionnel de l’occupant,caractérisé en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative,et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant. Figure pour l’abrégé : Figure 1
Description
Description
Titre de l'invention : Système interactif
[0001] L’invention concerne un système interactif avec un occupant d’un véhicule automobile. L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile.
[0002] Le passage à la voiture autonome présente de plus en plus de challenges quant à la création d’un véhicule empathique qui permettra de rendre la conduite et/ou le voyage plus agréable. Les progrès restants peuvent être regroupés en trois axes regroupant la sécurité, le confort et le divertissement.
[0003] Des exemples de systèmes existant permettent d’évaluer l’état émotionnel d’un occupant d’un véhicule automobile. Il est en effet connu d’effectuer des mesures permettant de déterminer différents paramètres concernant un occupant, et ainsi en déduire une donnée représentative de son état émotionnel.
[0004] De manière générale, les mesures peuvent être effectuées grâce à des dispositifs portables permettant de récolter des données telle que la conductivité de la peau, la température, ou encore le rythme cardiaque. Le système utilisé comporte si possible une caméra, par exemple de type GoPro® ou encore une webcam. Un tel dispositif permet d’effectuer une reconnaissance faciale de l’occupant et ainsi adapter le système interactif.
[0005] Dans les systèmes connus, les paramètres obtenus sont ensuite utilisés pour déterminer l’état émotionnel de l’occupant. Un modèle connu consiste à obtenir, à partir des différents paramètres, une cartographie de l’état émotionnel du passager. Ainsi, celui-ci peut, par exemple, être représenté par un point dans un espace à deux dimensions formé d’un axe des abscisses correspondant à la valence (qualité intrinsèquement agréable ou désagréable d’un stimulus ou d’une situation) et un axe des ordonnées correspondant à l’arousal (force du stimulus émotionnel).
[0006] L’invention vise à améliorer les systèmes connus en proposant un système interactif permettant d’évaluer l’état émotionnel d’un occupant d’un véhicule, en utilisant un index émotionnel permettant de déterminer facilement le ou les stimuli à appliquer sur ledit occupant et ainsi avoir un impact sur la sécurité et/ou le confort et/ou le divertissement de ou des occupants du véhicule.
[0007] L’invention a pour objet un système interactif avec un occupant d’un véhicule automobile comportant: Système interactif avec un occupant d’un véhicule automobile comportant:
• un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, • une unité de traitement embarquée agencée pour recevoir ledit paramètre et utilisant la formule/ q = X ” C/S définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, • la donnée représentative correspondant à un point dans un espace bidimensionnel de caractérisation de l’état émotionnel de l’occupant.
[0008] Cette invention est remarquable en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
[0009] Selon un aspect de l’invention, l’index de confort émotionnel peut être calculé en / n , CI étant l’index de confort / n émotionnel et CISn étant un score de l’index de confort déterminé à un temps n.
[0010] Selon un aspect de l’invention, le score de l’index de confort est une fonction de la valence et de l’arousal.
[0011] Selon un autre aspect de l’invention, le score de l’index de confort est calculé à partir de la formule suivante : V„ + ( 3 X ) vn étant la valence et an
C. 12 , l’arousal, CISn étant un score d’index de confort déterminé à un temps n.
[0012] Selon un aspect de l’invention, n est compris entre 10 millisecondes et 300 millisecondes.
[0013] Selon un autre aspect de l’invention, les valeurs du score d’index de confort sont récoltées pendant une durée comprise entre 0,1 secondes et 30 secondes, particulièrement 0,1 secondes et 5 secondes.
[0014] Selon un autre aspect de l’invention, les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouge.
[0015] Selon un aspect de l’invention, le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz.
[0016] Selon un aspect de l’invention, la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm.
[0017] Selon un aspect de l’invention, l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière.
[0018] Selon un aspect de l’invention, le système interactif possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.
[0019] Selon un aspect de l’invention, la boucle d’apprentissage permet de créer une base de données.
[0020] Selon un aspect de l’invention, le système interactif comporte au moins un moyen d’affichage, particulièrement une interface utilisateur.
[0021] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0022] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un texte et/ou une couleur et/ou un son et/ou une vibration.
[0023] Selon un aspect de l’invention, la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel.
[0024] Selon un aspect de l’invention, la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.
[0025] Selon un aspect de l’invention, le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant, et/ou l’âge et/ou le genre et/ou le type d’habillement.
[0026] Selon un aspect de l’invention, les données supplémentaires peuvent être déterminées au moyen d’un système de mesures autonome permettant la mesure de la qualité de l’air et/ou de la pollution, et/ou des microparticules et/ou des allergènes et/ou de l’environnement sonore et/ou de l’environnement lumineux et/ou de la température et/ ou du taux d’humidité.
[0027] Selon un aspect de l’invention, le modèle d’évaluation est créé au moyen d’une intelligence artificielle.
[0028] Selon un aspect de l’invention, le stimulus multi sensoriel permet une modification de l’état émotionnel de l’occupant.
[0029] Selon un aspect de l’invention, le stimulus multi sensoriel permet une remédiation de l’état émotionnel de l’occupant.
[0030] Selon un aspect de l’invention, le stimulus multi sensoriel permet une amplification de l’état émotionnel de l’occupant.
[0031] Selon un aspect de l’invention, l’au moins un capteur peut être choisi parmi : une caméra, en particulier à infra rouges lointains et/ou à proches infra rouges et/ou dans le visible, un microphone, un dispositif portable, un capteur installé dans le véhicule en particulier un élément conducteur placé dans un siège et/ou dans un volant et/ou dans un accoudoir.
[0032] Selon un aspect de l’invention, le système interactif peut comporter au moins une caméra à infra rouges lointains, plusieurs capteurs de signes vitaux et un microphone.
[0033] L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :
mesurer un paramètre lié à un occupant d’un véhicule au moyen d’au moins un capteur, analyser le paramètre au moyen d’une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant, cette donnée correspondant à un score d’index de confort, calculer un index de confort émotionnel à partir dudit score d’index de confort, • actionner un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant pour interagir avec ledit occupant en fonction de l’index de confort émotionnel..
[0034] [fig-1] : la figure 1 est un diagramme schématique d’au moins une partie du procédé selon l’invention,
[0035] [fig.2] : la figure 2 est une représentation schématique d’un espace bidimensionnel
AV utilisé dans une des étapes du procédé de la figure 1,
[0036] [fig.3] : la figure 3 est une représentation schématique de l’étape d’analyse du procédé de la figure 1,
[0037] [fig.4] : la figure 4 est une représentation schématique de l’étape d’analyse du procédé de la figure 1,
[0038] [fig.5] : la figure 5 est une représentation schématique de la cartographie multi sensorielle utilisée dans le procédé de la figure 1,
[0039] [fig.6] : la figure 6 est une représentation schématique de la construction de la cartographie de la figure 5,
[0040] Le système interactif proposé dans l’invention utilise un procédé possédant cinq étapes. Ces cinq étapes représentées schématiquement sur la [fig.l] consistent en :
[0041] une étape de mesures M effectuée par un dispositif de mesure et pendant laquelle un ou plusieurs paramètres concernant le ou les occupants sont récoltés,
[0042] une étape d’analyse A permettant de cartographier l’état émotionnel de l’occupant,
[0043] une étape de calcul C lors de laquelle un index de confort émotionnel CI est déterminé,
[0044] une étape d’action Ac lors de laquelle au moins un stimulus multi sensoriel est appliqué de manière à modifier l’état émotionnel du ou des occupants. Le ou les stimuli sont choisis en fonction de la valeur de l’index de confort émotionnel CI calculé dans l’étape précédente,
[0045] une éventuelle étape d’information Inf lors de laquelle l’occupant est informé de son état émotionnel et des stimuli appliqués.
[0046] Lors de l’étape de mesure M, le dispositif de mesure va acquérir un ou plusieurs paramètres décrivant le statut et donc l’état émotionnel de l’occupant (ce qui est décrit pour un occupant peut bien sûr être appliqué à plusieurs occupants du véhicule simultanément). Des paramètres décrivant l’environnement dans lequel se trouve l’occupant peuvent également être récoltés de manière à en déduire leur effet éventuel sur l’état émotionnel de l’occupant.
[0047] Le dispositif décrit dans les paragraphes précédents est composé d’un ou plusieurs capteurs. Ces capteurs sont préférentiellement des capteurs embarqués dans le véhicule, comme par exemple une ou plusieurs caméras, des capteurs de signes vitaux, un ou plusieurs microphones ou encore des capteurs de contact.
[0048] Dans un mode de réalisation préféré, les mesures sont effectuées par des caméras, en particulier des caméras infrarouges qui prennent des images dans le domaine infrarouge. Ces caméras sont dirigées vers les positions attendues des différents occupants du véhicule : siège conducteur, siège passager, banquette arrière, etc...En particulier, une ou plusieurs caméras très grand angle (par exemple de type « fisheye » ou « œil de poisson » en français) peuvent couvrir plusieurs positions de façon simultanée. Les caméras infrarouges détectent préférentiellement des longueurs d’onde comprises entre 0,7pm et ΙΟΟμηι, préférentiellement 25μιη et ΙΟΟμιη.
[0049] Ces caméras comportent, avantageusement, des caméras infrarouges proches (« NIR » pour « Near Infra Red »), et/ou des caméras infrarouges lointains (« EIR » pour « Ear Infra Red »).
[0050] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes. Les caméra EIR et RGB NIR peuvent être fusionnées pour mieux identifier un endroit fixe sur la caméra RGB plus précise et le suivre sur la caméra EIR.
[0051] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes.
[0052] Comme précisé ci-dessus, le dispositif de mesure permet également de déterminer l’environnement du ou des passagers, celui-ci pouvant influer sur son état émotionnel. Ainsi, des données telles que la température, l’intensité lumineuse, le bruit, la vitesse du véhicule, etc.. .vont pouvoir être récoltées.
[0053] D’autres types de paramètres seront également récupérés au moyen d’autres capteurs. [0054] Le dispositif de mesure comporte au moins un microphone permettant d’enregistrer la voix du ou des passagers.
[0055] Le dispositif de mesure peut également comporter des biocapteurs pouvant détecter des paramètres tels que des composés organiques, des ions, des bactéries, etc...
[0056] Le dispositif de mesure peut aussi être composé de capteurs de signes vitaux. Ceux-ci peuvent par exemple se présenter sous la forme de capteurs sans contact comme par exemple un radar, une caméra, ou encore des éléments portables (montre, chemise, bracelet, etc...).
[0057] Des capteurs de signes vitaux en contact avec le passager peuvent également être utilisés. Ils se présentent, par exemple, sous la forme d’éléments conducteurs installés dans des parties du véhicule (accoudoir, volant, siège, etc...). Ces capteurs de signes vitaux mesurent des paramètres tels que le rythme et/ou la fréquence cardiaque, la fréquence et/ou l’amplitude respiratoire, la conductivité de la peau, les ondes cérébrales, etc...
[0058] Un mode de réalisation préféré utilise un radar de courte portée à ultra large bande. La fréquence du radar peut par exemple être comprise entre 10GHz et ITHz, préférentiellement entre 50GHz et 160GHz.
[0059] L’étape suivante d’analyse A consiste à évaluer et interpréter les paramètres obtenus lors de l’étape de mesure M. Ainsi ces paramètres vont être traduits en une donnée représentative facilement représentée dans un espace bidimensionnel ou espace 2D anvn de caractérisation de l’état émotionnel. Cet espace 2D est représenté sur la [fig.3]. Il est formé d’un premier axe correspondant à la valence vn et d’un deuxième axe correspondant à l’arousal an.
[0060] La valence caractérise le niveau de plaisir ou de désagrément associé à une émotion alors que l’arousal peut être défini comme étant l'intensité des affects et de la réponse générée par cette émotion.
[0061] L’état de contrôle de l’individu peut aussi être évalué à partir de mesures faites sur le véhicule. On parle alors de dominance. L’espace utilisé est alors un espace tridimensionnel et non plus bidimensionnel.
[0062] La [fig.3] illustre le placement de la donnée représentative décrite précédemment, dans l’espace bidimensionnel anvn. Cette donnée varie au cours du temps passé par l’occupant dans le véhicule. Ainsi, une première donnée représentative est fournie pour un temps tO alors que la donnée représentative correspondant au présent est illustrée par tactual. Des mesures en continu sont de préférence effectuées, de manière à obtenir la courbe représentée sur la [figure 3]. Toutefois, des mesures discrètes peuvent également être réalisées.
[0063] L’état émotionnel de l’occupant en fonction du placement de la donnée représentative sur l’espace 2D anvn peut alors être donné.
[0064] Un exemple de la cartographie décrite précédemment, est représenté sur la [fig.4]. Cette cartographie de l’état émotionnel de l’occupant va ensuite être corrélée à une ou
[0065]
[0066]
[0067]
[0068]
[0069]
[0070]
[0071]
[0072]
[0073] plusieurs cartographies correspondant à différents stimuli. Ces stimuli sont basés sur les cinq sens : vue, odorat, goût, toucher, ouïe. Les cartographies correspondant à chacun des cinq sens sont représentées sur la figure 5.
La cartographie des cinq sens s’effectue en trois étapes illustrées sur la [fig.6]. En effet, les réglages initiaux du véhicule peuvent être décrits comme étant ceux correspondant à l’état émotionnel primaire de l’occupant, c'est-à-dire un état émotionnel ou l’occupant réagi de manière primaire.
La cartographie est ensuite modifiée en prenant en compte l’impact de la culture et/ ou de l’éducation de l’occupant. Cette étape peut, par exemple, être effectuée par apprentissage profond (ou « deep leaming » en anglais), permettant d’obtenir un profil utilisateur pour chaque occupant.
La dernière étape dans la construction de la cartographie, concerne l’impact de la vie personnelle et/ou de l’expérience de l’occupant. Cette étape se fait de préférence, par apprentissage statistique (ou « machine leaming » en anglais) permettant ainsi d’adapter en temps réel la cartographie.
L’étape de calcul C de l’index de confort émotionnel CI est effectuée grâce à plusieurs mesures du score de l’index de confort CISn pouvant être déduit de la donnée représentative décrite précédemment et donc des valeurs de la valence vn et de l’arousal an à un temps donné.
Le score CISn est calculé à partir d’une fonction dont les variables sont la valence vn et l’arousal an>représentant respectivement le vécu positif ou négatif de l’occupant, ainsi que l’importance dudit vécu.
Le score de l’index de confort CISn peut être calculé à partir de la formule suivante : V ;1 + ( 3 X Cl ri ) dans laquelle vn est la valence, et an est l’arousal.
CIS n = 2 >
Cependant, le score de l’index de confort CISn peut être calculé à partir d’une formule plus complexe fonction de la valence vn et de l’arousal an.
L’index de confort émotionnel CI peut alors être calculé à partir de la moyenne de différents scores CISn calculés pour des temps donnés. Celui-ci se déduit de la formule suivante :
CI = dans laquelle CI est l’index de confort émotionnel et CISn est le score de l’index de confort obtenu à un temps n.
Plusieurs évaluations successives, préférentiellement des évaluations effectuées de manière discrète, sont réalisées à partir de mesures faites dans le véhicule sur une durée pouvant, par exemple, être comprise, entre 0,1 sec et 5 sec. La période d’échantillonnage peut, par exemple, être comprise entre 10 millisecondes et 300 millisecondes.
[0074] L’étape d’action Ac représentée sur la [fig. 1], correspond à l’application d’un ou plusieurs stimuli. Le choix du stimulus dépend de l’effet désiré. Après avoir calculé l’index de confort émotionnel comme expliqué précédemment, différents types d’actions peuvent être sélectionnées.
[0075] Les stimuli multisensoriels utilisés peuvent, par exemple, être :
[0076] Pour la vue : utilisation de l’éclairage intérieur avec différentes couleurs et/ou de différentes intensités,
[0077] Pour l’odorat : utilisation d’un diffuseur de parfum, d’huiles essentielles ou encore de phéromones,
[0078] Pour le toucher : utilisation de panneaux radiants, nébulisation d’eau, utilisation de jets d’air chauds et/ou froids,
[0079] Pour l’ouïe : sélection de musiques ou de bruits d’ambiance,
[0080] Pour le goût : diffusion de parfum ou nébulisation pouvant créer des phéromones évoquant les cinq saveurs principales (salé, acide, amer, sucré, umami).
[0081] Il peut exister des moyens d’affichage permettant d’informer l’occupant sur son état émotionnel. Le système interactif peut posséder un ou plusieurs moyens d’affichage. Celui-ci peut se présenter, par exemple, sous la forme d’un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise et/ou un téléphone portable.
[0082] Le moyen d’affichage peut également se présenter sous la forme d’un texte et/ou d’une couleur et/ou d’un son et/ou d’une vibration.
Claims (1)
-
Revendications [Revendication 1] Système interactif avec un occupant d’un véhicule automobile comportant: • un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, • une unité de traitement embarquée agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, ladite donnée représentative étant un score d’index de confort (CISn) dudit occupant, • la donnée représentative correspondant à un point dans un espace bidimensionnel (anvn) de caractérisation de l’état émotionnel de l’occupant, • caractérisé en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative, • et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant. [Revendication 2] Système interactif selon la revendication 1, caractérisé en ce que l’index de confort émotionnel (CI) est calculé en utilisant la formule : CI= [Σ^/Sn] / n CI étant l’index de confort émotionnel et CISn étant un score de l’index de confort déterminé à un temps n. [Revendication 3] Système interactif selon la revendication 2, caractérisé en ce que le score de l’index de confort est une fonction de la valence (vn) et de l’arousal (an). [Revendication 4] Système interactif selon la revendication précédente, caractérisé en ce que le score de l’index de confort est calculé à partir de la formule suivante : _ T v „ + ( 3 x a „ ) t ç7 __ ri \ ri. / L ?? — 2 [Revendication 5] Système interactif selon l’une des revendications précédentes, caractérisé en ce que les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouge. [Revendication 6] Système interactif selon la revendication précédente, caractérisé en ce que le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz. [Revendication 7] Système interactif selon l’une des revendications 5 ou 6, caractérisé en ce que la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm. [Revendication 8] Système interactif selon l’une des revendications précédentes, caractérisé en ce que l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière. [Revendication 9] Système interactif selon l’une des revendications précédentes, caractérisé en ce qu’il possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion. [Revendication 10] Procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à : • mesurer (M) un paramètre lié à un occupant d’un véhicule au moyen d’au moins un capteur, • analyser (A) le paramètre au moyen d’une unité de traitement et déterminer un score de l’index de confort (CIS) de l’état émotionnel de l’occupant, • calculer (C) un index de confort émotionnel (CI) à partir du score de l’index de confort (CISn), • actionner (Ac) un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant pour interagir avec ledit occupant en fonction de l’index de confort émotionnel. 1/2
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1900118A FR3091603B1 (fr) | 2019-01-07 | 2019-01-07 | Système interactif |
US17/420,868 US11970059B2 (en) | 2019-01-07 | 2020-01-06 | Interactive system |
PCT/FR2020/050012 WO2020144424A1 (fr) | 2019-01-07 | 2020-01-06 | Systeme interactif |
CN202080007703.0A CN113260955A (zh) | 2019-01-07 | 2020-01-06 | 交互系统 |
EP20705404.0A EP3908911A1 (fr) | 2019-01-07 | 2020-01-06 | Systeme interactif |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1900118A FR3091603B1 (fr) | 2019-01-07 | 2019-01-07 | Système interactif |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3091603A1 true FR3091603A1 (fr) | 2020-07-10 |
FR3091603B1 FR3091603B1 (fr) | 2022-01-21 |
Family
ID=67383852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1900118A Active FR3091603B1 (fr) | 2019-01-07 | 2019-01-07 | Système interactif |
Country Status (5)
Country | Link |
---|---|
US (1) | US11970059B2 (fr) |
EP (1) | EP3908911A1 (fr) |
CN (1) | CN113260955A (fr) |
FR (1) | FR3091603B1 (fr) |
WO (1) | WO2020144424A1 (fr) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113212337A (zh) * | 2021-06-01 | 2021-08-06 | 北京现代汽车有限公司 | 座舱控制方法、系统及车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7431120B2 (en) * | 2004-02-12 | 2008-10-07 | Bayerische Motoren Werke Aktiengesellschaft | Operating method for vehicles |
US20120143391A1 (en) * | 2010-12-03 | 2012-06-07 | Continental Automotive Systems, Inc. | Tailoring vehicle human machine interface |
US20150048178A1 (en) * | 2013-03-15 | 2015-02-19 | David A. Edwards | Systems, methods and articles to provide olfactory sensations |
US20160104486A1 (en) * | 2011-04-22 | 2016-04-14 | Angel A. Penilla | Methods and Systems for Communicating Content to Connected Vehicle Users Based Detected Tone/Mood in Voice Input |
US20180052964A1 (en) * | 2016-08-16 | 2018-02-22 | Resolve Digital Health Inc. | Digital Health Ecosystem |
US20180225551A1 (en) * | 2017-02-08 | 2018-08-09 | Lp-Research Inc. | Machine learning for olfactory mood alteration |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101006191B1 (ko) | 2002-08-06 | 2011-01-07 | 윤재민 | 가상인격체의 감정표현과 동작구현방법 |
JP2008068664A (ja) | 2006-09-12 | 2008-03-27 | Fujitsu Ten Ltd | 車両制御装置および車両制御方法 |
US20120059268A1 (en) * | 2010-08-02 | 2012-03-08 | Tupin Jr Joe P | Ultra wideband (uwb) baby monitors for detection of infant cardiopulmonary distress |
KR101508059B1 (ko) * | 2013-06-26 | 2015-04-07 | 숭실대학교산학협력단 | 단어의 쾌-불쾌 지수 예측 장치 및 방법 |
US9792084B2 (en) | 2015-01-02 | 2017-10-17 | Gracenote, Inc. | Machine-led mood change |
DE102015200775A1 (de) | 2015-01-20 | 2016-07-21 | Bayerische Motoren Werke Aktiengesellschaft | Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung |
CN106293383A (zh) * | 2015-06-19 | 2017-01-04 | 奥迪股份公司 | 用于控制机动车辆的界面装置的方法 |
CN106652378A (zh) * | 2015-11-02 | 2017-05-10 | 比亚迪股份有限公司 | 用于车辆的驾驶提醒方法、系统、服务器和车辆 |
-
2019
- 2019-01-07 FR FR1900118A patent/FR3091603B1/fr active Active
-
2020
- 2020-01-06 CN CN202080007703.0A patent/CN113260955A/zh active Pending
- 2020-01-06 US US17/420,868 patent/US11970059B2/en active Active
- 2020-01-06 WO PCT/FR2020/050012 patent/WO2020144424A1/fr unknown
- 2020-01-06 EP EP20705404.0A patent/EP3908911A1/fr active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7431120B2 (en) * | 2004-02-12 | 2008-10-07 | Bayerische Motoren Werke Aktiengesellschaft | Operating method for vehicles |
US20120143391A1 (en) * | 2010-12-03 | 2012-06-07 | Continental Automotive Systems, Inc. | Tailoring vehicle human machine interface |
US20160104486A1 (en) * | 2011-04-22 | 2016-04-14 | Angel A. Penilla | Methods and Systems for Communicating Content to Connected Vehicle Users Based Detected Tone/Mood in Voice Input |
US20150048178A1 (en) * | 2013-03-15 | 2015-02-19 | David A. Edwards | Systems, methods and articles to provide olfactory sensations |
US20180052964A1 (en) * | 2016-08-16 | 2018-02-22 | Resolve Digital Health Inc. | Digital Health Ecosystem |
US20180225551A1 (en) * | 2017-02-08 | 2018-08-09 | Lp-Research Inc. | Machine learning for olfactory mood alteration |
Non-Patent Citations (2)
Title |
---|
ANONYMOUS: "Emotion classification - Wikipedia", 28 November 2018 (2018-11-28), XP055638709, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Emotion_classification&oldid=871066882> [retrieved on 20191104] * |
MAHLER M ET AL: "Radar Sensors to Determine Position and Physiological Parameters of a Person in a Vehicle", MICROWAVE CONFERENCE, 2002. 32ND EUROPEAN, IEEE, PISCATAWAY, NJ, USA, 23 September 2002 (2002-09-23), pages 1 - 4, XP031606257 * |
Also Published As
Publication number | Publication date |
---|---|
FR3091603B1 (fr) | 2022-01-21 |
WO2020144424A1 (fr) | 2020-07-16 |
CN113260955A (zh) | 2021-08-13 |
US11970059B2 (en) | 2024-04-30 |
US20220063408A1 (en) | 2022-03-03 |
EP3908911A1 (fr) | 2021-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020104742A1 (fr) | Système interactif avec un occupant d'un vehicule automobile | |
Wood et al. | Remembering together: The importance of shared emotional memory in event experiences | |
KR102045569B1 (ko) | 조종사 상태의 통합 감시 제어 장치 및 이를 이용한 조종사의 임무 수행 능력 유도 방법 | |
WO2017149045A1 (fr) | Dispositif et méthode de surveillance personnalisés d'un conducteur d'un véhicule automobile | |
EP2795270A2 (fr) | Methode de cotation du bruit des freins d'un vehicule automobile | |
EP3882097A1 (fr) | Techniques pour séparer l'émotion de conduite de l'émotion induite par les supports dans un système de surveillance de conducteur | |
FR3038770A1 (fr) | Systeme de surveillance de l'etat de vigilance d'un operateur | |
EP3908911A1 (fr) | Systeme interactif | |
JP7080657B2 (ja) | 感情識別装置 | |
FR3099610A1 (fr) | Dispositif d’evaluation d’emotion | |
JP7183782B2 (ja) | 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム | |
FR2998159A1 (fr) | Procede et systeme de gestion du stress d'un conducteur de vehicule automobile | |
EP3274809A1 (fr) | Procédé de commande, dispositif de commande, système et véhicule automobile comprenant un tel dispositif de commande | |
US20230129746A1 (en) | Cognitive load predictor and decision aid | |
EP3492015A1 (fr) | Dispositif et procede de detection d'emotion | |
FR3104283A1 (fr) | Système interactif et procédé d’interaction associé | |
FR3104284A1 (fr) | Système interactif et procédé d’interaction associé | |
WO2022017737A1 (fr) | Système interactif et procédé d'interaction associé | |
Rundo et al. | Advanced temporal dilated convolutional neural network for a robust car driver identification | |
WO2021053632A1 (fr) | Système de détermination d'une émotion d'un utilisateur | |
FR3112222A1 (fr) | Système interactif, notamment pour véhicule automobile | |
EP4121969A1 (fr) | Technique permettant de fournir à un utilisateur un service adapté à l'utilisateur | |
FR3106008A1 (fr) | Procédé de commande d’équipements d’un habitacle d’un véhicule et dispositifs associés | |
Bioulac, MD, PhD | Trouble Déficit de l’Attention/Hyperactivité et Technologies de l’Information et de la Communication | |
FR3115976A1 (fr) | Dispositif de traitement de l’information et procédé de détermination d’état biologique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20200710 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |