FR3091603A1 - Système interactif - Google Patents

Système interactif Download PDF

Info

Publication number
FR3091603A1
FR3091603A1 FR1900118A FR1900118A FR3091603A1 FR 3091603 A1 FR3091603 A1 FR 3091603A1 FR 1900118 A FR1900118 A FR 1900118A FR 1900118 A FR1900118 A FR 1900118A FR 3091603 A1 FR3091603 A1 FR 3091603A1
Authority
FR
France
Prior art keywords
occupant
comfort index
interactive system
emotional
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1900118A
Other languages
English (en)
Other versions
FR3091603B1 (fr
Inventor
Georges DE-PELSEMAEKER
Antoine BOILEVIN
Hamid BESSAA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Systemes Thermiques SAS
Original Assignee
Valeo Systemes Thermiques SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Systemes Thermiques SAS filed Critical Valeo Systemes Thermiques SAS
Priority to FR1900118A priority Critical patent/FR3091603B1/fr
Priority to US17/420,868 priority patent/US11970059B2/en
Priority to PCT/FR2020/050012 priority patent/WO2020144424A1/fr
Priority to CN202080007703.0A priority patent/CN113260955A/zh
Priority to EP20705404.0A priority patent/EP3908911A1/fr
Publication of FR3091603A1 publication Critical patent/FR3091603A1/fr
Application granted granted Critical
Publication of FR3091603B1 publication Critical patent/FR3091603B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H3/00Other air-treating devices
    • B60H3/0007Adding substances other than water to the air, e.g. perfume, oxygen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/80Circuits; Control arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

L’invention concerne un système interactif avec un occupant d’un véhicule automobile comportant: un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule,une unité de traitement embarquée agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, ladite donnée représentative étant un score d’index de confort (CISn) dudit occupant,la donnée représentative correspondant à un point dans un espace bidimensionnel (anvn) de caractérisation de l’état émotionnel de l’occupant,caractérisé en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative,et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant. Figure pour l’abrégé : Figure 1

Description

Description
Titre de l'invention : Système interactif
[0001] L’invention concerne un système interactif avec un occupant d’un véhicule automobile. L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile.
[0002] Le passage à la voiture autonome présente de plus en plus de challenges quant à la création d’un véhicule empathique qui permettra de rendre la conduite et/ou le voyage plus agréable. Les progrès restants peuvent être regroupés en trois axes regroupant la sécurité, le confort et le divertissement.
[0003] Des exemples de systèmes existant permettent d’évaluer l’état émotionnel d’un occupant d’un véhicule automobile. Il est en effet connu d’effectuer des mesures permettant de déterminer différents paramètres concernant un occupant, et ainsi en déduire une donnée représentative de son état émotionnel.
[0004] De manière générale, les mesures peuvent être effectuées grâce à des dispositifs portables permettant de récolter des données telle que la conductivité de la peau, la température, ou encore le rythme cardiaque. Le système utilisé comporte si possible une caméra, par exemple de type GoPro® ou encore une webcam. Un tel dispositif permet d’effectuer une reconnaissance faciale de l’occupant et ainsi adapter le système interactif.
[0005] Dans les systèmes connus, les paramètres obtenus sont ensuite utilisés pour déterminer l’état émotionnel de l’occupant. Un modèle connu consiste à obtenir, à partir des différents paramètres, une cartographie de l’état émotionnel du passager. Ainsi, celui-ci peut, par exemple, être représenté par un point dans un espace à deux dimensions formé d’un axe des abscisses correspondant à la valence (qualité intrinsèquement agréable ou désagréable d’un stimulus ou d’une situation) et un axe des ordonnées correspondant à l’arousal (force du stimulus émotionnel).
[0006] L’invention vise à améliorer les systèmes connus en proposant un système interactif permettant d’évaluer l’état émotionnel d’un occupant d’un véhicule, en utilisant un index émotionnel permettant de déterminer facilement le ou les stimuli à appliquer sur ledit occupant et ainsi avoir un impact sur la sécurité et/ou le confort et/ou le divertissement de ou des occupants du véhicule.
[0007] L’invention a pour objet un système interactif avec un occupant d’un véhicule automobile comportant: Système interactif avec un occupant d’un véhicule automobile comportant:
• un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, • une unité de traitement embarquée agencée pour recevoir ledit paramètre et utilisant la formule/ q = X ” C/S définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, • la donnée représentative correspondant à un point dans un espace bidimensionnel de caractérisation de l’état émotionnel de l’occupant.
[0008] Cette invention est remarquable en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant.
[0009] Selon un aspect de l’invention, l’index de confort émotionnel peut être calculé en / n , CI étant l’index de confort / n émotionnel et CISn étant un score de l’index de confort déterminé à un temps n.
[0010] Selon un aspect de l’invention, le score de l’index de confort est une fonction de la valence et de l’arousal.
[0011] Selon un autre aspect de l’invention, le score de l’index de confort est calculé à partir de la formule suivante : V„ + ( 3 X ) vn étant la valence et an
C. 12 , l’arousal, CISn étant un score d’index de confort déterminé à un temps n.
[0012] Selon un aspect de l’invention, n est compris entre 10 millisecondes et 300 millisecondes.
[0013] Selon un autre aspect de l’invention, les valeurs du score d’index de confort sont récoltées pendant une durée comprise entre 0,1 secondes et 30 secondes, particulièrement 0,1 secondes et 5 secondes.
[0014] Selon un autre aspect de l’invention, les capteurs sont composés d’au moins un radar à ultra large bande et d’une caméra infrarouge.
[0015] Selon un aspect de l’invention, le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz.
[0016] Selon un aspect de l’invention, la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm.
[0017] Selon un aspect de l’invention, l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière.
[0018] Selon un aspect de l’invention, le système interactif possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion.
[0019] Selon un aspect de l’invention, la boucle d’apprentissage permet de créer une base de données.
[0020] Selon un aspect de l’invention, le système interactif comporte au moins un moyen d’affichage, particulièrement une interface utilisateur.
[0021] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise.
[0022] Selon un aspect de l’invention, l’au moins un moyen d’affichage peut être un texte et/ou une couleur et/ou un son et/ou une vibration.
[0023] Selon un aspect de l’invention, la donnée représentative est prétraitée avant d’activer l’au moins un stimulus multi sensoriel.
[0024] Selon un aspect de l’invention, la donnée représentative placée dans l’espace 3D va être corrélée à une ou plusieurs cartographies correspondant à différents stimuli.
[0025] Selon un aspect de l’invention, le prétraitement consiste prendre en compte des données supplémentaires, en particulier la culture et/ou l’éducation de l’occupant et/ou la vie et expérience personnelle dudit occupant, et/ou l’âge et/ou le genre et/ou le type d’habillement.
[0026] Selon un aspect de l’invention, les données supplémentaires peuvent être déterminées au moyen d’un système de mesures autonome permettant la mesure de la qualité de l’air et/ou de la pollution, et/ou des microparticules et/ou des allergènes et/ou de l’environnement sonore et/ou de l’environnement lumineux et/ou de la température et/ ou du taux d’humidité.
[0027] Selon un aspect de l’invention, le modèle d’évaluation est créé au moyen d’une intelligence artificielle.
[0028] Selon un aspect de l’invention, le stimulus multi sensoriel permet une modification de l’état émotionnel de l’occupant.
[0029] Selon un aspect de l’invention, le stimulus multi sensoriel permet une remédiation de l’état émotionnel de l’occupant.
[0030] Selon un aspect de l’invention, le stimulus multi sensoriel permet une amplification de l’état émotionnel de l’occupant.
[0031] Selon un aspect de l’invention, l’au moins un capteur peut être choisi parmi : une caméra, en particulier à infra rouges lointains et/ou à proches infra rouges et/ou dans le visible, un microphone, un dispositif portable, un capteur installé dans le véhicule en particulier un élément conducteur placé dans un siège et/ou dans un volant et/ou dans un accoudoir.
[0032] Selon un aspect de l’invention, le système interactif peut comporter au moins une caméra à infra rouges lointains, plusieurs capteurs de signes vitaux et un microphone.
[0033] L’invention concerne également un procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à :
mesurer un paramètre lié à un occupant d’un véhicule au moyen d’au moins un capteur, analyser le paramètre au moyen d’une unité de traitement et déterminer une donnée représentative de l’état émotionnel de l’occupant, cette donnée correspondant à un score d’index de confort, calculer un index de confort émotionnel à partir dudit score d’index de confort, • actionner un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant pour interagir avec ledit occupant en fonction de l’index de confort émotionnel..
[0034] [fig-1] : la figure 1 est un diagramme schématique d’au moins une partie du procédé selon l’invention,
[0035] [fig.2] : la figure 2 est une représentation schématique d’un espace bidimensionnel
AV utilisé dans une des étapes du procédé de la figure 1,
[0036] [fig.3] : la figure 3 est une représentation schématique de l’étape d’analyse du procédé de la figure 1,
[0037] [fig.4] : la figure 4 est une représentation schématique de l’étape d’analyse du procédé de la figure 1,
[0038] [fig.5] : la figure 5 est une représentation schématique de la cartographie multi sensorielle utilisée dans le procédé de la figure 1,
[0039] [fig.6] : la figure 6 est une représentation schématique de la construction de la cartographie de la figure 5,
[0040] Le système interactif proposé dans l’invention utilise un procédé possédant cinq étapes. Ces cinq étapes représentées schématiquement sur la [fig.l] consistent en :
[0041] une étape de mesures M effectuée par un dispositif de mesure et pendant laquelle un ou plusieurs paramètres concernant le ou les occupants sont récoltés,
[0042] une étape d’analyse A permettant de cartographier l’état émotionnel de l’occupant,
[0043] une étape de calcul C lors de laquelle un index de confort émotionnel CI est déterminé,
[0044] une étape d’action Ac lors de laquelle au moins un stimulus multi sensoriel est appliqué de manière à modifier l’état émotionnel du ou des occupants. Le ou les stimuli sont choisis en fonction de la valeur de l’index de confort émotionnel CI calculé dans l’étape précédente,
[0045] une éventuelle étape d’information Inf lors de laquelle l’occupant est informé de son état émotionnel et des stimuli appliqués.
[0046] Lors de l’étape de mesure M, le dispositif de mesure va acquérir un ou plusieurs paramètres décrivant le statut et donc l’état émotionnel de l’occupant (ce qui est décrit pour un occupant peut bien sûr être appliqué à plusieurs occupants du véhicule simultanément). Des paramètres décrivant l’environnement dans lequel se trouve l’occupant peuvent également être récoltés de manière à en déduire leur effet éventuel sur l’état émotionnel de l’occupant.
[0047] Le dispositif décrit dans les paragraphes précédents est composé d’un ou plusieurs capteurs. Ces capteurs sont préférentiellement des capteurs embarqués dans le véhicule, comme par exemple une ou plusieurs caméras, des capteurs de signes vitaux, un ou plusieurs microphones ou encore des capteurs de contact.
[0048] Dans un mode de réalisation préféré, les mesures sont effectuées par des caméras, en particulier des caméras infrarouges qui prennent des images dans le domaine infrarouge. Ces caméras sont dirigées vers les positions attendues des différents occupants du véhicule : siège conducteur, siège passager, banquette arrière, etc...En particulier, une ou plusieurs caméras très grand angle (par exemple de type « fisheye » ou « œil de poisson » en français) peuvent couvrir plusieurs positions de façon simultanée. Les caméras infrarouges détectent préférentiellement des longueurs d’onde comprises entre 0,7pm et ΙΟΟμηι, préférentiellement 25μιη et ΙΟΟμιη.
[0049] Ces caméras comportent, avantageusement, des caméras infrarouges proches (« NIR » pour « Near Infra Red »), et/ou des caméras infrarouges lointains (« EIR » pour « Ear Infra Red »).
[0050] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes. Les caméra EIR et RGB NIR peuvent être fusionnées pour mieux identifier un endroit fixe sur la caméra RGB plus précise et le suivre sur la caméra EIR.
[0051] Les images issues des caméras infrarouges proches peuvent par exemple servir à délimiter la position, dimensions et mouvements de différentes parties du corps d'un occupant du véhicule. Les images issues des caméras infrarouges lointains peuvent par exemple servir à identifier les parties du corps de l'occupant échangeant le plus de chaleur avec l'habitacle, par exemple la tête et les mains, qui ne sont pas recouvertes de vêtements et apparaîtront ainsi plus chaudes.
[0052] Comme précisé ci-dessus, le dispositif de mesure permet également de déterminer l’environnement du ou des passagers, celui-ci pouvant influer sur son état émotionnel. Ainsi, des données telles que la température, l’intensité lumineuse, le bruit, la vitesse du véhicule, etc.. .vont pouvoir être récoltées.
[0053] D’autres types de paramètres seront également récupérés au moyen d’autres capteurs. [0054] Le dispositif de mesure comporte au moins un microphone permettant d’enregistrer la voix du ou des passagers.
[0055] Le dispositif de mesure peut également comporter des biocapteurs pouvant détecter des paramètres tels que des composés organiques, des ions, des bactéries, etc...
[0056] Le dispositif de mesure peut aussi être composé de capteurs de signes vitaux. Ceux-ci peuvent par exemple se présenter sous la forme de capteurs sans contact comme par exemple un radar, une caméra, ou encore des éléments portables (montre, chemise, bracelet, etc...).
[0057] Des capteurs de signes vitaux en contact avec le passager peuvent également être utilisés. Ils se présentent, par exemple, sous la forme d’éléments conducteurs installés dans des parties du véhicule (accoudoir, volant, siège, etc...). Ces capteurs de signes vitaux mesurent des paramètres tels que le rythme et/ou la fréquence cardiaque, la fréquence et/ou l’amplitude respiratoire, la conductivité de la peau, les ondes cérébrales, etc...
[0058] Un mode de réalisation préféré utilise un radar de courte portée à ultra large bande. La fréquence du radar peut par exemple être comprise entre 10GHz et ITHz, préférentiellement entre 50GHz et 160GHz.
[0059] L’étape suivante d’analyse A consiste à évaluer et interpréter les paramètres obtenus lors de l’étape de mesure M. Ainsi ces paramètres vont être traduits en une donnée représentative facilement représentée dans un espace bidimensionnel ou espace 2D anvn de caractérisation de l’état émotionnel. Cet espace 2D est représenté sur la [fig.3]. Il est formé d’un premier axe correspondant à la valence vn et d’un deuxième axe correspondant à l’arousal an.
[0060] La valence caractérise le niveau de plaisir ou de désagrément associé à une émotion alors que l’arousal peut être défini comme étant l'intensité des affects et de la réponse générée par cette émotion.
[0061] L’état de contrôle de l’individu peut aussi être évalué à partir de mesures faites sur le véhicule. On parle alors de dominance. L’espace utilisé est alors un espace tridimensionnel et non plus bidimensionnel.
[0062] La [fig.3] illustre le placement de la donnée représentative décrite précédemment, dans l’espace bidimensionnel anvn. Cette donnée varie au cours du temps passé par l’occupant dans le véhicule. Ainsi, une première donnée représentative est fournie pour un temps tO alors que la donnée représentative correspondant au présent est illustrée par tactual. Des mesures en continu sont de préférence effectuées, de manière à obtenir la courbe représentée sur la [figure 3]. Toutefois, des mesures discrètes peuvent également être réalisées.
[0063] L’état émotionnel de l’occupant en fonction du placement de la donnée représentative sur l’espace 2D anvn peut alors être donné.
[0064] Un exemple de la cartographie décrite précédemment, est représenté sur la [fig.4]. Cette cartographie de l’état émotionnel de l’occupant va ensuite être corrélée à une ou
[0065]
[0066]
[0067]
[0068]
[0069]
[0070]
[0071]
[0072]
[0073] plusieurs cartographies correspondant à différents stimuli. Ces stimuli sont basés sur les cinq sens : vue, odorat, goût, toucher, ouïe. Les cartographies correspondant à chacun des cinq sens sont représentées sur la figure 5.
La cartographie des cinq sens s’effectue en trois étapes illustrées sur la [fig.6]. En effet, les réglages initiaux du véhicule peuvent être décrits comme étant ceux correspondant à l’état émotionnel primaire de l’occupant, c'est-à-dire un état émotionnel ou l’occupant réagi de manière primaire.
La cartographie est ensuite modifiée en prenant en compte l’impact de la culture et/ ou de l’éducation de l’occupant. Cette étape peut, par exemple, être effectuée par apprentissage profond (ou « deep leaming » en anglais), permettant d’obtenir un profil utilisateur pour chaque occupant.
La dernière étape dans la construction de la cartographie, concerne l’impact de la vie personnelle et/ou de l’expérience de l’occupant. Cette étape se fait de préférence, par apprentissage statistique (ou « machine leaming » en anglais) permettant ainsi d’adapter en temps réel la cartographie.
L’étape de calcul C de l’index de confort émotionnel CI est effectuée grâce à plusieurs mesures du score de l’index de confort CISn pouvant être déduit de la donnée représentative décrite précédemment et donc des valeurs de la valence vn et de l’arousal an à un temps donné.
Le score CISn est calculé à partir d’une fonction dont les variables sont la valence vn et l’arousal an>représentant respectivement le vécu positif ou négatif de l’occupant, ainsi que l’importance dudit vécu.
Le score de l’index de confort CISn peut être calculé à partir de la formule suivante : V ;1 + ( 3 X Cl ri ) dans laquelle vn est la valence, et an est l’arousal.
CIS n = 2 >
Cependant, le score de l’index de confort CISn peut être calculé à partir d’une formule plus complexe fonction de la valence vn et de l’arousal an.
L’index de confort émotionnel CI peut alors être calculé à partir de la moyenne de différents scores CISn calculés pour des temps donnés. Celui-ci se déduit de la formule suivante :
CI = dans laquelle CI est l’index de confort émotionnel et CISn est le score de l’index de confort obtenu à un temps n.
Plusieurs évaluations successives, préférentiellement des évaluations effectuées de manière discrète, sont réalisées à partir de mesures faites dans le véhicule sur une durée pouvant, par exemple, être comprise, entre 0,1 sec et 5 sec. La période d’échantillonnage peut, par exemple, être comprise entre 10 millisecondes et 300 millisecondes.
[0074] L’étape d’action Ac représentée sur la [fig. 1], correspond à l’application d’un ou plusieurs stimuli. Le choix du stimulus dépend de l’effet désiré. Après avoir calculé l’index de confort émotionnel comme expliqué précédemment, différents types d’actions peuvent être sélectionnées.
[0075] Les stimuli multisensoriels utilisés peuvent, par exemple, être :
[0076] Pour la vue : utilisation de l’éclairage intérieur avec différentes couleurs et/ou de différentes intensités,
[0077] Pour l’odorat : utilisation d’un diffuseur de parfum, d’huiles essentielles ou encore de phéromones,
[0078] Pour le toucher : utilisation de panneaux radiants, nébulisation d’eau, utilisation de jets d’air chauds et/ou froids,
[0079] Pour l’ouïe : sélection de musiques ou de bruits d’ambiance,
[0080] Pour le goût : diffusion de parfum ou nébulisation pouvant créer des phéromones évoquant les cinq saveurs principales (salé, acide, amer, sucré, umami).
[0081] Il peut exister des moyens d’affichage permettant d’informer l’occupant sur son état émotionnel. Le système interactif peut posséder un ou plusieurs moyens d’affichage. Celui-ci peut se présenter, par exemple, sous la forme d’un dispositif portable, en particulier une montre et/ou des lunettes et/ou un bracelet et/ou une ceinture et/ou une chemise et/ou un téléphone portable.
[0082] Le moyen d’affichage peut également se présenter sous la forme d’un texte et/ou d’une couleur et/ou d’un son et/ou d’une vibration.

Claims (1)

  1. Revendications [Revendication 1] Système interactif avec un occupant d’un véhicule automobile comportant: • un dispositif de mesure comprenant au moins un capteur agencé pour acquérir au moins un paramètre lié à l’occupant dudit véhicule, • une unité de traitement embarquée agencée pour recevoir ledit paramètre et définir une donnée représentative de l’état émotionnel dudit occupant au moyen dudit modèle, ladite donnée représentative étant un score d’index de confort (CISn) dudit occupant, • la donnée représentative correspondant à un point dans un espace bidimensionnel (anvn) de caractérisation de l’état émotionnel de l’occupant, • caractérisé en ce qu’un index de confort émotionnel est calculé à partir de la donnée représentative, • et qu’au moins un actionneur est configuré pour activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant. [Revendication 2] Système interactif selon la revendication 1, caractérisé en ce que l’index de confort émotionnel (CI) est calculé en utilisant la formule : CI= [Σ^/Sn] / n CI étant l’index de confort émotionnel et CISn étant un score de l’index de confort déterminé à un temps n. [Revendication 3] Système interactif selon la revendication 2, caractérisé en ce que le score de l’index de confort est une fonction de la valence (vn) et de l’arousal (an). [Revendication 4] Système interactif selon la revendication précédente, caractérisé en ce que le score de l’index de confort est calculé à partir de la formule suivante : _ T v „ + ( 3 x a „ ) t ç7 __ ri \ ri. / L ?? — 2 [Revendication 5] Système interactif selon l’une des revendications précédentes, caractérisé en ce que les capteurs sont composés d’au moins un radar à
    ultra large bande et d’une caméra infrarouge. [Revendication 6] Système interactif selon la revendication précédente, caractérisé en ce que le radar à ultra large bande a une fréquence comprise entre 10GHz et ITHz, en particulier entre 50GHz et 160GHz. [Revendication 7] Système interactif selon l’une des revendications 5 ou 6, caractérisé en ce que la caméra infrarouge détecte des longueurs d’onde comprises entre 0,7pm et 100 pm, en particulier entre 25pm et lOOpm. [Revendication 8] Système interactif selon l’une des revendications précédentes, caractérisé en ce que l’au moins un stimulus multi sensoriel est un parfum et/ou des huiles essentielles et/ou un nébuliseur et/ou un éclairage et/ou un son et/ou une musique et/ou une vibration et/ou un massage et /ou un flux d’air et/ou de la lumière. [Revendication 9] Système interactif selon l’une des revendications précédentes, caractérisé en ce qu’il possède une boucle d’apprentissage permettant d’améliorer le traitement du modèle d’évaluation de l’émotion. [Revendication 10] Procédé d’interaction avec un occupant d’un véhicule automobile comportant les étapes consistant à : • mesurer (M) un paramètre lié à un occupant d’un véhicule au moyen d’au moins un capteur, • analyser (A) le paramètre au moyen d’une unité de traitement et déterminer un score de l’index de confort (CIS) de l’état émotionnel de l’occupant, • calculer (C) un index de confort émotionnel (CI) à partir du score de l’index de confort (CISn), • actionner (Ac) un actionneur de manière à activer au moins un stimulus multi sensoriel pour interagir avec l’occupant, ledit stimulus permettant de modifier l’état émotionnel dudit occupant pour interagir avec ledit occupant en fonction de l’index de confort émotionnel.
    1/2
FR1900118A 2019-01-07 2019-01-07 Système interactif Active FR3091603B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1900118A FR3091603B1 (fr) 2019-01-07 2019-01-07 Système interactif
US17/420,868 US11970059B2 (en) 2019-01-07 2020-01-06 Interactive system
PCT/FR2020/050012 WO2020144424A1 (fr) 2019-01-07 2020-01-06 Systeme interactif
CN202080007703.0A CN113260955A (zh) 2019-01-07 2020-01-06 交互系统
EP20705404.0A EP3908911A1 (fr) 2019-01-07 2020-01-06 Systeme interactif

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1900118A FR3091603B1 (fr) 2019-01-07 2019-01-07 Système interactif

Publications (2)

Publication Number Publication Date
FR3091603A1 true FR3091603A1 (fr) 2020-07-10
FR3091603B1 FR3091603B1 (fr) 2022-01-21

Family

ID=67383852

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1900118A Active FR3091603B1 (fr) 2019-01-07 2019-01-07 Système interactif

Country Status (5)

Country Link
US (1) US11970059B2 (fr)
EP (1) EP3908911A1 (fr)
CN (1) CN113260955A (fr)
FR (1) FR3091603B1 (fr)
WO (1) WO2020144424A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113212337A (zh) * 2021-06-01 2021-08-06 北京现代汽车有限公司 座舱控制方法、系统及车辆

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7431120B2 (en) * 2004-02-12 2008-10-07 Bayerische Motoren Werke Aktiengesellschaft Operating method for vehicles
US20120143391A1 (en) * 2010-12-03 2012-06-07 Continental Automotive Systems, Inc. Tailoring vehicle human machine interface
US20150048178A1 (en) * 2013-03-15 2015-02-19 David A. Edwards Systems, methods and articles to provide olfactory sensations
US20160104486A1 (en) * 2011-04-22 2016-04-14 Angel A. Penilla Methods and Systems for Communicating Content to Connected Vehicle Users Based Detected Tone/Mood in Voice Input
US20180052964A1 (en) * 2016-08-16 2018-02-22 Resolve Digital Health Inc. Digital Health Ecosystem
US20180225551A1 (en) * 2017-02-08 2018-08-09 Lp-Research Inc. Machine learning for olfactory mood alteration

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101006191B1 (ko) 2002-08-06 2011-01-07 윤재민 가상인격체의 감정표현과 동작구현방법
JP2008068664A (ja) 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
US20120059268A1 (en) * 2010-08-02 2012-03-08 Tupin Jr Joe P Ultra wideband (uwb) baby monitors for detection of infant cardiopulmonary distress
KR101508059B1 (ko) * 2013-06-26 2015-04-07 숭실대학교산학협력단 단어의 쾌-불쾌 지수 예측 장치 및 방법
US9792084B2 (en) 2015-01-02 2017-10-17 Gracenote, Inc. Machine-led mood change
DE102015200775A1 (de) 2015-01-20 2016-07-21 Bayerische Motoren Werke Aktiengesellschaft Unabhängigen Beurteilung eines emotionalen Zustandes und einer kognitiven Belastung
CN106293383A (zh) * 2015-06-19 2017-01-04 奥迪股份公司 用于控制机动车辆的界面装置的方法
CN106652378A (zh) * 2015-11-02 2017-05-10 比亚迪股份有限公司 用于车辆的驾驶提醒方法、系统、服务器和车辆

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7431120B2 (en) * 2004-02-12 2008-10-07 Bayerische Motoren Werke Aktiengesellschaft Operating method for vehicles
US20120143391A1 (en) * 2010-12-03 2012-06-07 Continental Automotive Systems, Inc. Tailoring vehicle human machine interface
US20160104486A1 (en) * 2011-04-22 2016-04-14 Angel A. Penilla Methods and Systems for Communicating Content to Connected Vehicle Users Based Detected Tone/Mood in Voice Input
US20150048178A1 (en) * 2013-03-15 2015-02-19 David A. Edwards Systems, methods and articles to provide olfactory sensations
US20180052964A1 (en) * 2016-08-16 2018-02-22 Resolve Digital Health Inc. Digital Health Ecosystem
US20180225551A1 (en) * 2017-02-08 2018-08-09 Lp-Research Inc. Machine learning for olfactory mood alteration

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Emotion classification - Wikipedia", 28 November 2018 (2018-11-28), XP055638709, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Emotion_classification&oldid=871066882> [retrieved on 20191104] *
MAHLER M ET AL: "Radar Sensors to Determine Position and Physiological Parameters of a Person in a Vehicle", MICROWAVE CONFERENCE, 2002. 32ND EUROPEAN, IEEE, PISCATAWAY, NJ, USA, 23 September 2002 (2002-09-23), pages 1 - 4, XP031606257 *

Also Published As

Publication number Publication date
FR3091603B1 (fr) 2022-01-21
WO2020144424A1 (fr) 2020-07-16
CN113260955A (zh) 2021-08-13
US11970059B2 (en) 2024-04-30
US20220063408A1 (en) 2022-03-03
EP3908911A1 (fr) 2021-11-17

Similar Documents

Publication Publication Date Title
WO2020104742A1 (fr) Système interactif avec un occupant d&#39;un vehicule automobile
Wood et al. Remembering together: The importance of shared emotional memory in event experiences
KR102045569B1 (ko) 조종사 상태의 통합 감시 제어 장치 및 이를 이용한 조종사의 임무 수행 능력 유도 방법
WO2017149045A1 (fr) Dispositif et méthode de surveillance personnalisés d&#39;un conducteur d&#39;un véhicule automobile
EP2795270A2 (fr) Methode de cotation du bruit des freins d&#39;un vehicule automobile
EP3882097A1 (fr) Techniques pour séparer l&#39;émotion de conduite de l&#39;émotion induite par les supports dans un système de surveillance de conducteur
FR3038770A1 (fr) Systeme de surveillance de l&#39;etat de vigilance d&#39;un operateur
EP3908911A1 (fr) Systeme interactif
JP7080657B2 (ja) 感情識別装置
FR3099610A1 (fr) Dispositif d’evaluation d’emotion
JP7183782B2 (ja) 感情推定装置、環境提供システム、車両、感情推定方法、および情報処理プログラム
FR2998159A1 (fr) Procede et systeme de gestion du stress d&#39;un conducteur de vehicule automobile
EP3274809A1 (fr) Procédé de commande, dispositif de commande, système et véhicule automobile comprenant un tel dispositif de commande
US20230129746A1 (en) Cognitive load predictor and decision aid
EP3492015A1 (fr) Dispositif et procede de detection d&#39;emotion
FR3104283A1 (fr) Système interactif et procédé d’interaction associé
FR3104284A1 (fr) Système interactif et procédé d’interaction associé
WO2022017737A1 (fr) Système interactif et procédé d&#39;interaction associé
Rundo et al. Advanced temporal dilated convolutional neural network for a robust car driver identification
WO2021053632A1 (fr) Système de détermination d&#39;une émotion d&#39;un utilisateur
FR3112222A1 (fr) Système interactif, notamment pour véhicule automobile
EP4121969A1 (fr) Technique permettant de fournir à un utilisateur un service adapté à l&#39;utilisateur
FR3106008A1 (fr) Procédé de commande d’équipements d’un habitacle d’un véhicule et dispositifs associés
Bioulac, MD, PhD Trouble Déficit de l’Attention/Hyperactivité et Technologies de l’Information et de la Communication
FR3115976A1 (fr) Dispositif de traitement de l’information et procédé de détermination d’état biologique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200710

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6