FR3026866A1 - Dispositif et procede de commande pour vehicule automobile - Google Patents

Dispositif et procede de commande pour vehicule automobile Download PDF

Info

Publication number
FR3026866A1
FR3026866A1 FR1459456A FR1459456A FR3026866A1 FR 3026866 A1 FR3026866 A1 FR 3026866A1 FR 1459456 A FR1459456 A FR 1459456A FR 1459456 A FR1459456 A FR 1459456A FR 3026866 A1 FR3026866 A1 FR 3026866A1
Authority
FR
France
Prior art keywords
haptic
finger
sound
touch surface
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1459456A
Other languages
English (en)
Other versions
FR3026866B1 (fr
Inventor
Stephanie Dabic
Nour-Eddine El-Ouardi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dav SA
Original Assignee
Dav SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav SA filed Critical Dav SA
Priority to FR1459456A priority Critical patent/FR3026866B1/fr
Priority to EP15787002.3A priority patent/EP3201733A1/fr
Priority to JP2017517765A priority patent/JP6913019B2/ja
Priority to PCT/FR2015/052655 priority patent/WO2016051114A1/fr
Priority to CN201580053854.9A priority patent/CN107209585A/zh
Priority to US15/514,975 priority patent/US11455037B2/en
Publication of FR3026866A1 publication Critical patent/FR3026866A1/fr
Application granted granted Critical
Publication of FR3026866B1 publication Critical patent/FR3026866B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/25
    • B60K35/26
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • B60K2360/1438
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Abstract

L'invention concerne un dispositif de commande pour véhicule automobile comportant : une surface tactile (2) destinée à détecter un contact d'un doigt d'un utilisateur et la direction de déplacement du doigt sur la surface tactile (2), et un module de retour haptique et/ou sonore (4) configuré pour faire vibrer la surface tactile (2) et/ou pour générer un retour sonore à l'utilisateur, en réponse à un contact de la surface tactile (2), caractérisé en ce qu'il comporte une unité de pilotage (5) configurée pour piloter le module de retour haptique et/ou sonore (4) afin de générer un retour haptique et/ou sonore dont au moins un paramètre du retour haptique et/ou sonore varie avec la direction de déplacement du doigt sur la surface tactile (2). L'invention concerne également un procédé de commande.

Description

-1- Dispositif et procédé de commande pour véhicule automobile La présente invention concerne un dispositif de contrôle pour véhicule automobile et un procédé de commande dudit dispositif de contrôle. Depuis ces dernières années, les voitures sont devenues plus faciles à manipuler avec l'apparition de nouvelles technologies émergentes (par exemple direction assistée, ABS, régula-5 teur de vitesse, radar de recul etc...). Paradoxalement toutefois, le nombre de fonctions à contrôler pendant la conduite a lui aussi beaucoup augmenté. Ceci peut induire une certaine complexité liée à la mauvaise connaissance de l'utilisation de ces fonctionnalités et à leur diversité. La voiture est devenue un véritable espace de vie, perçue comme un centre de communication personnel et interconnecté : avec par exemple le lecteur MP3, le GPS, la connexion avec 10 les téléphones portables. L'introduction de ces nouvelles fonctions se traduit par une augmentation du nombre de boutons sur le tableau de bord d'un cockpit de voiture. Cependant, le nombre de boutons ne peut pas être augmenté à l'infini, du fait notamment de la complexité engendrée, de l'espace limité, de l'accessibilité ou de la charge cognitive. De plus, l'interaction du conducteur avec les 15 systèmes embarqués dans la voiture peut reproduire une situation de surcharge attentionnelle dans laquelle le conducteur peut ne pas traiter au mieux toutes les informations de la tâche de conduite, se traduisant par des erreurs et un temps de détection plus long. Une possibilité est de centraliser les boutons en les remplaçant par un écran tactile. Ceci permet de continuer à augmenter le nombre des fonctions, celles-ci devenant programmables 20 et reconfigurables et exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. L'écran inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons et en étant personnalisable. De plus, les écrans présentent trois autres avantages majeurs : ils permettent d'une part une interaction directe (la co-implantation de l'affichage et de saisie), d'autre part ils sont souples (l'affichage peut être facilement configuré pour 25 un certain nombre de fonctions), et enfin ils sont intuitifs (méthode d'interaction familière comme par exemple « pointer »). Cependant, contrairement au cas d'un bouton-poussoir, lorsque le conducteur interagit avec un écran tactile, il ne reçoit aucune rétroaction liée directement à son action sur l'interface, autre que le simple contact de son doigt s'écrasant sur l'écran. 30 Afin de compenser la perte d'informations causée par la substitution d'interfaces méca- niques classiques par des écrans tactiles, il est prévu l'ajout d'un retour, tel que haptique, pour -2- fournir une rétroaction du système à l'utilisateur. Ce retour permet d'éviter l'ambiguïté possible de la prise en compte de l'action de l'utilisateur par le système, susceptible de favoriser l'apparition de situations dangereuses. Il doit cependant en outre éviter de surcharger les voies visuelles et auditives déjà très sollicitées par la tâche de conduite. En effet, l'utilisation 5 d'écrans tactiles dans un véhicule automobile ne doit pas gêner l'attention du conducteur. Un but de la présente invention est de fournir un dispositif de contrôle et un procédé de commande dudit dispositif de contrôle, qui ne gêne pas la conduite, qui soit bien perçu et apprécié par les utilisateurs, et qui puisse être discriminable des autres signaux pour une application d'écrans tactiles respectant les contraintes automobiles. 10 A cet effet, la présente invention a pour objet un dispositif de commande pour véhicule automobile comportant : - une surface tactile destinée à détecter un contact d'un doigt d'un utilisateur et la direction de déplacement du doigt sur la surface tactile, et - un module de retour haptique et/ou sonore configuré pour faire vibrer la surface 15 tactile et/ou pour générer un retour sonore à l'utilisateur, en réponse à un contact de la surface tactile, caractérisé en ce qu'il comporte une unité de pilotage configurée pour piloter le module de retour haptique et/ou sonore afin de générer un retour haptique et/ou sonore dont au moins un paramètre du retour haptique et/ou sonore varie avec la 20 direction de déplacement du doigt sur la surface tactile. On peut ainsi simuler différentes textures de la surface tactile. L'utilisateur peut ainsi percevoir par exemple en fonction de la direction de déplacement du doigt un relief différent, par exemple plus rugueux ou moins, un relief simulant des nervures, ou de petit monticules etc. Ces retours haptiques différents mettent en relief de façon différente 25 la perception de l'utilisateur qui peut ainsi s'orienter tout en gardant par exemple les yeux sur la route. Selon une ou plusieurs caractéristiques du dispositif de commande, prise seule ou en combinaison, - un retour haptique et/ou sonore distinct est généré au moins pour deux directions 30 perpendiculaires, - la zone de la surface tactile autour de la position du doigt est divisée en secteurs angulaires et un retour haptique et/ou sonore distinct est généré selon que le doigt de l'utilisateur se déplace dans l'une ou l'autre des zones, -3- - la zone de la surface tactile autour de la position du doigt est divisée en quadrants, - le dispositif de commande comporte un dispositif d'affichage disposé sous la surface tactile pour afficher des images au travers de la surface tactile, - un paramètre du retour haptique et/ou sonore varie avec la vitesse de déplacement du doigt sur la surface tactile, - un paramètre du retour sonore est choisi parmi l'intensité du volume, la phase, la fréquence, la durée, la durée entre deux signaux identiques et/ou un paramètre du retour haptique est choisi parmi l'intensité de l'accélération, la fréquence, l'amplitude, la durée, la durée entre deux signaux identiques, la phase. L'invention a aussi pour objet un procédé de commande d'un dispositif de commande pour véhicule automobile tel que décrit précédemment, caractérisé en ce qu'il comporte les étapes suivantes : - on détecte un contact d'un doigt d'un utilisateur et la direction de déplacement du doigt sur la surface tactile, et - on génère un retour haptique et/ou sonore dont au moins un paramètre du retour haptique et/ou sonore varie avec la direction de déplacement du doigt sur la surface tactile. Selon une ou plusieurs caractéristiques du procédé de commande, prise seule ou en 20 combinaison, - un retour haptique et/ou sonore distinct est généré au moins pour deux directions perpendiculaires, - la zone de la surface tactile autour de la position du doigt est divisée en secteurs angulaires et un retour haptique et/ou sonore distinct est généré selon que le 25 doigt de l'utilisateur se déplace dans l'une ou l'autre des zones, - un paramètre du retour haptique et/ou sonore varie avec la vitesse de déplacement du doigt sur la surface tactile. DESCRIPTION SOMMAIRE DES DESSINS 30 D'autres avantages et caractéristiques apparaîtront à la lecture de la description de l'invention, ainsi que sur les figures annexées qui représentent un exemple de réalisation non limitatif de l'invention et sur lesquelles : -4- - la figure 1 représente un exemple de dispositif de commande pour véhicule automobile, et - la figure 2 représente un exemple de surface tactile. Sur ces figures, les éléments identiques portent les mêmes numéros de référence.
DESCRIPTION DÉTAILLÉE La figure 1 représente un dispositif de commande pour véhicule automobile 1. Le dispositif de commande 1 comporte une surface tactile 2 et un module de retour 10 haptique et/ou sonore 4. La surface tactile 2 est destinée à détecter un contact d'un doigt d'un utilisateur et la direction de déplacement du doigt sur la surface tactile 2. Le module de retour haptique et/ou sonore 4 est configuré pour faire vibrer la surface tactile 2 en réponse à un contact de la surface tactile 2 par un doigt ou tout autre moyen 15 d'activation (par exemple un stylet) d'un utilisateur ayant par exemple modifié ou sélectionné une commande et/ou pour générer un retour sonore à l'utilisateur, en réponse à un contact de la surface tactile 2. On désigne par « haptique », un retour par le toucher. Ainsi, le retour haptique est un signal vibratoire ou vibrotactile. 20 Le dispositif de commande 1 peut comporter un dispositif d'affichage disposé sous la surface tactile 2 pour afficher des images au travers de la surface tactile 2, alors transparente, formant ainsi un écran tactile. Un écran tactile est un périphérique d'entrée ou interface permettant aux utilisateurs d'un système d'interagir avec celui-ci grâce au toucher. Il permet l'interaction directe de l'utilisateur 25 sur la zone qu'il veut sélectionner pour des utilisations diverses comme par exemple, la sélection d'une adresse de destination ou d'un nom dans un répertoire, les réglages du système de climatisation, l'activation d'une fonction dédiée, la sélection d'une piste parmi une liste, ou d'une manière générale le défilement parmi une liste de choix, la sélection, la validation, et l'erreur. 30 La surface tactile 2 comporte une plaque portant un capteur de contact pour détecter une pression d'appui ou un déplacement du doigt ou d'un stylet de l'utilisateur. Le capteur de contact est par exemple un capteur de pression, tel qu'utilisant la technologie FSR pour « Force Sensing Resistor » en anglais, c'est-à-dire utilisant des -5- résistances sensibles à la pression. La technologie SFR présente une très bonne résistance et robustesse, tout en ayant une résolution élevée. De plus, elle est très réactive et précise, tout en étant relativement stable dans le temps. Elle peut avoir une durée de vie assez longue, et est utilisable avec tout type de moyen d'activation, à un coût relativement faible.
Selon une conception de la technologie FSR, le capteur fonctionne en mettant en contact deux couches conductrices par exemple par l'action du doigt. Une des réalisations consiste à recouvrir une dalle de verre d'une couche d'encre conductrice, sur laquelle est superposée une feuille de polyester souple, elle-même recouverte sur sa face interne d'une couche d'encre conductrice. Des plots isolants et transparents isolent la dalle de la feuille polyester. L'activation sur la surface tactile produit un léger enfoncement de la couche polyester, qui vient en contact avec la couche conductrice de la dalle de verre. Le contact local des deux couches conductrices entraîne une modification du courant électrique appliqué sur la dalle, correspondant à un gradient de tension. Selon un autre exemple, le capteur de contact comprend des couches semi-conductrices souples prises en sandwich entre par exemple une couche conductrice et une couche résistive. En exerçant une pression ou un glissé sur la couche FSR, sa résistance ohmique diminue permettant ainsi, par application d'une tension électrique adaptée, de mesurer la pression appliquée et / ou la localisation de l'endroit où la pression est exercée. Selon un autre exemple, le capteur de contact est basé sur une technologie capacitive.
Le module de retour haptique 4 comporte au moins un actionneur (non représenté) relié à la plaque de la surface tactile 2, pour générer le retour haptique en fonction d'un signal issu du capteur de contact. Le retour haptique est un signal vibratoire tel qu'une vibration produite par un signal de commande sinusoïdal ou par un signal de commande comportant un ou une succession de pulses, envoyé à l'actionneur. La vibration est par exemple dirigée dans le plan de la surface tactile 2 ou orthogonalement au plan de la surface tactile 2 ou encore dirigée selon une combinaison de ces deux directions. Dans le cas de plusieurs actionneurs, ces derniers sont agencés sous la surface tactile 2, dans différentes positions (au centre ou sur un côté) ou dans différentes orientations (dans la direction de l'appui sur la surface ou dans un autre axe).
Selon un exemple de réalisation, l'actionneur repose sur une technologie similaire à celle du Haut-Parleur (en anglais : « Voice Coil »). Il comporte une partie fixe et une partie mobile en translation dans un entrefer de la partie fixe par exemple de l'ordre de 200pm, entre une première et une deuxième position, parallèlement à un axe longitudinal de la partie mobile. La -6- partie mobile est par exemple formée par un aimant mobile coulissant à l'intérieur d'une bobine fixe ou par une bobine mobile coulissant autour d'un aimant fixe, la partie mobile et la partie fixe coopérant par effet électromagnétique. Les parties mobiles sont reliées à la plaque de manière que le mouvement des parties mobiles engendre le mouvement en translation de la plaque pour générer le retour haptique au doigt de l'utilisateur. Cette technologie est facilement contrôlable et permet de déplacer de fortes masses, comme celle d'un écran, à diverses fréquences et respecte les contraintes automobiles très strictes que sont un faible coût, une bonne résistance aux variations de températures importantes, et une facilité de mise en place. Le dispositif de commande 1 comporte en outre une unité de pilotage 5 configurée pour 10 piloter le module de retour haptique et/ou sonore 4 afin de générer un retour haptique et/ou sonore dont au moins un paramètre du retour haptique et/ou sonore varie avec la direction de déplacement du doigt sur la surface tactile 2. Le déplacement du doigt, tel qu'un glissement, comporte l'information de la localisation du doigt sur au moins deux coordonnées spatiales successives sur la surface tactile 2.
15 Un paramètre du retour sonore peut être choisi parmi l'intensité du volume, la phase, la fréquence, la durée, la durée entre deux signaux identiques. Un paramètre du retour haptique peut être choisi parmi l'intensité de l'accélération, la fréquence, l'amplitude, la durée, la durée entre deux signaux identiques, la phase. On peut ainsi par exemple simuler différentes textures de la surface tactile, tel que 20 différentes rugosités de surface ou des structures comme des nervures, des reliefs etc. Selon une forme de réalisation, on prévoit que la zone de la surface tactile autour de la position du doigt soit divisée en secteurs angulaires. Un retour haptique et/ou sonore distinct est généré selon que le doigt de l'utilisateur se déplace dans l'une ou l'autre des zones. La zone de la surface tactile 2 autour de la position du doigt est par exemple divisée en 25 quadrants (90°) autour de la position du doigt P1. Ainsi, on a représenté quatre zones Z1, Z2 , Z3, Z4 sur la figure 2. Dans cet exemple, si l'utilisateur déplace son doigt verticalement, vers le haut, dans la première zone Z1, un premier retour haptique et/ou sonore sera généré. Si l'utilisateur déplace son doigt vers la droite, dans la deuxième zone Z2, un deuxième 30 retour haptique et/ou sonore, distinct du premier retour haptique, sera généré. Le deuxième retour haptique dans les directions horizontales (dans les zones Z2 et Z4 sur la figure 2), peut par exemple présenter une durée plus courte, une amplitude moins forte et une durée plus courte entre deux motifs haptiques que le premier retour haptique dans les -7- directions verticales (Z1 et Z3). On peut ainsi simuler une texture anisotropique de la surface tactile. On peut prévoir en outre d'afficher sur le dispositif d'affichage des motifs correspondants aux retours haptiques et/ou sonore. Ainsi, par exemple comme on peut le voir sur la figure 2, une première image affichée sous la surface tactile 2 représente des motifs marqués, telles des micro-bosses. Le retour haptique et/ou sonore dans cette zone peut être le même dans toutes les directions. Une deuxième image affichée représente une surface métallique lisse d'aspect anisotropique. On peut en outre prévoir qu'un paramètre du retour haptique et/ou sonore varie avec la 10 vitesse de déplacement du doigt sur la surface tactile 2. Par exemple, la durée entre les motifs de retour haptiques et/ou sonores diminuent avec l'augmentation de la vitesse. On renforce la simulation de perception d'une texture particulière.
FR1459456A 2014-10-02 2014-10-02 Dispositif et procede de commande pour vehicule automobile Active FR3026866B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1459456A FR3026866B1 (fr) 2014-10-02 2014-10-02 Dispositif et procede de commande pour vehicule automobile
EP15787002.3A EP3201733A1 (fr) 2014-10-02 2015-10-02 Dispositif de commande pour véhicule automobile
JP2017517765A JP6913019B2 (ja) 2014-10-02 2015-10-02 自動車両用の制御装置
PCT/FR2015/052655 WO2016051114A1 (fr) 2014-10-02 2015-10-02 Dispositif de commande pour véhicule automobile
CN201580053854.9A CN107209585A (zh) 2014-10-02 2015-10-02 用于机动车辆的控制装置
US15/514,975 US11455037B2 (en) 2014-10-02 2015-10-02 Control device for a motor vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1459456 2014-10-02
FR1459456A FR3026866B1 (fr) 2014-10-02 2014-10-02 Dispositif et procede de commande pour vehicule automobile

Publications (2)

Publication Number Publication Date
FR3026866A1 true FR3026866A1 (fr) 2016-04-08
FR3026866B1 FR3026866B1 (fr) 2019-09-06

Family

ID=52358894

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1459456A Active FR3026866B1 (fr) 2014-10-02 2014-10-02 Dispositif et procede de commande pour vehicule automobile

Country Status (6)

Country Link
US (1) US11455037B2 (fr)
EP (1) EP3201733A1 (fr)
JP (1) JP6913019B2 (fr)
CN (1) CN107209585A (fr)
FR (1) FR3026866B1 (fr)
WO (1) WO2016051114A1 (fr)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015120605A1 (de) * 2015-11-27 2017-06-01 Valeo Schalter Und Sensoren Gmbh Bedienvorrichtung für ein Kraftfahrzeug mit Antriebseinrichtung zum Ausgeben einer haptischen Rückmeldung sowie Kraftfahrzeug
FR3053488A1 (fr) * 2016-06-29 2018-01-05 Dav Procede de commande et interface de commande pour vehicule automobile
FR3066959B1 (fr) * 2017-05-31 2020-11-06 Dav Procede de generation d'un retour sensitif pour une interface et interface associee
DE102017219236A1 (de) * 2017-10-26 2019-05-02 Audi Ag Bedienvorrichtung zur Ausgabe einer haptischen Rückmeldung, Kraftfahrzeug und Verfahren
CN110413099A (zh) * 2018-04-28 2019-11-05 北京钛方科技有限责任公司 触觉反馈系统及方法
DE102018213384A1 (de) * 2018-08-09 2020-02-13 Robert Bosch Gmbh Berührungsempfindliche Oberfläche mit haptischen Elementen
EA202190849A1 (ru) * 2018-09-25 2021-07-05 Агк Гласс Юроп Устройство управления транспортным средством и способ его изготовления
FR3092415B1 (fr) * 2019-01-31 2021-03-05 Valeo Comfort & Driving Assistance Procédé de génération d’un retour sensitif pour une interface et interface associée
US11820215B2 (en) 2019-11-04 2023-11-21 Hyundai Mobis Co., Ltd. System and method for controlling display of vehicle
CN111930237A (zh) * 2020-08-18 2020-11-13 上海中航光电子有限公司 触觉振动反馈装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120229400A1 (en) * 2012-02-15 2012-09-13 Immersion Corporation Interactivity model for shared feedback on mobile devices
US20130215079A1 (en) * 2010-11-09 2013-08-22 Koninklijke Philips Electronics N.V. User interface with haptic feedback
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
EP2759915A2 (fr) * 2013-01-24 2014-07-30 Immersion Corporation Dispositif haptique, procédé et système

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4234069A1 (de) * 1992-10-09 1994-04-14 Nokia Deutschland Gmbh Konuslautsprecher in Leichtbauweise
CN1275300A (zh) * 1998-07-21 2000-11-29 Jbl公司 微型全频程扩音器
US7920102B2 (en) * 1999-12-15 2011-04-05 Automotive Technologies International, Inc. Vehicular heads-up display system
US6587097B1 (en) * 2000-11-28 2003-07-01 3M Innovative Properties Co. Display system
JP4111278B2 (ja) * 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
US7667687B2 (en) * 2003-12-30 2010-02-23 Immersion Corporation Resistive and hybrid control schemes for haptic feedback interface devices
WO2005103857A1 (fr) * 2004-04-22 2005-11-03 Preh Gmbh Element d'actionnement pour automobile
WO2006042309A1 (fr) * 2004-10-08 2006-04-20 Immersion Corporation Retroaction haptique pour une simulation d'action de bouton et de deroulement dans des dispositifs d'entree tactile
US8405618B2 (en) * 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US20080231605A1 (en) * 2007-03-21 2008-09-25 Kai-Ti Yang Compound touch panel
US8471689B2 (en) * 2007-05-11 2013-06-25 Philippe Stanislas Zaborowski Touch-sensitive motion device
EP2007169A3 (fr) * 2007-06-20 2009-12-09 Sonion Horsens A/S Bobine acoustique miniature avec bobine de couplage intégrée
US8270661B2 (en) * 2007-06-20 2012-09-18 Gettop Europe R&D ApS High efficient miniature electro-acoustic transducer with reduced dimensions
JP4897596B2 (ja) * 2007-07-12 2012-03-14 ソニー株式会社 入力装置、記憶媒体、情報入力方法及び電子機器
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US20090322699A1 (en) * 2008-06-25 2009-12-31 Sony Ericsson Mobile Communications Ab Multiple input detection for resistive touch panel
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
KR20100078141A (ko) * 2008-12-30 2010-07-08 삼성전자주식회사 휴대용 단말기에서 햅틱 기능 제공 방법 및 장치
FR2955813B1 (fr) * 2010-02-02 2015-05-22 Dav Module de retour haptique destine a etre integre dans un vehicule automobile pour dispositif nomade et dispositif de commande correspondant
US8941600B2 (en) * 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
US8629954B2 (en) * 2010-03-18 2014-01-14 Immersion Corporation Grommet suspension component and system
JP2011242386A (ja) * 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
WO2011148650A1 (fr) * 2010-05-27 2011-12-01 京セラ株式会社 Dispositif conférant une sensation tactile
US8576171B2 (en) * 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
EP2648079A4 (fr) * 2010-11-30 2016-05-04 Nitto Denko Corp Dispositif de panneau d'affichage à fonction d'entrée tactile
JP2012123689A (ja) * 2010-12-09 2012-06-28 Stanley Electric Co Ltd タッチパネルを有する情報処理装置及び情報処理方法
KR101748415B1 (ko) * 2010-12-17 2017-06-27 한국전자통신연구원 시촉각 정보 제공 장치 및 방법, 그리고 그를 구비한 버튼
US9035502B2 (en) * 2011-02-07 2015-05-19 Lg Innotek Co., Ltd. Multifunctional voice coil motor
CN103314342A (zh) * 2011-03-30 2013-09-18 本田技研工业株式会社 操作装置
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
US9013405B2 (en) * 2011-12-28 2015-04-21 Microsoft Technology Licensing, Llc Touch-scrolling pad for computer input devices
JP6008331B2 (ja) * 2012-02-03 2016-10-19 パナソニックIpマネジメント株式会社 触覚提示装置および触覚提示装置の駆動方法、駆動プログラム
WO2013124099A1 (fr) * 2012-02-20 2013-08-29 Sony Mobile Communications Ab Interface d'écran tactile avec rétroaction
EP2839366A4 (fr) * 2012-04-18 2016-05-11 Nokia Technologies Oy Appareil d'affichage à rétroaction haptique
EP2856282A4 (fr) * 2012-05-31 2015-12-02 Nokia Technologies Oy Appareil d'affichage
US9110545B2 (en) * 2012-08-16 2015-08-18 Nokia Technologies Oy Apparatus and associated methods
US9483168B2 (en) * 2012-08-22 2016-11-01 Google Inc. Correcting scrolling gesture
US20140098038A1 (en) * 2012-10-10 2014-04-10 Microsoft Corporation Multi-function configurable haptic device
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
JP6003568B2 (ja) * 2012-11-19 2016-10-05 アイシン・エィ・ダブリュ株式会社 操作支援システム、操作支援方法及びコンピュータプログラム
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US10078384B2 (en) * 2012-11-20 2018-09-18 Immersion Corporation Method and apparatus for providing haptic cues for guidance and alignment with electrostatic friction
KR102091077B1 (ko) * 2012-12-14 2020-04-14 삼성전자주식회사 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
KR102047689B1 (ko) * 2012-12-17 2019-11-22 엘지전자 주식회사 택타일 사용자 인터페이스의 미니-맵을 제공하는 터치 센서티브 디바이스 및 제어 방법
US9285880B2 (en) * 2012-12-26 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Touch panel device and method of controlling a touch panel device
TWI472985B (zh) * 2013-01-02 2015-02-11 Elan Microelectronics Corp 觸控板的手勢識別方法
KR102178845B1 (ko) * 2013-01-29 2020-11-13 삼성전자주식회사 햅틱을 제어하는 휴대 단말 및 방법
US20140292668A1 (en) * 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Touch input device haptic feedback
CN103279223B (zh) * 2013-05-27 2016-11-23 深圳市金立通信设备有限公司 一种反馈触控消息的方法、设备及系统
US10591992B2 (en) * 2013-06-17 2020-03-17 Lenovo (Singapore) Pte. Ltd. Simulation of control areas on touch surface using haptic feedback
US9519348B2 (en) * 2013-08-26 2016-12-13 New York University Haptic force-feedback for computing interfaces
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
US20160011720A1 (en) * 2014-07-10 2016-01-14 Thomas Christian Walther Multi-Touch Interface for Blind Real-Time Interaction
US9866149B2 (en) * 2014-07-28 2018-01-09 Immersion Corporation Method and apparatus for enabling floating touch screen haptics assemblies
US9891811B2 (en) * 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
JP6613170B2 (ja) * 2016-02-23 2019-11-27 京セラ株式会社 車両用コントロールユニット及びその制御方法
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US20170323092A1 (en) * 2016-05-03 2017-11-09 General Electric Company Method and system of using spatially-defined and pattern-defined gesturing passwords
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130215079A1 (en) * 2010-11-09 2013-08-22 Koninklijke Philips Electronics N.V. User interface with haptic feedback
US20120229400A1 (en) * 2012-02-15 2012-09-13 Immersion Corporation Interactivity model for shared feedback on mobile devices
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
EP2759915A2 (fr) * 2013-01-24 2014-07-30 Immersion Corporation Dispositif haptique, procédé et système

Also Published As

Publication number Publication date
US20170220118A1 (en) 2017-08-03
CN107209585A (zh) 2017-09-26
WO2016051114A1 (fr) 2016-04-07
US11455037B2 (en) 2022-09-27
EP3201733A1 (fr) 2017-08-09
FR3026866B1 (fr) 2019-09-06
JP6913019B2 (ja) 2021-08-04
JP2017531870A (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
FR3026866B1 (fr) Dispositif et procede de commande pour vehicule automobile
FR3026868B1 (fr) Dispositif et procede de commande pour vehicule automobile
WO2015092163A1 (fr) Dispositif de contrôle pour véhicule automobile et procédé de commande
FR2851347A1 (fr) Dispositif d'interface homme machine a retour d'information tactile pour dalle tactile
EP2372915B1 (fr) Interface homme/machine, en particulier pour véhicule automobile
FR2934067A1 (fr) Dispositif de commande a retour haptique et procede de commande correspondant
WO2016097561A1 (fr) Dispositif et procédé de commande pour véhicule automobile
EP3084569B1 (fr) Dispositif de controle pour vehicule automobile et procede de commande
WO2015092165A1 (fr) Dispositif de controle pour vehicule automobile et procede de commande
EP3201734A1 (fr) Dispositif et procédé de commande pour véhicule automobile
EP3234738A1 (fr) Dispositif et procédé de commande pour véhicule automobile
EP2244168B1 (fr) Dispositif de commande à retour haptique et actionneur correspondant
WO2018002186A1 (fr) Procédé de commande et interface de commande pour véhicule automobile
WO2017108898A1 (fr) Interface de commande pour véhicule autmobile
WO2017211835A1 (fr) Module et procédé de commande pour véhicule automobile
FR2934080A1 (fr) Dispositif de commande a retour haptique et procede de commande correspondant
EP2180396B1 (fr) Dispositif de commande à retour haptique
WO2018002189A1 (fr) Procédé de commande et interface de commande pour véhicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160408

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10