FR3053488A1 - CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE - Google Patents

CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE Download PDF

Info

Publication number
FR3053488A1
FR3053488A1 FR1656138A FR1656138A FR3053488A1 FR 3053488 A1 FR3053488 A1 FR 3053488A1 FR 1656138 A FR1656138 A FR 1656138A FR 1656138 A FR1656138 A FR 1656138A FR 3053488 A1 FR3053488 A1 FR 3053488A1
Authority
FR
France
Prior art keywords
pointing element
sensory feedback
crossing
time window
target border
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1656138A
Other languages
French (fr)
Inventor
Jean-Marc Tissot
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dav SA
Original Assignee
Dav SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav SA filed Critical Dav SA
Priority to FR1656138A priority Critical patent/FR3053488A1/en
Priority to PCT/EP2017/066071 priority patent/WO2018002186A1/en
Priority to EP17733843.1A priority patent/EP3479212A1/en
Publication of FR3053488A1 publication Critical patent/FR3053488A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/25
    • B60K35/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • B60K2360/141
    • B60K2360/1438
    • B60K2360/1468
    • B60K2360/566
    • B60K2360/573
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

L'invention concerne un procédé de commande de retour sensoriel pour une interface de commande pour véhicule automobile, l'interface de commande comportant une surface tactile (2), comprenant les étapes suivantes: - on détecte au moins un paramètre de déplacement d'un élément de pointage (3) sur la surface tactile (2) en direction d'une frontière cible (6) de la surface tactile (2), on détermine une fenêtre temporelle prévisionnelle au cours de laquelle est prévu le franchissement de la frontière cible (6) par l'élément de pointage (3) en tenant compte du paramètre de déplacement de l'élément de pointage (3) en direction de la frontière cible (6), - on calcule un instant, antérieur à la fenêtre temporelle prévisionnelle pour l'émission d'une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée, - on émet une commande de génération d'au moins un retour sensoriel à l'instant pour générer un retour sensoriel dans la fenêtre temporelle prévisionnelle déterminée, afin d'éviter un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6). L'invention concerne aussi une interface de commande pour véhicule automobile configurée pour mettre en œuvre un tel procédé de commande.The invention relates to a sensory feedback control method for a control interface for a motor vehicle, the control interface comprising a touch surface (2), comprising the following steps: - at least one displacement parameter of a pointing element (3) on the touch surface (2) in the direction of a target boundary (6) of the touch surface (2), a provisional time window is determined in which the crossing of the target boundary is provided ( 6) by the pointing element (3) taking into account the displacement parameter of the pointing element (3) in the direction of the target boundary (6), - an instant before the predicted time window is calculated for the emission of a sensory feedback generation command taking into account the determined crossing time window, - a generation command of at least one sensory feedback is issued at the instant to generate a sensory feedback in the predicted temporal window, in order to avoid a temporal shift between the perception of the sensory feedback and the crossing of the target boundary (6). The invention also relates to a control interface for a motor vehicle configured to implement such a control method.

Description

Titulaire(s) : DAV Société par actions simplifiée.Holder (s): DAV Simplified joint stock company.

Demande(s) d’extensionExtension request (s)

Mandataire(s) : VALEO COMFORT AND DRIVING ASSISTANCE.Agent (s): VALEO COMFORT AND DRIVING ASSISTANCE.

104/ PROCEDE DE COMMANDE ET INTERFACE DE COMMANDE POUR VEHICULE AUTOMOBILE.104 / CONTROL METHOD AND CONTROL INTERFACE FOR A MOTOR VEHICLE.

FR 3 053 488 - A1 (5// L'invention concerne un procédé de commande de retour sensoriel pour une interface de commande pour véhicule automobile, l'interface de commande comportant une surface tactile (2), comprenant les étapes suivantes:FR 3 053 488 - A1 (5 // The invention relates to a sensory feedback control method for a control interface for a motor vehicle, the control interface comprising a tactile surface (2), comprising the following steps:

- on détecte au moins un paramètre de déplacement d'un élément de pointage (3) sur la surface tactile (2) en direction d'une frontière cible (6) de la surface tactile (2), on détermine une fenêtre temporelle prévisionnelle au cours de laquelle est prévu le franchissement de la frontière cible (6) par l'élément de pointage (3) en tenant compte du paramètre de déplacement de l'élément de pointage (3) en direction de la frontière cible (6),- at least one displacement parameter of a pointing element (3) is detected on the touch surface (2) in the direction of a target border (6) of the touch surface (2), a forecast time window is determined at during which the target element (3) crosses the target border (6) taking into account the parameter of displacement of the pointing element (3) towards the target border (6),

- on calcule un instant, antérieur à la fenêtre temporelle prévisionnelle pour l'émission d'une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée,- an instant is calculated, prior to the forecast time window for the emission of a sensory feedback generation command, taking into account the determined crossing time window,

- on émet une commande de génération d'au moins un retour sensoriel à l'instant pour générer un retour sensoriel dans la fenêtre temporelle prévisionnelle déterminée, afin d'éviter un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6).- a command is generated to generate at least one sensory feedback at the instant to generate a sensory feedback in the determined forecast time window, in order to avoid a time lag between the perception of the sensory feedback and the crossing of the target border (6).

L'invention concerne aussi une interface de commande pour véhicule automobile configurée pour mettre en oeuvre un tel procédé de commande.The invention also relates to a control interface for a motor vehicle configured to implement such a control method.

Figure FR3053488A1_D0001
Figure FR3053488A1_D0002

-1Procédé de commande et interface de commande pour véhicule automobile-1 Control method and control interface for a motor vehicle

La présente invention concerne un procédé de commande notamment pour véhicule automobile permettant la génération d’au moins un retour sensoriel à un utilisateur via une interface de commande telle qu’une interface homme-machine. L’invention concerne aussi une interface configurée pour la mise en œuvre d’au moins certaines étapes d’un tel procédé de commande.The present invention relates to a control method in particular for a motor vehicle allowing the generation of at least one sensory feedback to a user via a control interface such as a man-machine interface. The invention also relates to an interface configured for the implementation of at least certain steps of such a control method.

Depuis ces dernières années, les véhicules automobiles, en particulier les voitures, sont devenus plus faciles à manipuler avec Γapparition de nouvelles technologies émergentes (par exemple direction assistée, ABS, régulateur de vitesse, radar de recul etc...) entraînant une augmentation du nombre de fonctions à contrôler pendant la conduite.In recent years, motor vehicles, in particular cars, have become easier to handle with the appearance of new emerging technologies (for example power steering, ABS, cruise control, reversing radar etc ...) resulting in an increase in number of functions to control while driving.

La voiture est devenue un véritable espace de vie, perçue comme un centre de communication personnel et interconnecté : avec par exemple le lecteur MP3, le GPS, la connexion avec les téléphones portables. L’introduction de ces nouvelles fonctions se traduit par une augmentation du nombre de boutons sur le tableau de bord d’un cockpit de voiture. Cependant, le nombre de boutons ne peut pas être augmenté à l’infini, du fait notamment de la complexité engendrée, de l’espace limité, de l’accessibilité ou de la charge cognitive. De plus, l’interaction du conducteur avec les systèmes embarqués dans la voiture peut produire une situation de surcharge attentionnelle dans laquelle le conducteur peut ne pas traiter au mieux toutes les informations de la tâche de conduite, se traduisant par des erreurs et un temps de détection plus long.The car has become a real living space, perceived as a personal and interconnected communication center: with for example the MP3 player, the GPS, the connection with mobile phones. The introduction of these new functions results in an increase in the number of buttons on the dashboard of a car cockpit. However, the number of buttons cannot be increased ad infinitum, due in particular to the complexity created, the limited space, accessibility or cognitive load. In addition, the driver's interaction with the on-board systems in the car can produce a situation of attention overload in which the driver may not process all the information of the driving task at best, resulting in errors and a time delay. longer detection.

Une possibilité est de centraliser les boutons en les remplaçant au moins en partie par une surface tactile telle qu’une dalle tactile ou un écran tactile. Ceci permet de continuer à augmenter le nombre des fonctions, celles-ci devenant programmables et reconfigurables et exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. La surface tactile inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons. Les écrans tactiles sont de plus personnalisables. En outre, les écrans tactiles présentent trois autres avantages majeurs : ils permettent d’une part une interaction directe (la co-implantation de l’affichage et de saisie), d’autre part ils sont souples (l’affichage peut être facilement configuré pour un certain nombre de fonctions), et enfin ils sont intuitifs (méthode d’interaction familière comme par exemple « pointer »).One possibility is to centralize the buttons by replacing them at least in part with a touch surface such as a touch screen or a touch screen. This allows to continue to increase the number of functions, these becoming programmable and reconfigurable and exposed temporarily or permanently depending on the context or the activated function. The tactile surface thus includes a possibility of multifunctionality, while dematerializing the buttons. Touch screens are more customizable. In addition, touch screens have three other major advantages: on the one hand they allow direct interaction (co-location of the display and input), on the other hand they are flexible (the display can be easily configured for a certain number of functions), and finally they are intuitive (familiar interaction method such as "pointing" for example).

-2Cependant, contrairement au cas d’un bouton-poussoir, lorsque le conducteur interagit avec une surface tactile tel qu’un écran tactile, il ne reçoit aucune rétroaction liée directement à son action sur l’interface, autre que le simple contact de son doigt s’écrasant sur la surface tactile.-2However, unlike the case of a push button, when the driver interacts with a touch surface such as a touch screen, he receives no feedback directly related to his action on the interface, other than the simple contact of his finger crashing onto the touchpad.

Afin de compenser la perte d’informations causée par la substitution d’organes de commande mécaniques classiques par des surfaces tactiles telles que des écrans tactiles, il est connu d’ajouter un ou plusieurs retours sensoriels, comme un retour haptique, pour fournir une rétroaction du système à l’utilisateur. Ce retour permet d’éviter l’ambigüité possible de la prise en compte de l’action de l’utilisateur par le système, susceptible de favoriser l’apparition de situations dangereuses.In order to compensate for the loss of information caused by the substitution of conventional mechanical control devices by tactile surfaces such as touch screens, it is known to add one or more sensory feedbacks, such as haptic feedback, to provide feedback. from the system to the user. This feedback avoids the possible ambiguity of taking into account the action of the user by the system, which may encourage the occurrence of dangerous situations.

Ainsi, il est connu de faire vibrer une surface tactile pour faire un retour haptique informant par exemple l’utilisateur de la prise en compte d’une commande.Thus, it is known to vibrate a tactile surface to make a haptic feedback informing for example the user of the taking into account of an order.

Une possible application d’un retour haptique consiste par exemple à faire vibrer la surface tactile lors du franchissement d’une frontière cible. Par « frontière cible », on désigne une délimitation sur la surface tactile non détectable haptiquement entre deux zones fonctionnelles.One possible application of haptic feedback is, for example, to vibrate the tactile surface when crossing a target border. By "target border" is meant a delimitation on the tactile surface haptically not detectable between two functional areas.

Comme exemple, on peut prévoir une première zone pour commander une première fonction, comme par exemple baisser le volume d’un système audio, et une seconde zone adjacente pour commander une seconde fonction, par exemple augmenter le volume.As an example, a first zone can be provided for controlling a first function, such as for example lowering the volume of an audio system, and a second adjacent zone for controlling a second function, for example increasing the volume.

Comme la surface tactile est lisse, le passage entre les deux zones n’est pas détectable par le doigt d’un utilisateur.As the touch surface is smooth, the passage between the two zones cannot be detected by a user's finger.

Pour pallier cet inconvénient, on peut générer sur la surface tactile un retour haptique destiné à matérialiser la frontière cible entre les deux zones, de sorte que l’utilisateur peut s’orienter sur la surface tactile même sans regarder celle-ci.To overcome this drawback, it is possible to generate a haptic feedback on the tactile surface intended to materialize the target border between the two zones, so that the user can orient himself on the tactile surface even without looking at it.

Pour matérialiser visuellement la frontière entre deux zones, la surface tactile est généralement associée à un écran disposé derrière la surface tactile et qui affiche des pictogrammes associés aux zones de commande. H est donc important que le retour haptique soit synchronisé avec le passage du doigt de commande entre les deux zones.To visually materialize the border between two zones, the tactile surface is generally associated with a screen placed behind the tactile surface and which displays pictograms associated with the control zones. It is therefore important that the haptic feedback is synchronized with the passage of the control finger between the two zones.

Or, entre la détection du doigt de l’utilisateur et la génération effective d’un signal de retour haptique il existe un délai difficilement compressible d’environ 20ms. Il en résulte que, lorsque le doigt ou le stylet en contact avec la surface tactile se déplace, ce délai peut induire une différenceHowever, between the detection of the user's finger and the effective generation of a haptic feedback signal, there is a hardly compressible delay of approximately 20 ms. As a result, when the finger or the stylus in contact with the tactile surface moves, this delay can induce a difference

-3entre le passage de la frontière cible à un instant ti et l’endroit où est ensuite ressenti le retour haptique lorsque l’utilisateur a poursuivi son déplacement à l’instant t2Ce décalage peut être déconcertant pour l’utilisateur car il n’y a plus de correspondance entre le visuel affiché par l’écran et le retour haptique.-3between the crossing of the target border at an instant ti and the place where the haptic feedback is then felt when the user has continued his movement at the instant t2 This shift can be disconcerting for the user because there is no no more correspondence between the visual displayed on the screen and the haptic feedback.

Autrement dit, le doigt ou le stylet est situé ailleurs qu’à l’endroit où le signal de retour haptique est ressenti, par exemple ailleurs que sur une frontière délimitant une touche virtuelle ou un bouton de commande virtuel, lorsque le signal de retour haptique est émis. Ce décalage temporel peut être d’autant plus grand que la vitesse de déplacement du doigt ou du stylet est importante.In other words, the finger or the stylus is located elsewhere than at the place where the haptic feedback signal is felt, for example elsewhere than on a border delimiting a virtual key or a virtual control button, when the haptic feedback signal is issued. This time difference can be even greater than the speed of movement of the finger or the stylus is important.

Pour améliorer la situation, une solution serait d’utiliser des moyens électroniques de traitement plus rapides, permettant de réduire au maximum ce décalage temporel entre la position du doigt ou du stylet sur une frontière cible de la surface tactile, par exemple un passage de frontière entre deux zones de la surface tactile, et la perception du signal de retour sensoriel tel qu’un retour haptique. Cependant une telle solution serait trop coûteuse pour l’industrie automobile.To improve the situation, one solution would be to use faster electronic processing means, making it possible to minimize this time difference between the position of the finger or the stylus on a target border of the tactile surface, for example a border crossing. between two areas of the tactile surface, and the perception of the sensory feedback signal such as a haptic feedback. However, such a solution would be too costly for the automotive industry.

Un but de la présente invention est donc de fournir un procédé de commande et une interface de commande associée, permettant de pallier au moins partiellement les inconvénients précités en générant un retour sensoriel perçu à un instant opportun.An object of the present invention is therefore to provide a control method and an associated control interface, making it possible to at least partially overcome the aforementioned drawbacks by generating a sensory feedback perceived at an opportune moment.

À cet effet, la présente invention a pour objet un procédé de commande de retour sensoriel pour une interface de commande pour véhicule automobile, l’interface de commande comportant une surface tactile, comprenant les étapes suivantes:To this end, the subject of the present invention is a method of sensory feedback control for a control interface for a motor vehicle, the control interface comprising a tactile surface, comprising the following steps:

on détecte au moins un paramètre de déplacement d’un élément de pointage sur la surface tactile en direction d’une frontière cible de la surface tactile, on détermine une fenêtre temporelle prévisionnelle au cours de laquelle est prévu le franchissement de la frontière cible par l’élément de pointage en tenant compte du paramètre de déplacement de l’élément de pointage en direction de la frontière cible, on calcule un instant /, antérieur à la fenêtre temporelle prévisionnelle pour l’émission d’une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée, on émet une commande de génération d’au moins un retour sensoriel à l’instant t pourat least one parameter of displacement of a pointing element on the tactile surface is detected in the direction of a target border of the tactile surface, a provisional time window is determined during which it is expected that the target border will be crossed by the pointing element taking into account the parameter of displacement of the pointing element in the direction of the target border, a time /, before the forecast time window, is calculated for the emission of a command to generate sensory feedback in taking into account the determined crossing time window, a command is generated to generate at least one sensory feedback at time t for

-4générer un retour sensoriel dans la fenêtre temporelle prévisionnelle déterminée, afin d’éviter un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible.-4generate a sensory feedback in the determined forecast time window, in order to avoid a time lag between the perception of the sensory feedback and the crossing of the target border.

En anticipant le franchissement d’une frontière cible telle qu’une frontière entre deux zones ou délimitant une zone donnée, un tel procédé permet de générer le retour sensoriel au bon moment, c’est-à-dire lorsque l’élément de pointage tel que le doigt de futilisateur est réellement sur la frontière cible. On est ainsi au plus près de ce qu’attend futilisateur et il y a concordance entre le visuel et le sensoriel pour futilisateur. L’expérience utilisateur, autrement dit la perception d’un retour sensoriel caractéristique d’un changement de zones, en est améliorée.By anticipating the crossing of a target border such as a border between two zones or delimiting a given zone, such a method makes it possible to generate sensory feedback at the right time, that is to say when the pointing element such that the user's finger is actually on the target border. This is as close as possible to what the user expects and there is a concordance between the visual and the sensory for the user. The user experience, in other words the perception of a sensory feedback characteristic of a change of zones, is improved.

Le procédé de commande peut en outre comporter une ou plusieurs des caractéristiques suivantes prises seules ou en combinaison :The ordering process can also include one or more of the following characteristics taken alone or in combination:

le paramètre de déplacement de l’élément de pointage comprend la vitesse de déplacement de l’élément de pointage en direction de la frontière cible ;the pointing element displacement parameter includes the speed of movement of the pointing element towards the target border;

le paramètre de déplacement de l’élément de pointage comprend l’accélération de l’élément de pointage en direction de la frontière cible ;the pointing element displacement parameter includes the acceleration of the pointing element towards the target border;

le paramètre de déplacement de l’élément de pointage comprend la distance entre l’élément de pointage et la frontière cible ;the pointing element displacement parameter includes the distance between the pointing element and the target border;

on mesure en outre au moins un paramètre représentatif de la pression exercée par l’élément de pointage sur la surface tactile, et on utilise la mesure du paramètre représentatif de la pression à l’étape de détermination de la fenêtre temporelle de franchissement de la frontière cible ;in addition, at least one parameter representative of the pressure exerted by the pointing element on the tactile surface is measured, and the measurement of the parameter representative of the pressure is used in the step of determining the time window for crossing the border. target;

la durée de la fenêtre temporelle prévisionnelle de franchissement de la frontière cible est inférieure à 5ms, par exemple inférieure à 2ms, de préférence inférieure à 1ms.the duration of the forecast time window for crossing the target border is less than 5 ms, for example less than 2 ms, preferably less than 1 ms.

On établit ainsi un diagnostic de l’intention de l’utilisateur en fonction des caractéristiques de déplacement de l’élément de pointage, dès que celui-ci se déplace sur la surface tactile, permettant de préparer la génération du retour sensoriel adéquat et au bon moment. De plus, l’utilisation de ces caractéristiques de déplacement de l’élément de pointage permet d’améliorer la fiabilité du diagnostic.A diagnosis of the intention of the user is thus established as a function of the movement characteristics of the pointing element, as soon as it moves on the tactile surface, making it possible to prepare the generation of adequate and correct sensory feedback. moment. In addition, the use of these displacement characteristics of the pointing element improves the reliability of the diagnosis.

L’invention a également pour objet une interface de commande pour véhicule automobile configurée pour mettre en œuvre un procédé de commande tel que défini précédemment,The invention also relates to a control interface for a motor vehicle configured to implement a control method as defined above,

-5Γ interface de commande comportant :-5Γ command interface comprising:

une surface tactile configurée pour détecter au moins un paramètre de déplacement de l’élément de pointage sur la surface tactile, et un module de retour sensoriel configuré pour générer au moins un retour sensoriel, caractérisée en ce que l’interface de commande comporte en outre une unité de traitement configurée pour :a touch surface configured to detect at least one displacement parameter of the pointing element on the touch surface, and a sensory feedback module configured to generate at least one sensory feedback, characterized in that the control interface further comprises a processing unit configured for:

détecter au moins un paramètre de déplacement d’un élément de pointage sur la surface tactile en direction d’une frontière cible de la surface tactile, déterminer une fenêtre temporelle prévisionnelle de franchissement de la frontière cible par l’élément de pointage en tenant compte du paramètre de déplacement de l’élément de pointage en direction de la frontière cible, calculer un instant t d’émission d’une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée, émettre une commande de génération d’au moins un retour sensoriel à l’instant t pour générer un retour sensoriel pendant la fenêtre temporelle prévisionnelle de franchissement de la frontière cible déterminée, afin d’éviter un décalage temporel entre la perceptron du retour sensoriel et le franchissement de la frontière cible.detecting at least one parameter of displacement of a pointing element on the tactile surface in the direction of a target border of the tactile surface, determining a forecast time window of crossing of the target border by the pointing element taking into account the parameter of displacement of the pointing element in the direction of the target border, calculate an instant t of emission of a sensory feedback generation command taking into account the determined crossing time window, issue a generation command at least one sensory feedback at time t to generate sensory feedback during the forecast time window for crossing the determined target border, in order to avoid a time lag between the perceptron of the sensory feedback and the crossing of the target border.

Ladite interface peut en outre comporter une ou plusieurs des caractéristiques suivantes prises seules ou en combinaison :Said interface can also include one or more of the following characteristics taken alone or in combination:

Γunité de traitement est configurée pour déterminer la fenêtre temporelle de franchissement de la frontière cible à partir des données de position, de direction et d’évolution dans le temps du déplacement de l’élément de pointage ;Deprocessing unit is configured to determine the time window for crossing the target border from position, direction and time change data for the movement of the pointing element;

la surface tactile comporte au moins un capteur de pression configuré pour mesurer au moins un paramètre représentatif de la pression exercée sur la surface tactile, et Lunité de traitement est configurée pour prendre en compte la mesure d’au moins un paramètre représentatif de la pression pour la détermination de la fenêtre temporelle de franchissement de la frontière cible ;the touch-sensitive surface comprises at least one pressure sensor configured to measure at least one parameter representative of the pressure exerted on the touch-sensitive surface, and the processing unit is configured to take into account the measurement of at least one parameter representative of the pressure for determining the time window for crossing the target border;

le module de retour sensoriel est configuré pour faire vibrer la surface tactile de manière à générer un retour haptique, et/ou générer un retour sonore et/ou générer un retour visuel.the sensory feedback module is configured to vibrate the tactile surface so as to generate a haptic feedback, and / or generate a sound feedback and / or generate a visual feedback.

-6Une telle interface permet d’activer le retour sensoriel lorsqu’il est établi que l’élément de pointage va changer de zone et franchir ou passer sur une frontière cible, et permet en outre que ce retour sensoriel soit activé de façon à être perçu par rutilisateur lorsque l’élément de pointage est effectivement sur la frontière cible. En outre, une telle interface de commande offre une solution moins coûteuse par rapport à une solution comportant des moyens de traitement avec des temps de réponse très rapides.-6 Such an interface makes it possible to activate the sensory feedback when it is established that the pointing element will change zone and cross or pass over a target border, and also allows this sensory feedback to be activated so as to be perceived by user when the pointing element is actually on the target border. In addition, such a control interface offers a less costly solution compared to a solution comprising processing means with very rapid response times.

D’autres avantages et caractéristiques apparaîtront à la lecture de la description de rinvention, ainsi que sur les figures annexées qui représentent un exemple de réalisation non limitatif de l’invention et sur lesquelles :Other advantages and characteristics will appear on reading the description of the invention, as well as in the appended figures which represent a nonlimiting exemplary embodiment of the invention and in which:

la figure la représente de façon schématique une interface de commande telle qu’une interface homme-machine pour véhicule automobile la figure lb représente de façon schématique une vue de côté de l’interface de la figure la, les figures 2a à 4d représentent de façon schématique différents exemples d’affichage sur une surface tactile de l’interface des figures la et lb pour une anticipation de génération de retour sensoriel, la figure 5 est un organigramme des étapes d’un procédé de commande selon l’invention pour la génération d’au moins un retour sensoriel par anticipation, et la figure 6 est un organigramme détaillant les étapes du procédé de commande.FIG. 1a schematically represents a control interface such as a human-machine interface for a motor vehicle FIG. 1B schematically represents a side view of the interface of FIG. 1a, FIGS. 2a to 4d represent schematic different examples of display on a tactile surface of the interface of FIGS. 1a and 1b for anticipation of generation of sensory feedback, FIG. 5 is a flow diagram of the steps of a control method according to the invention for the generation of 'at least one sensory feedback in advance, and Figure 6 is a flowchart detailing the steps of the control process.

Sur ces figures, les éléments identiques portent les mêmes numéros de référence.In these figures, identical elements have the same reference numbers.

Les réalisations suivantes sont des exemples. Bien que la description se réfère à un ou plusieurs modes de réalisation, ceci ne signifie pas nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s’appliquent uniquement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation peuvent également être combinées ou interchangées pour fournir d’autres réalisations.The following embodiments are examples. Although the description refers to one or more embodiments, this does not necessarily mean that each reference relates to the same embodiment, or that the characteristics apply only to a single embodiment. Simple features of different embodiments can also be combined or interchanged to provide other embodiments.

Dans la description, on peut indexer certains éléments, comme par exemple premier élément ou deuxième élément. Dans ce cas, il s’agit d’un simple indexage pour différencier et dénommer des éléments proches mais non identiques. Cette indexation n’implique pas une priorité d’un élément par rapport à un autre et on peut aisément interchanger de telles dénominations sans sortir du cadre de la présente description. Cette indexation n’implique pas non plus un ordre dansIn the description, it is possible to index certain elements, such as for example first element or second element. In this case, it is a simple indexing to differentiate and name similar but not identical elements. This indexing does not imply a priority of one element over another and one can easily interchange such names without departing from the scope of this description. Nor does this indexing imply an order in

-7le temps.-7 time.

Interface de commande dite interface homme-machineCommand interface called man-machine interface

La figure la représente une interface de commande pour véhicule automobile 1. Une telle interface 1 est couramment désignée par interface homme-machine. H s’agit avantageusement d’une interface homme-machine qui soit reconfigurable. L’interface de commande 1 comporte :FIG. 1a represents a control interface for a motor vehicle 1. Such an interface 1 is commonly designated by man-machine interface. It is advantageously a human-machine interface which is reconfigurable. The command interface 1 comprises:

une surface tactile 2 configurée pour détecter un contact d’un doigt d’un utilisateur ou tout autre élément de pointage 3 (par exemple un stylet ou encore un doigt) et son déplacement sur la surface tactile 2, et un module de retour sensoriel 4 configuré pour générer au moins un retour sensoriel.a tactile surface 2 configured to detect a contact of a user's finger or any other pointing element 3 (for example a stylus or even a finger) and its movement on the tactile surface 2, and a sensory feedback module 4 configured to generate at least one sensory feedback.

L’interface de commande 1 peut comporter en outre un écran d’affichage 5.The control interface 1 can also include a display screen 5.

Surface tactileTouch surface

Une fois montée dans l’habitacle du véhicule, la surface tactile 2 peut ainsi former un périphérique d’entrée permettant aux utilisateurs de l’interface de commande 1 d’interagir avec celle-ci grâce au toucher.Once mounted in the passenger compartment of the vehicle, the touch surface 2 can thus form an input device allowing users of the control interface 1 to interact with it by touch.

La surface tactile 2 est par exemple configurée pour déterminer les coordonnées spatiales du point où l’utilisateur appuie avec son doigt ou un autre élément de pointage 3 sur la surface tactile 2. La surface tactile 2 permet donc de localiser la position de l’élément de pointage 3 sur la surface tactile 2. Lorsque l’élément de pointage 3 se déplace, la surface tactile 2 est configurée pour déterminer des coordonnées spatiales successives correspondant à au moins deux points successifs sur la surface tactile 2.The tactile surface 2 is for example configured to determine the spatial coordinates of the point where the user presses with his finger or another pointing element 3 on the tactile surface 2. The tactile surface 2 therefore makes it possible to locate the position of the element pointing 3 on the touch surface 2. When the pointing element 3 moves, the touch surface 2 is configured to determine successive spatial coordinates corresponding to at least two successive points on the touch surface 2.

Selon un mode de réalisation, la surface tactile 2 comporte une dalle tactile capacitive. Selon l’exemple illustré sur la figure lb, la dalle tactile capacitive comporte au moins un capteur capacitif 21 pour détecter au moins une variation de la capacité au niveau de la surface de la dalle tactile capacitive. Pour cela, le capteur capacitif 21 comporte par exemple un réseau d’électrodes, par exemple en ITO (oxyde indium - étain). La dalle tactile capacitive peut comporter en outre une plaque frontale 22 (ou plaque de contact), par exemple en polycarbonate ou en verre. La plaque frontale 22 est agencée sur le capteur capacitif 21 et est destinée à faire face à Γ utilisateur une fois montée dans l’habitacle du véhicule. Cette plaque frontale 22 peut être rigide de façon à procurer laAccording to one embodiment, the touch surface 2 comprises a capacitive touch screen. According to the example illustrated in FIG. 1b, the capacitive touchscreen comprises at least one capacitive sensor 21 for detecting at least one variation of the capacity at the surface of the capacitive touchscreen. For this, the capacitive sensor 21 comprises for example an array of electrodes, for example ITO (indium oxide - tin). The capacitive touchscreen may also include a front plate 22 (or contact plate), for example made of polycarbonate or glass. The front plate 22 is arranged on the capacitive sensor 21 and is intended to face the user once mounted in the passenger compartment of the vehicle. This front plate 22 can be rigid so as to provide the

-8rigidité souhaitée à la dalle tactile capacitive. La surface tactile 2, avantageusement plane, de la dalle tactile capacitive est ainsi formée par la surface de la plaque frontale 22.-8 stiffness desired with the capacitive touchscreen. The tactile surface 2, advantageously flat, of the capacitive tactile screen is thus formed by the surface of the front plate 22.

Selon un autre exemple non représenté, la surface tactile 2 peut utiliser des résistances sensibles à la pression pour détecter un contact et un déplacement d’un élément de pointage tel qu’un doigt de rutilisateur sur la surface tactile 2. La surface tactile 2 comporte alors un capteur de pression, tel qu’utilisant la technologie LSR pour « Lorce Sensing Resistor » en anglais.According to another example not shown, the touch surface 2 can use pressure-sensitive resistors to detect contact and a displacement of a pointing element such as a user's finger on the touch surface 2. The touch surface 2 comprises then a pressure sensor, such as using LSR technology for "Lorce Sensing Resistor" in English.

L’écran d’affichage 5 peut être déporté de la surface tactile 2.The display screen 5 can be removed from the touch surface 2.

Selon une variante de réalisation, la plaque frontale 22 de la dalle tactile capacitive peut être peinte d’une couleur opaque de manière à cacher les éléments disposés derrière. La dalle tactile capacitive peut alors former ce qui est appelé un pavé tactile ou « Touchpad » en anglais ou un bouton poussoir ou « Push » en anglais.According to an alternative embodiment, the front plate 22 of the capacitive touchscreen can be painted in an opaque color so as to hide the elements arranged behind. The capacitive touch screen can then form what is called a touch pad or "Touchpad" in English or a push button or "Push" in English.

Selon une autre variante illustrée sur la figure lb, l’écran d’affichage 5 est disposé en regard et en contact avec la surface tactile 2 telle qu’une dalle tactile capacitive, plus précisément sous cette surface tactile 2, de manière à former un écran tactile. Dans ce cas, l’écran d’affichage 5 est par exemple fixé par collage au dos d’un support du capteur capacitif 21 de la dalle tactile capacitive. On entend par « dos », la partie opposée à la partie portant le capteur capacitif 21. La surface tactile 2 est alors transparente pour afficher les images de l’écran d’affichage 5 à travers la surface tactile 2. Autrement dit selon l’exemple avec une dalle tactile capacitive comprenant le capteur capacitif 21 et la plaque frontale 22, ces derniers sont transparents.According to another variant illustrated in FIG. 1b, the display screen 5 is arranged facing and in contact with the touch surface 2 such as a capacitive touch screen, more precisely under this touch surface 2, so as to form a touchscreen. In this case, the display screen 5 is for example fixed by gluing to the back of a support of the capacitive sensor 21 of the capacitive touch screen. “Back” is understood to mean the part opposite to the part carrying the capacitive sensor 21. The touch surface 2 is then transparent for displaying the images of the display screen 5 through the touch surface 2. In other words according to the example with a capacitive touch screen comprising the capacitive sensor 21 and the front plate 22, the latter are transparent.

Module de retour sensorielSensory feedback module

Selon un exemple de réalisation, le module de retour sensoriel 4 peut être relié à la surface tactile 2 et/ou à l’écran d’affichage 5 dans le cas d’un écran tactile.According to an exemplary embodiment, the sensory feedback module 4 can be connected to the touch surface 2 and / or to the display screen 5 in the case of a touch screen.

Le module de retour sensoriel 4 peut notamment être configuré pour générer un retour haptique en faisant vibrer la surface tactile 2. On désigne par « haptique », un retour par le toucher. Dans ce cas, le module de retour sensoriel 4 peut comporter au moins un actionneur 41, 42 relié à la surface tactile 2, et configuré pour entraîner en mouvement la surface tactile, de manière à générer le retour haptique en fonction d’un signal de commande. Deux actionneurs 41, 42 sont représentés de façon schématique sur la figure lb. Le retour haptique est un signal vibratoire tel qu’une vibration produite par un signal de commande sinusoïdal ou par un signal de commandeThe sensory feedback module 4 can in particular be configured to generate a haptic feedback by vibrating the tactile surface 2. The term “haptic” designates a feedback by touch. In this case, the sensory feedback module 4 can comprise at least one actuator 41, 42 connected to the touch surface 2, and configured to drive the touch surface in motion, so as to generate the haptic feedback as a function of a signal. ordered. Two actuators 41, 42 are shown schematically in Figure lb. Haptic feedback is a vibratory signal such as a vibration produced by a sinusoidal control signal or by a control signal

-9comportant un ou une succession de puises, envoyé à l’actionneur 41 et/ou 42. La vibration peut être dirigée dans le plan de la surface tactile 2 ou orthogonalement au plan de la surface tactile 2 ou encore selon une combinaison de ces deux directions. Dans le cas de plusieurs actionneurs 41, 42, ces derniers peuvent être agencés sous la surface tactile 2, dans différentes positions (au centre ou sur un côté) ou dans différentes orientations (dans la direction de l’appui sur la surface ou dans un autre axe). De tels actionneurs 41, 42 sont connus et ne seront pas décrits plus en détail dans la présente description. Un paramètre du retour haptique peut être choisi parmi l’intensité de l’accélération, la fréquence, l’amplitude, la durée, la durée entre deux signaux identiques, la phase. On peut ainsi par exemple simuler différentes textures de la surface tactile 2, tel que différentes rugosités de surface.-9 comprising one or a succession of pulses, sent to the actuator 41 and / or 42. The vibration can be directed in the plane of the tactile surface 2 or orthogonally to the plane of the tactile surface 2 or even according to a combination of these two directions. In the case of several actuators 41, 42, the latter can be arranged under the touch surface 2, in different positions (in the center or on one side) or in different orientations (in the direction of pressing on the surface or in a other axis). Such actuators 41, 42 are known and will not be described in more detail in the present description. A haptic feedback parameter can be chosen from the intensity of the acceleration, the frequency, the amplitude, the duration, the duration between two identical signals, the phase. It is thus possible, for example, to simulate different textures of the tactile surface 2, such as different surface roughnesses.

En variante ou en accompagnement du retour haptique, le module de génération de retour sensoriel 4 peut être configuré pour générer un retour sonore à rutilisateur. Un paramètre du retour sonore peut être choisi parmi l’intensité du volume, la phase, la fréquence, la durée, la durée entre deux signaux identiques.As a variant or as an accompaniment to the haptic feedback, the sensory feedback generation module 4 can be configured to generate an audible feedback to the user. A sound feedback parameter can be chosen from the volume intensity, phase, frequency, duration, duration between two identical signals.

On peut prévoir en outre d’afficher sur l’écran d’affichage 5 un ou plusieurs motifs correspondants au retour haptique et/ou sonore. Ainsi, avantageusement dans le cas d’un écran tactile, une image affichée sur l’écran tactile peut représenter des motifs marqués, telles des microbosses, au niveau de la position de l’élément de pointage 3. On parle dans ce cas de retour visuel. Le retour visuel peut également être généré par le module de retour sensoriel 4.Provision may also be made to display on the display screen 5 one or more patterns corresponding to the haptic and / or sound feedback. Thus, advantageously in the case of a touch screen, an image displayed on the touch screen can represent marked patterns, such as microbosses, at the position of the pointing element 3. We speak in this case of return visual. Visual feedback can also be generated by the sensory feedback module 4.

Le module de retour sensoriel 4 peut être configuré pour générer tous les retours sensoriels, c’est-à-dire haptique et/ou sonore et/ou visuel, en même temps. Au contraire, le module de retour sensoriel 4 peut être configuré pour générer l’un ou l’autre des retours de façon décalée dans le temps par rapport à un autre retour. Autrement dit, à titre d’exemple illustratif non limitatif lorsqu’un retour haptique est généré, un retour sonore peut être généré avant, en même temps ou après la génération du retour haptique. En effet, afin que rutilisateur perçoive en même temps un retour haptique et un retour sonore, il est préférable de ne pas les générer en même temps mais de façon avancée ou retardée l’un par rapport à l’autre. Il en est de même pour la génération d’un retour visuel qui peut être généré avant, en même temps ou après la génération d’un retour haptique et/ou d’un retour sonore.The sensory feedback module 4 can be configured to generate all sensory feedback, i.e. haptic and / or audible and / or visual, at the same time. On the contrary, the sensory feedback module 4 can be configured to generate one or the other feedback in a time-shifted manner with respect to another feedback. In other words, by way of nonlimiting illustrative example when a haptic feedback is generated, an audible feedback can be generated before, at the same time or after the generation of the haptic feedback. Indeed, in order for the user to perceive haptic feedback and sound feedback at the same time, it is preferable not to generate them at the same time but in an advanced or delayed manner with respect to each other. It is the same for the generation of a visual feedback which can be generated before, at the same time or after the generation of a haptic feedback and / or an audible feedback.

En particulier, en référence aux figures 2a, 2b, le module de retour sensoriel 4 est configuréIn particular, with reference to FIGS. 2a, 2b, the sensory feedback module 4 is configured

-10pour générer un ou plusieurs retours sensoriels, de même nature ou de nature différente, lorsque l’élément de pointage 3, ici le doigt 3, passe ou franchit une frontière cible 6. Comme la surface tactile est lisse, cette frontière cible 6 n’est pas matérialisée haptiquement sur la surface tactile 2.-10to generate one or more sensory feedbacks, of the same or different nature, when the pointing element 3, here the finger 3, crosses or crosses a target border 6. As the tactile surface is smooth, this target border 6 n is not haptically materialized on the touch surface 2.

Il peut s’agir d’une frontière 6 séparant deux zones Zl, Z2 de l’écran d’affichage 5, par exemple de l’écran tactile, comme illustré sur la figure 2a. Il peut également s’agir d’une frontière 6 indiquant que l’on entre dans une zone ou encore que l’on sort d’une zone, comme schématisé sur la figure 2b représentant de façon schématique le doigt 3 sortant de la zone Z2. Notamment, grâce à un retour haptique, on peut simuler sur la surface tactile 2, une texture au niveau de cette frontière cible 6 entre deux zones Zl, Z2 par exemple, ou délimitant une entrée ou une sortie de zone.It can be a border 6 separating two zones Z1, Z2 of the display screen 5, for example of the touch screen, as illustrated in FIG. 2a. It can also be a border 6 indicating that one enters a zone or that one leaves a zone, as shown diagrammatically in FIG. 2b schematically representing the finger 3 leaving zone Z2 . In particular, thanks to a haptic feedback, it is possible to simulate on the tactile surface 2, a texture at the level of this target border 6 between two zones Z1, Z2 for example, or delimiting an entry or exit from a zone.

Unité de traitementProcessing unit

L’interface de commande 1 comporte en outre une unité de traitement 7 représentée de façon schématique sur les figures la et lb. L’unité de traitement 7 est configurée pour échanger des informations et/ou données avec la surface tactile 2 et également avec le module de retour sensorielThe control interface 1 also includes a processing unit 7 shown schematically in Figures la and lb. The processing unit 7 is configured to exchange information and / or data with the touch surface 2 and also with the sensory feedback module.

4.4.

Cette unité de traitement 7 peut comporter un ou plusieurs moyens de traitement tels qu’un ou plusieurs microcontrôleurs ou ordinateurs, ayant des mémoires et programmes notamment adaptés pour recevoir des informations de position et déplacement ou glissement de l’élément de pointage 3, ces informations ayant été détectées notamment par la surface tactile 2. L’unité de traitement 7 est par exemple l’ordinateur de bord du véhicule automobile. Comme dit précédemment, la surface tactile 2 peut relever des coordonnées spatiales successives correspondant à des points d’appui, et peut transmettre ces informations avec les coordonnées à l’unité de traitement 7. L’unité de traitement 7 comprend donc au moins un moyen de réception des informations transmises par la surface tactile 2.This processing unit 7 may include one or more processing means such as one or more microcontrollers or computers, having memories and programs in particular suitable for receiving position information and displacement or sliding of the pointing element 3, this information having been detected in particular by the touch surface 2. The processing unit 7 is for example the on-board computer of the motor vehicle. As said previously, the tactile surface 2 can take up successive spatial coordinates corresponding to support points, and can transmit this information with the coordinates to the processing unit 7. The processing unit 7 therefore comprises at least one means for receiving information transmitted by the touchscreen 2.

L’unité de traitement 7 comporte en outre un ou plusieurs moyens de traitement tel qu’un circuit de pilotage configuré pour piloter le module de retour sensoriel 4 afin de générer au moins un retour sensoriel tel qu’un retour haptique et/ou sonore et/ou visuel. Le circuit de pilotage peut comprendre des moyens d’émission d’une commande de génération de retour sensoriel à destination du module de retour sensoriel 4.The processing unit 7 further comprises one or more processing means such as a control circuit configured to control the sensory feedback module 4 in order to generate at least one sensory feedback such as a haptic and / or audible feedback and / or visual. The control circuit can include means for transmitting a sensory feedback generation command to the sensory feedback module 4.

-11En référence à la figure lb, l’interface de commande 1 peut comporter en outre un dispositif de mesure 9 représenté de façon très schématique sur cette figure lb. Le dispositif de mesure 9 comprend par exemple un ou plusieurs capteurs de pression configurés pour mesurer la pression exercée sur la surface tactile 2. Il s’agit par exemple d’une ou plusieurs jauges de contrainte. La ou les jauges de contraintes sont agencées en liaison directe avec la surface tactile 2 et sont astucieusement réparties selon les besoins. À titre d’exemple non limitatif, on peut prévoir une jauge de contrainte sensiblement au milieu de la surface tactile 2, par exemple dans le cas d’un pavé tactile dit « Touchpad ». Avantageusement, une ou plusieurs jauges de contraintes sont disposées sur un ou plusieurs bords de la surface tactile 2. Par exemple, on peut prévoir quatre jauges de contraintes, chacune placée au niveau d’un angle de la surface tactile 2. La ou chaque jauge de contrainte peut être disposée au niveau d’amortisseurs prévus sous la surface tactile 2 de façon à mesurer le déplacement de la surface tactile 2 lors du contact et du glissement de l’élément de pointage 3 sur la surface tactile 2.With reference to FIG. 1b, the control interface 1 may also include a measuring device 9 shown very schematically in this FIG. The measuring device 9 comprises for example one or more pressure sensors configured to measure the pressure exerted on the touch surface 2. It is, for example, one or more strain gauges. The strain gauge (s) are arranged in direct connection with the touch surface 2 and are cleverly distributed as required. By way of nonlimiting example, one can provide a strain gauge substantially in the middle of the touch surface 2, for example in the case of a touch pad called "Touchpad". Advantageously, one or more strain gauges are arranged on one or more edges of the tactile surface 2. For example, one can provide four strain gauges, each placed at an angle of the tactile surface 2. The or each gauge stress can be arranged at the level of shock absorbers provided under the tactile surface 2 so as to measure the displacement of the tactile surface 2 during the contact and the sliding of the pointing element 3 on the tactile surface 2.

Dans le cas d’un tel dispositif de mesure 9, Lunité de traitement 7 comporte au moins un moyen de traitement pour recevoir des signaux de mesure du dispositif de mesure 9, en particulier du ou de chaque capteur de pression. La ou les mesures de pression sont avantageusement prises en compte. À titre d’exemple non limitatif, les mesures de pression permettent d’identifier la façon dont rutilisateur appuie sur la surface tactile 2 par le biais de l’élément de pointage 3, afin de générer en conséquence le signal approprié pour la simulation de texture.In the case of such a measurement device 9, the processing unit 7 comprises at least one processing means for receiving measurement signals from the measurement device 9, in particular from or from each pressure sensor. The pressure measurement (s) are advantageously taken into account. By way of nonlimiting example, the pressure measurements make it possible to identify the way in which the user presses on the tactile surface 2 by means of the pointing element 3, in order to consequently generate the appropriate signal for the texture simulation. .

En outre, Γunité de traitement 7 est avantageusement configurée pour anticiper que l’élément de pointage 3 va franchir ultérieurement une frontière cible 6 de la surface tactile 2, et pour piloter le module de retour sensoriel 4 avant le franchissement effectif de la frontière cible 6, afin de générer au moins un retour sensoriel perçu par rutilisateur lorsque l’élément de pointage 3 franchit effectivement la frontière cible 6.In addition, the processing unit 7 is advantageously configured to anticipate that the pointing element 3 will later cross a target border 6 of the tactile surface 2, and to control the sensory feedback module 4 before the effective crossing of the target border 6 , in order to generate at least one sensory feedback perceived by the user when the pointing element 3 effectively crosses the target border 6.

Plus précisément, Lunité de traitement 7 est configurée pour : déterminer un ou plusieurs paramètres de déplacement de l’élément de pointage 3, comme la position de l’élément de pointage, en particulier sa distance par rapport à une frontière cible 6, sa vitesse de déplacement et son accélération en direction d’une frontière cible 6 de la surface tactile 2, et déterminer, à partir du déplacement de l’élément de pointage 3, une fenêtre temporelleMore precisely, the processing unit 7 is configured to: determine one or more parameters of displacement of the pointing element 3, such as the position of the pointing element, in particular its distance from a target border 6, its speed of displacement and its acceleration towards a target border 6 of the tactile surface 2, and determining, from the displacement of the pointing element 3, a time window

-12prévisionnelle de franchissement de la frontière cible 6 par l’élément de pointage 3.-12 provisional crossing of the target border 6 by the pointing element 3.

On entend par fenêtre temporelle prévisionnelle de franchissement de la frontière cible 6 par l’élément de pointage 3, un intervalle de temps durant lequel l’élément de pointage 3 va franchir de façon assez certaine la frontière cible 6. Ainsi, si l’élément de pointage 3 se trouve à une distance d de la frontière cible 6 et se déplace à une vitesse y, l’élément de pointage 3 va franchir la frontière cible à l’instant t= v/d. Etant donné qu’il s’agit d’un prévisionnel, on peut y associer une incertitude, par exemple +/-2ms d’où la fenêtre temporelle prévisionnelle.The term time window for crossing the target border 6 by the pointing element 3 is understood to mean a time interval during which the pointing element 3 will fairly certainly cross the target border 6. Thus, if the element pointing 3 is at a distance d from the target border 6 and moves at a speed y, the pointing element 3 will cross the target border at time t = v / d. Since it is a forecast, we can associate an uncertainty, for example +/- 2ms hence the forecast time window.

La fenêtre temporelle de franchissement de la frontière cible 6 par l’élément de pointage 3 comprend donc :The time window for crossing the target border 6 by the pointing element 3 therefore comprises:

une borne inférieure correspondant à l’instant à partir duquel l’élément de pointage 3 peut arriver sur la frontière cible 6 et une borne supérieure correspondant à l’instant jusqu’auquel l’élément de pointage 3 peut arriver sur la frontière cible 6. Bien entendu, la borne supérieure correspond à un instant ultérieur par rapport à la borne inférieure.a lower bound corresponding to the instant from which the pointing element 3 can arrive at the target border 6 and an upper bound corresponding to the instant until which the pointing element 3 can arrive at the target border 6. Of course, the upper bound corresponds to a later instant relative to the lower bound.

Selon un exemple de réalisation, la durée de la fenêtre temporelle prévisionnelle de franchissement de la frontière cible est inférieure à 5ms, par exemple inférieure à 2ms, de préférence inférieure à 1ms.According to an exemplary embodiment, the duration of the forecast time window for crossing the target border is less than 5 ms, for example less than 2 ms, preferably less than 1 ms.

En particulier, l’unité de traitement 7 peut déterminer un instant de franchissement de la frontière cible 6 par l’élément de pointage 3. Cela correspond dans ce cas à une fenêtre temporelle dont les bornes inférieure et supérieure sont égales. On entend par la suite par « fenêtre temporelle prévisionnelle » aussi bien un intervalle de temps avec une borne inférieure et une borne supérieure différentes, qu’un instant déterminé, c’est-à-dire une fenêtre temporelle dont la borne supérieure est la même que la borne inférieure.In particular, the processing unit 7 can determine an instant of crossing of the target border 6 by the pointing element 3. This corresponds in this case to a time window whose lower and upper limits are equal. Subsequently, the term “forecast time window” is understood to mean both a time interval with a different lower and upper bound, as well as a determined instant, that is to say a time window whose upper bound is the same. than the lower bound.

À partir de cette fenêtre temporelle prévisionnelle de franchissement déterminée, Eunité de traitement 7 est en outre configurée pour calculer un instant t d’émission d’une commande de génération de retour sensoriel, l’instant t d’émission étant antérieur à la fenêtre temporelle de franchissement de la frontière cible 6. Autrement dit, l’instant t d’émission est antérieur à la borne inférieure de la fenêtre temporelle déterminée.From this predetermined crossing time window, the processing unit 7 is further configured to calculate an instant t of transmission of a sensory feedback generation command, the instant t of transmission being prior to the time window. crossing the target border 6. In other words, the instant t of transmission is earlier than the lower limit of the determined time window.

Enfin, Eunité de traitement 7 est configurée pour émettre, à l’instant t d’émission, la commande de génération d’au moins un retour sensoriel par le module de retour sensoriel 4.Finally, the processing unit 7 is configured to send, at the instant t of transmission, the command to generate at least one sensory feedback by the sensory feedback module 4.

-13Ledit au moins un retour sensoriel est alors perçu par rutilisateur de l’interface pendant la fenêtre temporelle de franchissement de la frontière cible 6 déterminée. On évite ainsi un décalage temporel entre la perception du retour sensoriel et le passage de l’élément de pointage 3 sur la frontière cible 6.Said at least one sensory feedback is then perceived by the user of the interface during the time window for crossing the target border 6 determined. This avoids a time difference between the perception of sensory feedback and the passage of the pointing element 3 over the target border 6.

L’unité de traitement 7 est donc ainsi configurée pour prévoir le franchissement d’une frontière cible 6 afin de pouvoir y associer de façon concordante un retour haptique.The processing unit 7 is therefore thus configured to provide for the crossing of a target border 6 so as to be able to associate therewith a haptic feedback.

On décrit maintenant en référence aux figures la à 4d, un mode de réalisation particulier. Selon ce mode de réalisation, l’unité de traitement 7 est configurée pour analyser le déplacement de l’élément de pointage 3 de façon à prévoir le franchissement de la frontière cible 6, c’est-à-dire de façon à pouvoir déterminer que l’élément de pointage 3 se déplace en direction d’une frontière cible 6 de la surface tactile 2, et déterminer, à partir du déplacement de l’élément de pointage 3, une fenêtre temporelle prévisionnelle de franchissement de la frontière cible 6 par l’élément de pointage 3.We will now describe with reference to FIGS. 1a to 4d, a particular embodiment. According to this embodiment, the processing unit 7 is configured to analyze the displacement of the pointing element 3 so as to predict the crossing of the target border 6, that is to say so as to be able to determine that the pointing element 3 moves in the direction of a target border 6 of the tactile surface 2, and determine, from the displacement of the pointing element 3, a forecast time window for crossing the target border 6 by l pointing device 3.

A cet effet, l’unité de traitement 7 est configurée pour évaluer au moins un paramètre de l’élément de pointage 3 sur la surface tactile 2, dans le temps. H s’agit notamment de l’évaluation de la distance entre l’élément de pointage et la frontière cible 6, de la vitesse de déplacement de l’élément de pointage 3, ou d’une fonction de la vitesse telle que la dérivée ou accélération.To this end, the processing unit 7 is configured to evaluate at least one parameter of the pointing element 3 on the touch surface 2, over time. This is in particular the evaluation of the distance between the pointing element and the target border 6, the speed of movement of the pointing element 3, or a function of the speed such as the derivative or acceleration.

L’unité de traitement 7 est en outre configurée pour utiliser ce paramètre de déplacement, par exemple la vitesse ou l’accélération évaluée, pour estimer par calcul la fenêtre temporelle prévisionnelle de franchissement de la frontière cible 6.The processing unit 7 is further configured to use this displacement parameter, for example the speed or the acceleration evaluated, to estimate by calculation the forecast time window for crossing the target border 6.

Plus précisément, selon le mode de réalisation décrit, l’unité de traitement 7 peut comporter un ou plusieurs moyens de traitement configurés pour :More precisely, according to the embodiment described, the processing unit 7 may include one or more processing means configured for:

évaluer la direction de déplacement de l’élément de pointage 3 sur la surface tactile 2, évaluer au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps, et déterminer la fenêtre temporelle prévisionnelle de franchissement de la frontière cible 6 à partir des données de position, de direction et d’évolution dans le temps du déplacement de l’élément de pointage 3.evaluate the direction of movement of the pointing element 3 on the touch surface 2, evaluate at least one parameter of movement of the pointing element 3 on the touch surface 2 in time, and determine the forecast time window for crossing the target border 6 from the position, direction and time evolution data of the movement of the pointing element 3.

Pour l’évaluation de la direction, l’unité de traitement 7 peut analyser les informations deFor the evaluation of the management, the processing unit 7 can analyze the information of

-14localisation de position de points successifs, transmises par la surface tactile 2. Ainsi, en référence aux figures 2a et 2b, Γ unité de traitement 7 peut déterminer que l’élément de pointage 3 se déplace selon le sens schématisé par la flèche Fl, qui est ici horizontal et vers la droite. Bien entendu, Γunité de traitement 7 peut aussi bien détecter des mouvements rectilignes qu’ils soient horizontaux ou verticaux (flèche F2 sur la figure 3b), mais aussi circulaires (flèche F3 sur la figure 4a) ou encore en biais par rapport à la surface tactile 2 (flèche F4 figure 4c), dans un sens ou dans l’autre, par exemple vers la droite (flèche Fl sur les figures 2b, 4b et flèche F4 sur la figure 4c ) ou vers la gauche (flèche F5 sur la figure 4d). Les termes verticaux et horizontaux, gauche et droite, sont ici utilisés en référence à la disposition des éléments tels que représentés sur les figures 2a à 4d.-14 location of position of successive points, transmitted by the tactile surface 2. Thus, with reference to FIGS. 2a and 2b, traitement processing unit 7 can determine that the pointing element 3 moves in the direction shown diagrammatically by the arrow Fl, which here is horizontal and to the right. Of course, the processing unit 7 can also detect rectilinear movements whether horizontal or vertical (arrow F2 in FIG. 3b), but also circular (arrow F3 in FIG. 4a) or even at an angle to the surface. touch 2 (arrow F4 in figure 4c), in one direction or the other, for example to the right (arrow Fl in figures 2b, 4b and arrow F4 in figure 4c) or to the left (arrow F5 in figure 4d). The vertical and horizontal terms, left and right, are used here with reference to the arrangement of the elements as shown in FIGS. 2a to 4d.

De plus, l’unité de traitement 7 peut comprendre au moins un moyen de calcul permettant de déduire la vitesse de l’élément de pointage 3 à partir des informations de localisation de position de points successifs, transmises par la surface tactile 2, et en fonction d’une horloge interne de l’interface homme-machine par exemple. Afin d’améliorer les performances, l’unité de traitement 7 peut comprendre au moins un moyen de calcul de la dérivée de la vitesse, donc de l’accélération, par exemple à partir d’informations de localisation de position de points plus éloignés entre eux, transmises par la surface tactile 2.In addition, the processing unit 7 can comprise at least one calculation means making it possible to deduce the speed of the pointing element 3 from the position location information of successive points, transmitted by the tactile surface 2, and by function of an internal clock of the man-machine interface for example. In order to improve performance, the processing unit 7 may comprise at least one means of calculating the derivative of the speed, therefore of the acceleration, for example from position location information of more distant points between them, transmitted by the tactile surface 2.

Enfin, l’unité de traitement 7 peut comprendre une partie logicielle permettant, à partir de ces informations de position, de direction et d’évolution de déplacement dans le temps, de faire un diagnostic de l’intention de rutilisateur, ou autrement dit permettant de réaliser une projection de trajectoire de l’élément de pointage 3. Pour ce faire, l’Homme du Métier peut adapter le modèle de calcul utilisé par la partie logicielle, qui peut notamment être de façon non limitative un réseau de neurones ou basé sur une logique floue.Finally, the processing unit 7 can comprise a software part making it possible, on the basis of this position, direction and movement evolution information over time, to make a diagnosis of the intention of the user, or in other words allowing to carry out a projection of the trajectory of the pointing element 3. To do this, the skilled person can adapt the calculation model used by the software part, which can in particular be nonlimitingly a neural network or based on fuzzy logic.

L’unité de traitement 7 peut comporter un moyen de décision de la génération ou non d’un ou plusieurs retours sensoriels à partir du diagnostic.The processing unit 7 may include a means for deciding whether or not to generate one or more sensory feedbacks from the diagnosis.

Afin d’améliorer la fiabilité du diagnostic, Γunité de traitement 7 peut prendre en compte la pression mesurée par le ou les capteurs de pressions du dispositif de mesure 9 pour la détermination de la fenêtre temporelle de franchissement de la frontière cible 6 par l’élément de pointage 3. En effet, la ou les mesures de pressions permettent de conforter ou non le fait que rutilisateur va effectivement franchir la frontière cible 6. Par exemple, si la pression sur la surfaceIn order to improve the reliability of the diagnosis, the processing unit 7 can take into account the pressure measured by the pressure sensor or sensors of the measuring device 9 for determining the time window for crossing the target border 6 by the element. Pointing 3. Indeed, the pressure measurement (s) make it possible to confirm or not the fact that the user will actually cross the target border 6. For example, if the pressure on the surface

-15tactile 2 est de nature continue, c’est-à-dire qu’elle n’évolue pas ou peu, cela se traduit par le fait que l’utilisateur ne va pas relever brusquement l’élément de pointage 3 tel que son doigt et va au contraire bien continuer sur sa trajectoire, donc le moyen de décision peut confirmer la génération d’un retour sensoriel dans ce cas.-15tactile 2 is of a continuous nature, that is to say that it does not evolve or little, this results in the fact that the user will not suddenly raise the pointing element 3 such as his finger and will on the contrary continue well on its trajectory, so the decision means can confirm the generation of a sensory feedback in this case.

La ou les mesures de pression peuvent également être prises en compte par l’unité de traitement 7 pour déterminer le temps disponible pour réaliser le diagnostic, c’est-à-dire ici pour déterminer la fenêtre temporelle de franchissement de la zone cible 6. En effet, si la pression a tendance à augmenter, cela traduit un ralentissement du déplacement, ce qui permet d’augmenter le temps disponible pour réaliser le diagnostic par exemple pour améliorer encore sa fiabilité.The pressure measurement (s) can also be taken into account by the processing unit 7 to determine the time available to carry out the diagnosis, that is to say here to determine the time window for crossing the target area 6. In fact, if the pressure tends to increase, this translates into a slowing down of the displacement, which makes it possible to increase the time available for carrying out the diagnosis for example to further improve its reliability.

Bien entendu, il s’agit d’un procédé itératif dans la mesure où on va scruter ou surveiller en continu les paramètres de déplacement de l’élément de pointage 3 ce qui permet d’affiner le calcul de détermination de la fenêtre prévisionnelle de franchissement au fur et à mesure que l’élément de pointage se rapproche de la frontière cible 6.Of course, it is an iterative process insofar as one will continuously scan or monitor the displacement parameters of the pointing element 3 which makes it possible to refine the calculation for determining the forecast crossing window as the pointing element approaches the target border 6.

Exemples d’applications non limitatifs :Examples of non-limiting applications:

Ainsi, dans l’exemple de la figure 2a, sur l’écran, ici l’écran tactile 2, au moins deux zones ZI et Z2 sont affichées. Lorsque l’élément de pointage 3, ici le doigt 3 de l’utilisateur, est détecté dans la zone ZI en se déplaçant ici horizontalement et vers la droite suivant la flèche Fl, l’unité de traitement 7 peut réaliser un calcul prévisionnel permettant de déterminer la fenêtre temporelle prévisionnelle pendant laquelle le doigt 3 va franchir la frontière 6 entre les deux zones ZI et Z2. Etant donné que l’on connaît d’une part le délai entre l’émission d’un signal de commande de retour haptique d’une part et le moment où les actionneurs 41 et/ou 42 vibrent effectivement et l’utilisateur peut ressentir le retour haptique, l’unité de traitement 7 peut déterminer l’instant pour émettre par anticipation, c’est-à-dire en avance par rapport à la fenêtre temporelle déterminée, un signal de commande à destination du module de retour sensoriel 4 qui génère le(s) retour(s) haptique.Thus, in the example of FIG. 2a, on the screen, here the touch screen 2, at least two zones ZI and Z2 are displayed. When the pointing element 3, here the user's finger 3, is detected in the zone ZI by moving here horizontally and to the right according to the arrow F1, the processing unit 7 can perform a forecast calculation making it possible to determine the forecast time window during which the finger 3 will cross the border 6 between the two zones ZI and Z2. Since we know on the one hand the delay between the emission of a haptic feedback control signal on the one hand and the moment when the actuators 41 and / or 42 actually vibrate and the user can feel the haptic feedback, the processing unit 7 can determine the instant to emit in advance, that is to say in advance with respect to the determined time window, a control signal intended for the sensory feedback module 4 which generates haptic feedback (s).

Ainsi, lorsque le doigt 3 arrive effectivement sur la frontière 6, l’utilisateur perçoit le ou les retours sensoriels en concordance avec le visuel si les zones ZI et Z2 sont par exemple affichées.Thus, when the finger 3 actually arrives on the border 6, the user perceives the sensory feedback or returns in accordance with the visual if the zones ZI and Z2 are for example displayed.

Comme illustré sur la figure 2b, il se peut que les deux zones Zl, Z2 soient des zones ouvertes, c’est-à-dire sans frontière entre les deux zones Zl, Z2, mais dans ce cas, c’est le franchissement d’une des frontières marquées autour d’une des zones, ici Z2, qui est anticipé.As illustrated in FIG. 2b, it may be that the two zones Zl, Z2 are open zones, that is to say without border between the two zones Zl, Z2, but in this case, it is the crossing of 'one of the borders marked around one of the zones, here Z2, which is anticipated.

-16Bien sûr, l’unité de traitement 7 permet d’anticiper ou diagnostiquer qu’un élément de pointage 3 va entrer dans une zone (figure 2a) mais aussi qu’il va sortir d’une zone (figure 2b).Of course, the processing unit 7 makes it possible to anticipate or diagnose that a pointing element 3 will enter a zone (FIG. 2a) but also that it will leave a zone (FIG. 2b).

Bien entendu, l’invention ne se limite pas aux exemples des figures 2a et 2b. D’autres applications peuvent être envisagées. Par exemple, comme schématisé sur la figure 3a, la surface tactile 2 peut comporter une succession de zones Bl, B2, B3, B4 distinctes simulant des boutons de commande, chaque zone Bl, B2, B3, B4 étant délimitée par une surface fermée formant des frontières 6. L’unité de traitement 7 est alors configurée pour anticiper/diagnostiquer si l’élément de pointage 3 va entrer dans ou sortir de l’une ou l’autre de ces zones Bl, B2, B3, B4. À titre d’exemple non limitatif, si l’élément de pointage 3 est détecté dans la zone B2, et si rutilisateur déplace son doigt 3 verticalement, vers le bas en référence à la disposition des éléments sur la figure 3b et comme schématisé par la flèche F2, l’unité de traitement 7 est configurée pour anticiper si et lorsque l’élément de pointage 3 va sortir de la zone B2, c’est-à-dire pour déterminer que l’élément de pointage 3 se dirige vers une frontière 6 délimitant la zone B2 et déterminer la fenêtre temporelle de franchissement de cette frontière 6, afin d’activer par anticipation la génération d’un retour sensoriel significatif de la sortie de B2. Si l’élément de pointage 3 continue son mouvement descendant illustré par la flèche F2, l’unité de traitement 7 peut anticiper si et quand l’élément de pointage 3 entrera dans la zone B3 suivante, c’est-à-dire peut déterminer que l’élément de pointage 3 se dirige vers une frontière 6 délimitant la zone B3 et déterminer la fenêtre temporelle de franchissement de cette frontière 6, afin de commander de façon anticipée la commande de génération d’au moins un retour sensoriel associé à l’entrée dans la zone B3. On peut prévoir en outre un retour sensoriel différent selon que l’élément de pointage 3 entre dans ou quitte une zone fermée. En particulier, avec deux retours haptiques distincts l’on peut simuler le ressenti d’un utilisateur enfonçant, puis relâchant une touche.Of course, the invention is not limited to the examples of Figures 2a and 2b. Other applications may be considered. For example, as shown diagrammatically in FIG. 3a, the tactile surface 2 can comprise a succession of distinct zones Bl, B2, B3, B4 simulating control buttons, each zone Bl, B2, B3, B4 being delimited by a closed surface forming boundaries 6. The processing unit 7 is then configured to anticipate / diagnose whether the pointing element 3 will enter or leave one or the other of these zones B1, B2, B3, B4. By way of nonlimiting example, if the pointing element 3 is detected in the area B2, and if the user moves his finger 3 vertically, downwards with reference to the arrangement of the elements in FIG. 3b and as shown diagrammatically by the arrow F2, the processing unit 7 is configured to anticipate if and when the pointing element 3 will leave zone B2, that is to say to determine that the pointing element 3 is moving towards a border 6 delimiting zone B2 and determining the time window for crossing this border 6, in order to activate in advance the generation of a significant sensory feedback from the output of B2. If the pointing element 3 continues its downward movement illustrated by the arrow F2, the processing unit 7 can anticipate if and when the pointing element 3 will enter the next zone B3, that is to say can determine that the pointing element 3 is directed towards a border 6 delimiting the area B3 and determining the time window for crossing this border 6, in order to anticipate the command to generate at least one sensory feedback associated with the entry into zone B3. We can also provide a different sensory feedback depending on whether the pointing element 3 enters or leaves a closed area. In particular, with two separate haptic feedbacks, we can simulate the feeling of a user pressing and then releasing a key.

Dans l’exemple des figures 3a et 3b, les boutons ou touches de commande simulées sont représentées en ligne ou dans un couloir. Bien entendu, toute autre disposition peut être prévue. Par exemple, les touches virtuelles peuvent être disposées de façon circulaire comme schématisé sur la figure 4a. Comme précédemment, l’unité de traitement 7 peut anticiper à partir du déplacement selon un mouvement circulaire schématisé par la flèche F3, que l’élément de pointage 3 va franchir une frontière 6 délimitant une zone, ici B2, et à quel moment, autrement dit l’unité de traitement peut déterminer, à partir du déplacement de l’élément de pointage 3, une fenêtre temporelle durantIn the example of Figures 3a and 3b, the simulated buttons or control keys are shown online or in a corridor. Of course, any other arrangement can be provided. For example, the virtual keys can be arranged in a circular manner as shown diagrammatically in FIG. 4a. As before, the processing unit 7 can anticipate from the displacement in a circular movement shown diagrammatically by the arrow F3, that the pointing element 3 will cross a border 6 delimiting an area, here B2, and when, otherwise said the processing unit can determine, from the displacement of the pointing element 3, a time window during

-17laquelle l’élément de pointage 3 va franchir la frontière 6 délimitant la zone B2, de façon à commander la génération du ou des retours sensoriels pour qu’il(s) soi(en)t perçu(s) au bon moment à Γutilisateur.-17which the pointing element 3 will cross the border 6 delimiting the area B2, so as to control the generation of the sensory feedback (s) so that it (s) is (are) perceived at the right time to the user .

Selon une autre variante illustrée sur la figure 4b, une liste d’items A, B, C peut être affichée sur l’écran d’affichage 5, par exemple sur l’écran tactile. En fonctionnement, pour naviguer dans la liste d’items A à C, rutilisateur déplace l’élément de pointage 3 sur la surface tactile 2, et dès lors qu’un contact pointant un item, ici A, dans la liste, est détecté sur la surface tactile 2, une sous-liste d’items Al, A2, A3 peut s’afficher. Par exemple, pour chaque sous-liste, encore une autre sous-liste, ici A31, A32, A33 peut s’afficher. Ainsi, dans cet exemple, lorsque rutilisateur glisse son doigt 3 ou autre élément de pointage sur la surface tactile 2, et lorsque le doigt 3 est détecté sur l’item A3 par exemple, si la direction du mouvement est vers la droite comme schématisé par la flèche Fl, l’unité de traitement 7 peut anticiper que le doigt 3 va quitter la zone correspondant à l’item A3 et entrer dans la zone correspondant au sous-item A31 et ainsi permettre de commander par anticipation les retours sensoriels appropriés et au bon moment. Comme précédemment, on entend par anticipation, le fait que l’unité de traitement 7 peut déterminer, à partir du déplacement de l’élément de pointage 3, une fenêtre temporelle durant laquelle l’élément de pointage 3 va franchir une frontière 6 délimitant la zone correspondant à l’item A3 dans cet exemple, et aussi que l’unité de traitement 7 peut déterminer une fenêtre temporelle durant laquelle l’élément de pointage 3 va franchir une frontière 6 délimitant la zone correspondant au sous-item A31.According to another variant illustrated in FIG. 4b, a list of items A, B, C can be displayed on the display screen 5, for example on the touch screen. In operation, to navigate in the list of items A to C, the user moves the pointing element 3 on the tactile surface 2, and as soon as a contact pointing an item, here A, in the list, is detected on touchscreen 2, a sub-list of items A1, A2, A3 can be displayed. For example, for each sublist, yet another sublist, here A31, A32, A33 may appear. Thus, in this example, when the user slides his finger 3 or other pointing element on the touch surface 2, and when finger 3 is detected on the item A3 for example, if the direction of movement is to the right as shown by the arrow F1, the processing unit 7 can anticipate that the finger 3 will leave the zone corresponding to the item A3 and enter the zone corresponding to the sub-item A31 and thus make it possible to anticipate the appropriate sensory feedbacks and to good time. As before, it is meant by anticipation, the fact that the processing unit 7 can determine, from the displacement of the pointing element 3, a time window during which the pointing element 3 will cross a border 6 delimiting the zone corresponding to item A3 in this example, and also that the processing unit 7 can determine a time window during which the pointing element 3 will cross a border 6 delimiting the zone corresponding to sub-item A31.

On peut encore prévoir comme illustré sur la figure 4c, un agencement en cascade de zones A, B, C, D. L’unité de traitement 7 peut anticiper chaque franchissement de zone, c’est-à-dire déterminer une fenêtre temporelle de franchissement d’une frontière pour chaque zone A, B, C ou D, et activer par anticipation la génération du retour sensoriel approprié au bon moment.It is also possible to provide, as illustrated in FIG. 4c, a cascade arrangement of zones A, B, C, D. The processing unit 7 can anticipate each zone crossing, that is to say determine a time window of crossing a border for each zone A, B, C or D, and activating in advance the generation of the appropriate sensory feedback at the right time.

Alternativement, comme illustré sur la figure 4d, l’unité de traitement 7 peut encore anticiper le franchissement de lignes successives 11, c’est-à-dire déterminer une fenêtre temporelle de franchissement de chaque ligne 11, et activer par anticipation la génération d’au moins un retour sensoriel approprié associé au franchissement de chaque ligne 11. Dans cet exemple, chaque ligne 11 forme une frontière cible.Alternatively, as illustrated in FIG. 4d, the processing unit 7 can still anticipate the crossing of successive lines 11, that is to say determine a time window for crossing each line 11, and activate in advance the generation d 'at least one appropriate sensory feedback associated with the crossing of each line 11. In this example, each line 11 forms a target border.

On a décrit ici des exemples d’affichages sur un écran tactile. Bien entendu, l’inventionExamples of displays on a touch screen have been described here. Of course, the invention

-18s’applique également lorsque l’affichage se fait sur un écran d’affichage 5 déporté de la surface tactile 2. Dans ce cas, de façon connue, à chaque zone de l’écran d’affichage 5 déportée est associée une zone sur la surface tactile 2.-18 also applies when the display is made on a display screen 5 remote from the touchscreen 2. In this case, in a known manner, each zone of the remote display screen 5 is associated with a zone on the touchpad 2.

Procédé de commandeOrder process

En référence à la figure 5, on décrit maintenant un procédé de commande de retour sensoriel pour une interface homme-machine notamment pour véhicule automobile, l’interface homme-machine comportant une surface tactile 2. H s’agit avantageusement d’une interface de commande 1 telle que décrite précédemment en référence aux figures la à 4d.With reference to FIG. 5, a method of sensory feedback control is now described for a man-machine interface, in particular for a motor vehicle, the man-machine interface comprising a tactile surface 2. It is advantageously a control 1 as described above with reference to Figures la to 4d.

Le procédé de commande comprend une étape El dans laquelle on détecte au moins un paramètre de déplacement d’un élément de pointage 3 tel qu’un doigt d’un utilisateur de l’interface de commande 1, ou encore un stylet ou un doigt, sur la surface tactile 2 et en direction d’une frontière cible 6 ou 11. Cette étape El de détection est par exemple réalisée par la surface tactile 2.The control method comprises a step E1 in which at least one displacement parameter of a pointing element 3 such as a finger of a user of the control interface 1, or a stylus or a finger is detected, on the touch surface 2 and towards a target border 6 or 11. This detection step E1 is for example carried out by the touch surface 2.

Le procédé de commande comprend de plus une étape E2, par exemple nommée étape d’anticipation ou de prévision, à laquelle on détermine, à partir du ou des paramètres de déplacement de l’élément de pointage 3, une fenêtre temporelle prévisionnelle de franchissement de la frontière cible 6 ou 11, de la surface tactile 2 par l’élément de pointage 3, et à laquelle, à partir de cette fenêtre temporelle prévisionnelle de franchissement déterminée, on calcule un instant t d’émission d’une commande de génération de retour sensoriel. L’instant / d’émission est antérieur aux bornes de la fenêtre temporelle, plus précisément à la borne inférieure de cette fenêtre temporelle. Cette étape E2 peut être réalisée au moins en partie par un ou plusieurs moyens de traitement de l’unité de traitement 7 telle que décrite précédemment.The control method further comprises a step E2, for example called the anticipation or forecasting step, to which is determined, from the displacement parameter (s) of the pointing element 3, a forecast time window for crossing of the target border 6 or 11, of the tactile surface 2 by the pointing element 3, and to which, from this forecast time window of determined crossing, an instant t of emission of a generation generation command is calculated sensory feedback. The instant / emission is before the limits of the time window, more precisely at the lower limit of this time window. This step E2 can be carried out at least in part by one or more processing means of the processing unit 7 as described above.

Avantageusement, au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps est la vitesse de déplacement, l’accélération de l’élément de pointage 3 et/ou la distance entre l’élément de pointage 3 et la frontière cible 6 vitesse de déplacement de l’élément de pointage 3.Advantageously, at least one displacement parameter of the pointing element 3 on the touch surface 2 over time is the speed of movement, the acceleration of the pointing element 3 and / or the distance between the pointing element 3 and the target border 6 speed of movement of the pointing element 3.

Après l’étape E2, le procédé de commande comprend encore une étape de commande E3 à laquelle on émet la commande de génération d’au moins un retour sensoriel, à l’instant t d’émission, c’est-à-dire avant le franchissement effectif de la frontière cible 6 ou 11. H s’agit donc d’une étape de commande par anticipation. En particulier, cette étape de commande E3 est uneAfter step E2, the control method also comprises a control step E3 in which the command to generate at least one sensory feedback is sent, at the time t of transmission, that is to say before the actual crossing of the target border 6 or 11. It is therefore a step of ordering in advance. In particular, this control step E3 is a

-19étape de pilotage du module de retour sensoriel 4 tel que décrit précédemment. L’étape de commande ou pilotage E3 est par exemple réalisée par un ou plusieurs moyens de traitement, tel que le circuit de pilotage de l’unité de traitement 7 précédemment décrite.-19 step of piloting the sensory feedback module 4 as described above. The control or piloting step E3 is for example carried out by one or more processing means, such as the control circuit of the processing unit 7 previously described.

Enfin, à réception d’un ou plusieurs signaux de commande, à l’étape E4, au moins un retour sensoriel est généré. Cette étape E4 peut être mise en œuvre par le module de retour sensoriel 4 précédemment décrit. Le retour sensoriel est alors perçu par l’utilisateur lorsque l’élément de pointage 3, par exemple son doigt, franchit la frontière cible 6 ou 11. Autrement dit, le retour sensoriel est perçu par l’utilisateur pendant la fenêtre temporelle de franchissement de la frontière cible 6, 11 déterminée. On évite ainsi un décalage temporel entre la perception du retour sensoriel et le franchissement effectif ou réel de la frontière cible 6 ou 11.Finally, on receipt of one or more control signals, in step E4, at least one sensory feedback is generated. This step E4 can be implemented by the sensory feedback module 4 previously described. The sensory feedback is then perceived by the user when the pointing element 3, for example his finger, crosses the target border 6 or 11. In other words, the sensory feedback is perceived by the user during the time window of crossing of the target border 6, 11 determined. This avoids a time lag between the perception of the sensory feedback and the actual or actual crossing of the target border 6 or 11.

À l’étape E4, un ou plusieurs retours sensoriels de même nature peuvent être générés ou en variante plusieurs retours sensoriels de nature différente peuvent être générés. Dans ce cas, on peut commander la génération des différents retours sensoriels de façon simultanée ou au contraire avec un décalage dans le temps. La génération avancée ou retardée d’un retour sonore ou visuel par exemple par rapport à la génération d’un retour haptique permet notamment une perception par l’utilisateur des différents retours haptiques en même temps.In step E4, one or more sensory feedbacks of the same nature can be generated or alternatively several sensory feedbacks of a different nature can be generated. In this case, the generation of the different sensory feedbacks can be controlled simultaneously or, on the contrary, with a time lag. The advanced or delayed generation of a sound or visual feedback for example compared to the generation of a haptic feedback allows in particular a perception by the user of the different haptic feedback at the same time.

Bien entendu, l’ordre d’au moins certaines étapes peut être interverti.Of course, the order of at least some steps can be reversed.

Un mode de réalisation particulier est schématisé sur la figure 6. Selon ce mode de réalisation, à la suite de l’étape El, l’étape E2 peut comprendre des sous-étapes E20 à E24.A particular embodiment is shown diagrammatically in FIG. 6. According to this embodiment, following step E1, step E2 can include substeps E20 to E24.

Lors d’une étape E20, on localise la position de l’élément de pointage 3 sur la surface tactile 2, on évalue la direction de déplacement de l’élément de pointage 3 sur la surface tactile 2 et on évalue au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps. La localisation peut être réalisée par la surface tactile 2 et l’évaluation de la direction et d’une ou plusieurs grandeurs comme la vitesse et/ou l’accélération peut être mise en œuvre par l’unité de traitement 7.During a step E20, the position of the pointing element 3 is located on the touch surface 2, the direction of movement of the pointing element 3 on the touch surface 2 is evaluated and at least one parameter is evaluated. movement of the pointing element 3 on the touch surface 2 over time. The localization can be carried out by the touch surface 2 and the evaluation of the direction and of one or more quantities such as the speed and / or the acceleration can be implemented by the processing unit 7.

On peut prévoir une étape E21 de mesure d’au moins un paramètre représentatif de la pression exercée par l’élément de pointage 3 sur la surface tactile 2.A step E21 can be provided for measuring at least one parameter representative of the pressure exerted by the pointing element 3 on the touch surface 2.

À l’étape E22, on réalise une estimation pour déterminer l’intention de l’utilisateur de franchir la frontière cible 6 ou 11 à partir des données de position, de direction et d’évolution dans le temps du déplacement de l’élément de pointage 3 relevées à l’étape E20, et éventuellement àIn step E22, an estimate is made to determine the intention of the user to cross the target border 6 or 11 from the data of position, direction and evolution over time of the displacement of the element of score 3 noted at step E20, and possibly at

-20partir du paramètre représentatif de la pression mesuré à l’étape E21. À cette étape E22, on peut notamment réaliser une projection de la trajectoire de l’élément de pointage 3 afin d’identifier l’intention de l’utilisateur. Cette étape E22 peut être mise en œuvre par l’unité de traitement 7.-20 from the parameter representative of the pressure measured in step E21. At this step E22, it is possible in particular to carry out a projection of the trajectory of the pointing element 3 in order to identify the intention of the user. This step E22 can be implemented by the processing unit 7.

À partir du diagnostic réalisé à l’étape E22, on détermine ou on décide lors d’une étape de 5 décision E23, s’il faut générer un ou plusieurs retours sensoriels. Si oui, c’est-à-dire si un ou plusieurs retours sensoriels doivent être générés, on passe à l’étape suivante E24. Cette étape E24 peut être mise en œuvre par l’unité de traitement 7. Si non, c’est-à-dire s’il ne faut pas générer de retour sensoriel, le procédé peut recommencer à l’étape El.From the diagnosis carried out in step E22, it is determined or decided during a decision step 5 E23, whether to generate one or more sensory feedbacks. If yes, that is to say if one or more sensory feedbacks must be generated, we go to the next step E24. This step E24 can be implemented by the processing unit 7. If not, that is to say if it is not necessary to generate sensory feedback, the process can start again at step El.

À l’étape E24, on détermine la fenêtre temporelle prévisionnelle durant laquelle l’élément 10 de pointage 3 va franchir la frontière cible 6 ou 11, et à partir de cette fenêtre temporelle prévisionnelle de franchissement déterminée, on calcule un instant t d’émission de la commande anticipée de génération de retour sensoriel.In step E24, the forecast time window during which the pointing element 10 will cross the target border 6 or 11 is determined, and from this forecast time window of determined crossing, a transmission time t is calculated. of the sensory feedback generation advance order.

À l’instant t d’émission, l’étape de commande E3 peut être mise en œuvre.At the time of transmission, the command step E3 can be implemented.

Bien entendu, l’ordre d’au moins certaines étapes peut être interverti.Of course, the order of at least some steps can be reversed.

On comprend donc qu’un procédé de commande tel que décrit permet de présenter à un utilisateur au moins un retour sensoriel au bon moment, c’est-à-dire que l’utilisateur perçoit ce retour sensoriel lorsqu’il change effectivement de zone ou franchit une frontière cible 6 ou 11.It is therefore understood that a control method as described makes it possible to present to a user at least one sensory feedback at the right time, that is to say that the user perceives this sensory feedback when he actually changes zones or crosses a target border 6 or 11.

Claims (8)

REVENDICATIONS 1. Procédé de commande de retour sensoriel pour une interface de commande (1) pour véhicule automobile, l’interface de commande (1) comportant une surface tactile (2), comprenant les étapes suivantes:1. A sensory feedback control method for a control interface (1) for a motor vehicle, the control interface (1) comprising a tactile surface (2), comprising the following steps: on détecte au moins un paramètre de déplacement d’un élément de pointage (3) sur la surface tactile (2) en direction d’une frontière cible (6, 11) de la surface tactile (2), on détermine une fenêtre temporelle prévisionnelle au cours de laquelle est prévu le franchissement de la frontière cible (6, 11) par l’élément de pointage (3) en tenant compte du paramètre de déplacement de l’élément de pointage (3) en direction de la frontière cible (6,11), on calcule un instant (i), antérieur à la fenêtre temporelle prévisionnelle pour l’émission d’une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée, on émet une commande de génération d’au moins un retour sensoriel à l’instant (i) pour générer un retour sensoriel dans la fenêtre temporelle prévisionnelle déterminée, afin d’éviter un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6, 11).at least one displacement parameter of a pointing element (3) is detected on the touch surface (2) in the direction of a target border (6, 11) of the touch surface (2), a forecast time window is determined during which the target element (6, 11) crosses the target border (6, 11) taking into account the parameter of displacement of the pointing element (3) towards the target border (6 , 11), an instant (i), before the forecast time window for the transmission of a sensory feedback generation command is calculated, taking into account the determined crossing time window, a generation command is issued. at least one sensory feedback at time (i) to generate a sensory feedback in the determined forecast time window, in order to avoid a time lag between the perception of the sensory feedback and the crossing of the fronti re target (6, 11). 2. Procédé de commande selon la revendication 1, dans lequel le paramètre de déplacement de l’élément de pointage comprend la vitesse de déplacement de l’élément de pointage (3) en direction de la frontière cible (6, 11).2. The control method as claimed in claim 1, in which the displacement parameter of the pointing element comprises the speed of movement of the pointing element (3) towards the target border (6, 11). 3. Procédé de commande selon la revendication 1 ou 2, dans lequel le paramètre de déplacement de l’élément de pointage comprend l’accélération de l’élément de pointage (3) en direction de la frontière cible (6,11).3. Control method according to claim 1 or 2, wherein the displacement parameter of the pointing element comprises the acceleration of the pointing element (3) towards the target border (6,11). 4. Procédé de commande selon l’une quelconque des revendications 1 à 3, dans lequel le paramètre de déplacement de l’élément de pointage comprend la distance entre l’élément de pointage (3) et la frontière cible (6,11).4. Control method according to any one of claims 1 to 3, wherein the displacement parameter of the pointing element comprises the distance between the pointing element (3) and the target border (6,11). -225. Procédé de commande selon l’une quelconque des revendications précédentes, dans lequel :-225. Control method according to any one of the preceding claims, in which: on mesure en outre au moins un paramètre représentatif de la pression exercée par l’élément de pointage (3) sur la surface tactile (2), et on utilise la mesure du paramètre représentatif de la pression à l’étape de détermination de la fenêtre temporelle de franchissement de la frontière cible (6, 11).in addition, at least one parameter representative of the pressure exerted by the pointing element (3) on the tactile surface (2) is measured, and the measurement of the parameter representative of the pressure is used in the window determination step. temporal crossing of the target border (6, 11). 6. Procédé de commande selon l’une quelconque des revendications précédentes, dans lequel la durée de la fenêtre temporelle prévisionnelle de franchissement de la frontière cible est inférieure à 5ms, par exemple inférieure à 2ms, de préférence inférieure à 1ms.6. Control method according to any one of the preceding claims, in which the duration of the forecast time window for crossing the target border is less than 5 ms, for example less than 2 ms, preferably less than 1 ms. 7. Interface de commande (1) pour véhicule automobile configurée pour mettre en œuvre un procédé de commande selon l’une quelconque des revendications précédentes, l’interface de commande (1) comportant :7. Control interface (1) for a motor vehicle configured to implement a control method according to any one of the preceding claims, the control interface (1) comprising: une surface tactile (2) configurée pour détecter au moins un paramètre de déplacement de l’élément de pointage (3) sur la surface tactile (2), et un module de retour sensoriel (4) configuré pour générer au moins un retour sensoriel, caractérisée en ce que l’interface de commande (1) comporte en outre une unité de traitement (7) configurée pour :a touch surface (2) configured to detect at least one displacement parameter of the pointing element (3) on the touch surface (2), and a sensory feedback module (4) configured to generate at least one sensory feedback, characterized in that the control interface (1) further comprises a processing unit (7) configured for: détecter au moins un paramètre de déplacement d’un élément de pointage (3) sur la surface tactile (2) en direction d’une frontière cible (6, 11) de la surface tactile (2), déterminer une fenêtre temporelle prévisionnelle de franchissement de la frontière cible (6, 11) par l’élément de pointage (3) en tenant compte du paramètre de déplacement de l’élément de pointage (3) en direction de la frontière cible (6,11), calculer un instant (î) d’émission d’une commande de génération de retour sensoriel en tenant compte de la fenêtre temporelle de franchissement déterminée, émettre une commande de génération d’au moins un retour sensoriel à l’instant (î) pour générer un retour sensoriel pendant la fenêtre temporelle prévisionnelle dedetecting at least one displacement parameter of a pointing element (3) on the tactile surface (2) in the direction of a target border (6, 11) of the tactile surface (2), determining a forecast time window for crossing from the target border (6, 11) by the pointing element (3) taking into account the displacement parameter of the pointing element (3) towards the target border (6,11), calculate an instant ( î) issuing a sensory feedback generation command taking account of the determined crossing time window, issuing a generation command of at least one sensory feedback at the instant (î) to generate a sensory feedback during the forecast time window of -23franchissement de la frontière cible (6, 11) déterminée, afin d’éviter un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6, 11).-23 crossing of the target border (6, 11) determined, in order to avoid a time lag between the perception of the sensory feedback and the crossing of the target border (6, 11). 5 8. Interface de commande (1) selon la revendication précédente, dans laquelle Tunité de traitement (7) est configurée pour déterminer la fenêtre temporelle de franchissement de la frontière cible (6, 11) à partir des données de position, de direction et d’évolution dans le temps du déplacement de l’élément de pointage (3).8. Control interface (1) according to the preceding claim, in which the processing unit (7) is configured to determine the time window for crossing the target border (6, 11) from the position, direction and evolution over time of the movement of the pointing element (3). 10 9. Interface de commande (1) selon l’une quelconque des revendications 7 ou 8, dans laquelle :10 9. Control interface (1) according to any one of claims 7 or 8, in which: la surface tactile (2) comporte au moins un capteur de pression configuré pour mesurer au moins un paramètre représentatif de la pression exercée sur la surface tactile (2), et Tunité de traitement (7) est configurée pour prendre en compte la mesure d’au moinsthe touch surface (2) comprises at least one pressure sensor configured to measure at least one parameter representative of the pressure exerted on the touch surface (2), and the processing unit (7) is configured to take into account the measurement of at least 15 un paramètre représentatif de la pression pour la détermination de la fenêtre temporelle de franchissement de la frontière cible (6, 11).15 a parameter representative of the pressure for determining the time window for crossing the target border (6, 11). 10. Interface de commande (1) selon l’une quelconque des revendications 7 à 9, dans laquelle le module de retour sensoriel (4) est configuré pour :10. Control interface (1) according to any one of claims 7 to 9, in which the sensory feedback module (4) is configured for: 20 - faire vibrer la surface tactile (2) de manière à générer un retour haptique, et/ou générer un retour sonore et/ou générer un retour visuel.20 - vibrating the tactile surface (2) so as to generate a haptic feedback, and / or generate a sound feedback and / or generate a visual feedback. 30533053 1/51/5
FR1656138A 2016-06-29 2016-06-29 CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE Pending FR3053488A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1656138A FR3053488A1 (en) 2016-06-29 2016-06-29 CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE
PCT/EP2017/066071 WO2018002186A1 (en) 2016-06-29 2017-06-28 Control method and control interface for a motor vehicle
EP17733843.1A EP3479212A1 (en) 2016-06-29 2017-06-28 Control method and control interface for a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1656138A FR3053488A1 (en) 2016-06-29 2016-06-29 CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE

Publications (1)

Publication Number Publication Date
FR3053488A1 true FR3053488A1 (en) 2018-01-05

Family

ID=57348798

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1656138A Pending FR3053488A1 (en) 2016-06-29 2016-06-29 CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE

Country Status (3)

Country Link
EP (1) EP3479212A1 (en)
FR (1) FR3053488A1 (en)
WO (1) WO2018002186A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016007357A1 (en) * 2016-06-15 2017-12-21 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Motor vehicle device with a movable window pane, motor vehicle with such a motor vehicle device and method for operating such a motor vehicle device
US10533362B2 (en) 2017-06-16 2020-01-14 GM Global Technology Operations LLC Systems and methods for memory and touch position window

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7337400B1 (en) * 1998-02-23 2008-02-26 Elbing Kristofer E Tactile user interface with application-specific tactile behavior
US20100306647A1 (en) * 2009-05-27 2010-12-02 Microsoft Corporation Force-feedback within telepresence
US20120249474A1 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. Proximity and force detection for haptic effect generation
WO2016051114A1 (en) * 2014-10-02 2016-04-07 Dav Control device for a motor vehicle
WO2016051116A1 (en) * 2014-10-02 2016-04-07 Dav Device and method for controlling a motor vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7337400B1 (en) * 1998-02-23 2008-02-26 Elbing Kristofer E Tactile user interface with application-specific tactile behavior
US20100306647A1 (en) * 2009-05-27 2010-12-02 Microsoft Corporation Force-feedback within telepresence
US20120249474A1 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. Proximity and force detection for haptic effect generation
WO2016051114A1 (en) * 2014-10-02 2016-04-07 Dav Control device for a motor vehicle
WO2016051116A1 (en) * 2014-10-02 2016-04-07 Dav Device and method for controlling a motor vehicle

Also Published As

Publication number Publication date
EP3479212A1 (en) 2019-05-08
WO2018002186A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
CN109564464B (en) Haptic system for actuating material
CN105612476B (en) Self-alignment stereognosis tactile multi-touch Multifunctional switch panel
EP1450247B1 (en) Human-computer interface with force feedback for pressure pad
FR3026866B1 (en) DEVICE AND CONTROL METHOD FOR MOTOR VEHICLE
EP3221781B1 (en) Graphical interface and method for managing said graphical interface during the touch-selection of a displayed element
CN109643219B (en) Method for interacting with image content presented on a display device in a vehicle
CN102177041A (en) Method and apparatus for displaying information, in particular in a vehicle
FR3052889B1 (en) VIBRATION-INDUCED ERROR CORRECTION FOR TOUCH SCREEN DISPLAY IN AN AIRCRAFT
FR3026868A1 (en) DEVICE AND CONTROL METHOD FOR MOTOR VEHICLE
CN109643317A (en) For being indicated and the system and method for the qi that disappears in the opposite of interface Spatial Objects
EP3221780B1 (en) Graphical interface and method for managing said graphical interface during the touch-selection of a displayed element
FR3005173A1 (en) INTERACTION METHOD IN AN AIRCRAFT COCKPIT BETWEEN A PILOT AND ITS ENVIRONMENT
FR3053488A1 (en) CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE
EP3918446A1 (en) Method for generating a haptic feedback for an interface, and associated interface
WO2018219832A1 (en) Method for generating a sensory feedback for an interface and associated interface
EP3201734A1 (en) Control device and method for a motor vehicle
FR3053489A1 (en) CONTROL METHOD AND CONTROL INTERFACE FOR MOTOR VEHICLE
FR3030071A1 (en) DEVICE AND CONTROL METHOD FOR MOTOR VEHICLE
WO2017211835A1 (en) Control module and method for motor vehicle
WO2014096576A1 (en) Interface module making it possible to detect a gesture
WO2022090091A1 (en) Three-dimensional touch interface providing haptic feedback
FR3124872A1 (en) Electronic device and method for displaying data on a display screen, associated display system, vehicle and computer program
EP4232883A1 (en) Haptic-feedback touch device with spatialized textures
Fellin New possibilities for driver HMI-a study through design of infrared interaction technology

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180105