FR3066959A1 - Procede de generation d'un retour sensitif pour une interface et interface associee - Google Patents

Procede de generation d'un retour sensitif pour une interface et interface associee Download PDF

Info

Publication number
FR3066959A1
FR3066959A1 FR1754785A FR1754785A FR3066959A1 FR 3066959 A1 FR3066959 A1 FR 3066959A1 FR 1754785 A FR1754785 A FR 1754785A FR 1754785 A FR1754785 A FR 1754785A FR 3066959 A1 FR3066959 A1 FR 3066959A1
Authority
FR
France
Prior art keywords
pixel
image
sensitive feedback
control signal
sensitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1754785A
Other languages
English (en)
Other versions
FR3066959B1 (fr
Inventor
Nour-Eddine El-Ouardi
Stephanie Dabic
Pedro Adriano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dav SA
Original Assignee
Dav SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav SA filed Critical Dav SA
Priority to FR1754785A priority Critical patent/FR3066959B1/fr
Priority to PCT/EP2018/063847 priority patent/WO2018219832A1/fr
Publication of FR3066959A1 publication Critical patent/FR3066959A1/fr
Application granted granted Critical
Publication of FR3066959B1 publication Critical patent/FR3066959B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de génération d'un retour sensitif pour une interface de véhicule automobile comprenant : - un écran (4) configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l'image, - une surface tactile (3) disposée au-dessus de l'écran (4) et configurée pour localiser la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position d'un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et - un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d'une réception d'un signal de commande, caractérisé en ce que : - un signal de commande du dispositif de retour sensitif (20) est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans la au moins une zone active (Z) lors d'une phase d'initialisation, - on détermine une position (X, Y) d'un pixel localisé dans l'image affichée sur l'écran (4) en fonction de la position de l'élément de commande dans la zone active (Z), et - on commande le au moins un dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.

Description

® PROCEDE DE GENERATION D'UN RETOUR SENSITIF POUR UNE INTERFACE ET INTERFACE ASSOCIEE.
FR 3 066 959 - A1 (57) L'invention concerne un procédé de génération d'un retour sensitif pour une interface de véhicule automobile comprenant:
- un écran (4) configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l'image,
- une surface tactile (3) disposée au-dessus de l'écran (4) et configurée pour localiser la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position d'un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et
- un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d'une réception d'un signal de commande, caractérisé en ce que:
- un signal de commande du dispositif de retour sensitif (20) est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans la au moins une zone active (Z) lors d'une phase d'initialisation,
- on détermine une position (X, Y) d'un pixel localisé dans l'image affichée sur l'écran (4) en fonction de la position de l'élément de commande dans la zone active (Z), et
- on commande le au moins un dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.
Figure FR3066959A1_D0001
Figure FR3066959A1_D0002
-1Procédé de génération d’un retour sensitif pour une interface et interface associée
La présente invention concerne un procédé de génération d’un retour sensitif pour une interface de véhicule automobile. La présente invention concerne également une interface de véhicule automobile configurée pour la mise en oeuvre dudit procédé.
Pour simplifier les tableaux de bord des véhicules automobiles tout en permettant d’augmenter le nombre de fonctions pouvant être commandées par les utilisateurs, les boutons sont de plus en plus souvent remplacés par des écrans tactiles. L’utilisation d’écrans tactiles permet de continuer à augmenter le nombre des fonctions, celles-ci devenant programmables et reconfigurables et pouvant être exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. L’écran inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons et en étant personnalisable.
Afin de compenser la perte de rétroaction causée par la substitution de boutons mécaniques classiques par des écrans tactiles, il peut être prévu d’ajouter un retour sensitif tel qu’un retour vibratoire haptique et/ou sonore. Le retour sensitif permet par exemple d’assurer à l’utilisateur que sa commande a bien été prise en compte, ce qui permet d’éviter l’apparition de situations dangereuses en cours de conduite.
Les écrans permettent d’afficher des images pouvant comporter des objets, comme par exemple des boutons. L’utilisateur a, par le jeu d’effets d’éclairages et d’ombres, une perception visuelle en relief de l’objet affiché. Certaines autres images ou zones de l’image affichent une surface présentant une certaine texture de surface.
Des développements récents proposent d’associer un retour sensitif au relief de l’image affichée sur l’écran tactile. Un motif haptique est par exemple associé au moins dans certaines zones de l’image pour simuler à l’utilisateur un ressenti proche du motif visuel affiché.
On connaît par exemple un procédé de simulation de texture qui associe un motif haptique spécifique à différentes zones de l’écran.
Par exemple, pour simuler une texture de stries verticales, des zones reprenant les formes des stries sont définies sur l’image pour chaque « nervure >> ou « rainure >> et un motif haptique différent est associé à chaque zone d’aspect différent.
En fonctionnement, lorsque le doigt de l’utilisateur se déplace horizontalement sur la succession de stries, il perçoit des motifs haptiques générés en alternance rappelant les stries verticales qu’il visualise simultanément sur l’écran.
Cette perception haptique de texture, également appelée « texturing >>, peut toutefois parfois manquer de réalisme.
-2C’est par exemple le cas lorsque l’utilisateur perçoit un décalage entre la localisation d’un ressenti haptique d’un relief sur l’écran et sa visualisation. Un tel décalage peut survenir par exemple lorsque l’utilisateur déplace rapidement son doigt sur l’écran.
Cela peut aussi être le cas lorsque l’utilisateur déplace son doigt dans des directions différentes et qu’il ne perçoit pas de modifications de texture selon le sens de déplacement du doigt alors qu’il visualise des textures asymétriques sur l’écran.
Ces imprécisions du ressenti haptique sont notamment dues au temps de calcul nécessaire pour le traitement des informations.
Pour améliorer cela, une solution consiste à réaliser des calculs de direction et de trajectoire permettant de prendre en compte notamment la vitesse de déplacement du doigt, la pression d’appui du doigt exercée sur l’écran ou le sens de déplacement du doigt pour la détermination de l’effet haptique à générer. Ces calculs tentent par exemple d’anticiper le mouvement du doigt sur l’écran pour mieux synchroniser la perception du retour haptique généré avec la texture affichée sur l’écran afin qu’elle soit la plus réaliste possible.
En reprenant l’exemple des stries verticales, on mesure par exemple le sens de déplacement du doigt pour adapter le motif haptique selon que l’utilisateur déplace son doigt horizontalement ou verticalement. Egalement, on mesure la vitesse de déplacement du doigt pour anticiper la trajectoire et adapter le motif du retour haptique généré à l’augmentation de vitesse de déplacement du doigt.
Toutefois, ces calculs nécessitent beaucoup de ressources informatiques.
En outre, on constate toujours des imperfections de perception du retour haptique.
Ces imperfections de perception sont principalement dues au temps de calcul notamment nécessaire pour mesurer la vitesse et le sens de déplacement du doigt de l’utilisateur sur l’écran tactile et pour calculer ensuite le retour haptique à générer qui correspond à ces données particulières.
Egalement, ces méthodes ne permettent pas un texturing haptique d’images plus complexes que des images simples à motifs réguliers et répétitifs. La complication des motifs visuels de l’image nécessite la démultiplication des zones à traiter et donc l’augmentation du nombre de calculs à réaliser. En outre, le texturing d’images à motifs irréguliers ne peut tout simplement pas être réalisé.
Un des buts de la présente invention est donc de proposer un procédé de génération d’un retour sensitif pour une interface de véhicule automobile plus performant, qui permette une détermination rapide et précise du retour sensitif à générer, qui améliore la perception de
-3texture sur l’écran, qui permette le texturing d’images complexes et qui nécessite moins de ressources informatiques.
A cet effet, l’invention a pour objet un procédé de génération d’un retour sensitif pour une interface de véhicule automobile comprenant :
un écran configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position dans l’image, une surface tactile disposée au-dessus de l’écran et configurée pour localiser la position d’un pixel dans l’image affichée sur l’écran en fonction de la position d’un élément de commande dans au moins une zone active de la surface tactile, la au moins une zone active étant une zone de la surface tactile pour laquelle un retour sensitif peut être généré dans le cas d’un contact par l’élément de commande, et un dispositif de retour sensitif configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, caractérisé en ce que :
un signal de commande du dispositif de retour sensitif est affecté à chaque pixel pouvant être localisé par la position d’un élément de commande dans la au moins une zone active, lors d’une phase d’initialisation, on détermine une position d’un pixel dans l’image affichée sur l’écran en fonction de la position de l’élément de commande dans la zone active, et on commande le dispositif de retour sensitif avec le signal de commande associé au pixel dont la position a été déterminée.
Un retour sensitif peut ainsi être généré à chaque pixel de l’image « touché >> par l’élément de commande. Ce retour sensitif associé à une image est également appelé «texturing» en anglais ou perception sensitive de surface. Il permet à l’utilisateur qui touche la surface tactile dans une zone active de percevoir le relief d’une texture de surface et/ou le relief d’au moins un objet.
Le procédé de génération d’un retour sensitif simplifie de façon importante la détermination du signal de commande à envoyer au dispositif de retour sensitif. En effet, en fonctionnement, il suffit de connaître la position du « pixel » touché par l’utilisateur pour savoir quel retour sensitif générer. Le retour sensitif à générer peut ainsi être déterminé de manière quasiment immédiate, de façon complètement automatique, sans aucun calcul, sans nécessiter de mesure préalable de la vitesse et/ou du sens de déplacement du doigt de l’utilisateur, ce qui
-4permet d’obtenir un ressenti beaucoup plus réaliste. La perception de texture sur l’écran peut donc être améliorée en nécessitant moins de ressources informatiques.
Le signal de commande comprend par exemple :
un signal de commande d’un module à retour haptique du dispositif de retour sensitif et/ou un signal de commande d’un haut-parleur à retour sonore du dispositif de retour sensitif.
Le signal de commande affecté à chaque pixel, est soit un signal de commande du module à retour haptique, soit un signal de commande du haut-parleur à retour sonore, soit un signal de commande du module à retour haptique et un signal de commande du haut-parleur à retour sonore, soit une absence de retour sensitif.
L’absence de retour sensitif peut être un signal de commande nul ou peut être traduit par aucun signal de commande affecté au pixel.
Les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels peuvent être déterminés en fonction d’au moins un paramètre du pixel dans l’image.
Un paramètre du pixel est par exemple un paramètre visuel associé à la perception visuelle du pixel dans l’image, tel que la couleur, le niveau de gris, la luminosité et/ou l’opacité.
Le paramètre visuel du pixel est par exemple le niveau de gris obtenu par conversion de la couleur du pixel.
Selon un exemple de réalisation du procédé de génération d’un retour sensitif, on classe les paramètres visuels des pixels de l’image dans un nombre prédéfini de catégories visuelles, les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels étant déterminés en fonction de l’appartenance du paramètre visuel du pixel à l’une des catégories visuelles, un même signal de commande étant associé aux pixels d’une même catégorie visuelle.
L’affectation des signaux de commande du dispositif de retour sensitif à chacun des pixels peut comprendre une étape préliminaire de délimitation d’au moins une zone de retour sensitif particulier dans l’image à l’aide d’un masque d’aspect visuel particulier.
Le masque est par exemple unicolore.
Selon un exemple de réalisation du procédé de génération d’un retour sensitif, l’affectation des signaux de commande du dispositif de retour sensitif à chacun des pixels en
-5fonction d’un paramètre visuel du pixel comprend une étape préliminaire d’accentuation de contrastes et/ou de lignes de l’image et/ou de suppressions de reflets d’éclairage.
Ces prétraitements de l’image permettent de mieux contrôler la discrimination des couleurs pour l’attribution automatique des signaux de commande à chacun des pixels.
Un paramètre du pixel est par exemple la position du pixel dans l’image.
Selon un exemple de réalisation du procédé de génération d’un retour sensitif, on délimite au moins deux zones dans l’image, les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels étant déterminés en fonction de l’appartenance de la position du pixel à l’une des zones, un même signal de commande étant associé aux pixels d’une même zone de l’image.
Un même signal de commande du dispositif de retour sensitif est par exemple associé aux pixels d’une même catégorie visuelle dans une même zone de l’image.
Selon un exemple de réalisation du procédé de génération d’un retour sensitif, on prévoit que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l’écoulement d’un délai d’activation.
Le délai d’activation est par exemple supérieur à la durée du signal de commande et/ou supérieur à la durée du retour sensitif et/ou supérieur à un seuil temporel notamment égal ou supérieur à la durée du signal de commande et/ou à la durée du retour sensitif.
Tant que le délai d’activation ne s’est pas écoulé, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées.
Selon un exemple de réalisation du procédé de génération d’un retour sensitif, on prévoit que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
Tant que cette distance ne franchit pas le seuil spatial, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées.
-6La force d’appui exercée sur la surface tactile peut être mesurée puis comparée à un seuil de pression d’appui pour déterminer si le signal de commande du dispositif de retour sensitif doit être pris en compte.
On prévoit par exemple dans le procédé de génération d’un retour sensitif que, sont affectés à chacun des pixels en fonction d’un paramètre du pixel: un délai d’activation et/ou un seuil temporel et/ou un seuil spatial et/ou un seuil de pression d’appui.
On peut également mémoriser la couleur de chaque pixel de l’image pour afficher une image reconstruite sur l’écran à partir des couleurs mémorisées. On s’affranchit ainsi de la nécessité de mémoriser d’une part, la table de données des signaux de commande affectés aux pixels et d’autre part, un fichier image. Le traitement est ainsi beaucoup plus simple.
On peut stocker dans une table de données, pour chaque pixel de l’image :
- une position,
- un signal de commande du dispositif de retour sensitif, et
- au moins un paramètre du pixel parmi une couleur, un seuil de pression d’appui, un délai d’activation, un seuil temporel et un seuil spatial.
L’invention a aussi pour objet une interface de véhicule automobile comportant :
- un écran configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position dans l’image,
- une surface tactile disposée au-dessus de l’écran et configurée pour localiser la position d’un pixel dans l’image affichée sur l’écran en fonction de la position d’un élément de commande dans au moins une zone active de la surface tactile, la au moins une zone active étant une zone de la surface tactile pour laquelle un retour sensitif peut être généré dans le cas d’un contact par l’élément de commande, et
- un dispositif de retour sensitif configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, caractérisé en ce qu’elle comporte en outre :
- une table de données comportant au moins un signal de commande du dispositif de retour sensitif affecté à chaque pixel dans la au moins une zone active, et des moyens configurés pour :
- déterminer la position d’un pixel dans l’image affichée sur l’écran en fonction de la position de l’élément de commande dans la zone active,
- commander le dispositif de retour sensitif avec le signal de commande associé au pixel dont la position a été déterminée.
D'autres avantages et caractéristiques apparaîtront à la lecture de la description de l'invention, ainsi que sur les figures annexées qui représentent un exemple de réalisation non limitatif de l'invention et sur lesquelles :
- la figure 1 montre une partie avant d'un habitacle de véhicule automobile,
- la figure 2 représente une vue schématique de côté d’une interface,
- la figure 3A montre un exemple d’image affichée sur l’écran tactile,
- la figure 3B montre un exemple de prétraitement de l’image de la figure 3A,
- la figure 3C montre une transformation en niveaux de gris de l’image prétraitée de la figure 3B,
- la figure 3D montre un graphique ayant pour abscisse le niveau de gris et un nombre de pixels en ordonnée pour l’image de la figure 3C,
- la figure 3E montre un graphique similaire à la figure 3D avec les niveaux de gris des pixels classés dans quatre catégories visuelles,
- la figure 3F est une vue schématique de l’image de la figure 3C sur laquelle les pixels d’une première catégorie visuelle sont mis en évidence,
- la figure 3G est une image similaire à la figure 3F sur laquelle les pixels d’une deuxième catégorie visuelle sont mis en évidence,
- la figure 3H est une image similaire à la figure 3G sur laquelle les pixels d’une troisième catégorie visuelle sont mis en évidence,
- la figure 3I est une image similaire à la figure 3H sur laquelle les pixels d’une quatrième catégorie visuelle sont mis en évidence,
- la figure 4 montre un exemple de table de correspondance,
- la figure 5 montre un autre exemple d’image,
- la figure 6 montre un autre exemple d’image, et
- la figure 7 montre un autre exemple d’image.
Sur ces figures, les éléments identiques portent les mêmes numéros de référence.
Les réalisations suivantes sont des exemples. Bien que la description se réfère à un ou plusieurs modes de réalisation, ceci ne signifie pas nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s'appliquent seulement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation
-8peuvent également être combinées pour fournir d'autres réalisations.
La figure 1 montre une vue schématique d’une partie avant d'un habitacle 10 de véhicule automobile vue depuis la partie arrière du véhicule.
L'habitacle 10 comprend notamment un siège conducteur disposé derrière un volant 11 et une planche de bord 12, un siège passager, un rétroviseur intérieur 14, un module de plafonnier 15, aussi appelé dôme, placé à proximité du rétroviseur intérieur 14 dans la partie centrale haute de la partie avant de l'habitacle 10 et une console centrale 13 située entre les deux sièges de la partie avant de l’habitacle 10, une interface 1 étant montée dans la planche de bord 12. Bien entendu, l’interface 1 peut être disposée à d'autres endroits dans l'habitacle 10 comme par exemple au niveau de la console centrale 13 ou tout autre endroit adapté.
Comme on peut le voir sur la figure 2 montrant une vue schématique de l’interface 1, l’interface 1 comporte un écran 4, une surface tactile 3 disposée au-dessus de l’écran 4 et un dispositif de retour sensitif 20. L’écran 4 et la surface tactile 3 forme un écran tactile 2.
Selon un exemple de réalisation, l’interface 1 permet en outre la commande d’au moins une fonction d’un organe de véhicule automobile pour par exemple commander des fonctions d’un système de climatisation, d’un système audio, d’un système de téléphonie ou encore d’un système de navigation. L’interface 1 peut aussi être utilisée pour par exemple commander des lumières intérieures, un verrouillage central, un toit ouvrant, les feux de détresse ou les lumières d’ambiance. Cette interface 1 peut également servir pour les commandes de lève-vitres, des commandes de positionnement des rétroviseurs extérieurs ou encore des commandes de déplacement de sièges motorisés. Il permet par exemple de sélectionner une adresse postale de destination ou un nom dans un répertoire, les réglages du système de climatisation, l’activation d’une fonction, la sélection d’une piste musicale parmi une liste.
La surface tactile 3 est par exemple une dalle tactile capacitive.
La dalle tactile capacitive comprend ici au moins un capteur capacitif 31, une plaque frontale 32 agencée sur le capteur capacitif 31 et un contrôleur 33 relié au capteur capacitif 31.
Le capteur capacitif 31 permet de détecter une variation de capacité au niveau de la surface de la plaque frontale 32. Le capteur capacitif 31 et le contrôleur 33 permettent de détecter et déterminer les coordonnées spatiales d’un élément de commande touchant la surface tactile 3.
L’élément de commande peut être un doigt ou tout autre moyen d’activation (par exemple un stylet) de l’utilisateur.
-9Le capteur capacitif 31 et la plaque frontale 32 sont au moins partiellement transparents. Le capteur capacitif 31 est par exemple formé d’un réseau d’électrodes s’étendant sur tout ou partie de la surface de la dalle. Les électrodes sont par exemple réalisées en ITO (oxyde indium - étain) qui permettent au capteur 31 d’être transparent.
La rigidité de la dalle tactile capacitive est obtenue au moyen de la plaque frontale 32 (ou plaque de contact) rigide, telle qu’une plaque de verre. La plaque frontale 32 agencée sur le capteur capacitif 31 fait face à l’utilisateur une fois montée dans l’habitacle.
L’écran 4, tel qu’un écran TFT (« Thin-Film transistor >> en anglais) ou un écran LED ou un écran LCD est par exemple configuré pour afficher des informations associées à la manipulation de l’interface 1.
L’écran 4 est disposé sous le capteur capacitif 31. L’écran 4 est configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position dans l’image X, Y. Un pixel est un élément de surface de base (rectangulaire ou carré) d’une image numérique. Un pixel peut être formé de plusieurs sous-pixels : rouge, vert, bleu par exemple. Par exemple, un écran 4 de résolution 480*800 comporte 384000 pixels.
Les images affichées par l’écran 4 peuvent être des photographies, qui peuvent être en couleur.
La surface tactile 3 comprend au moins une zone active Z (figure 1). La au moins une zone active Z est une zone de la surface tactile 3 pour laquelle un retour sensitif peut être généré dans le cas d’un contact par l’élément de commande. La zone active Z délimite ainsi un ensemble de pixels des images affichées par l’écran 4 telle qu’une représentation visuelle d’une texture de surface et/ou au moins un objet de commande, pour lesquels un retour sensitif peut être généré. A contrario, une zone inactive délimite l’ensemble des pixels pour lesquels aucun retour sensitif n’est généré.
La texture de surface peut présenter au moins un relief et/ou une texture d’un matériau tel qu’un aspect cuir, bois, plastique, métallique et/ou une texture quelconque, telle que formée par une pluralité de motifs récurrents, tels que des motifs géométriques et/ou présenter des associations de différentes textures, reliefs et/ou motifs.
L’objet de commande est par exemple un bouton de commande, une touche de clavier ou un curseur de défilement (ou « slider >> en anglais).
La surface tactile 3 est configurée pour localiser la position X, Y d’un pixel dans l’image affichée sur l’écran 4 en fonction de la position de l’élément de commande sur la surface tactile
3. Un pixel peut ainsi être attribué à une position X, Y détectée. Ce couple de coordonnées est
-10attribué à chaque pixel en tenant compte de la résolution de la dalle tactile 3 et de la résolution de l’écran 4, ces deux résolutions n’étant pas forcément identiques.
Par ailleurs, la zone de contact détectée sous le doigt pouvant couvrir plusieurs pixels, on détermine pour le traitement, par exemple un seul couple de coordonnées spatiales X, Y pour chaque zone de contact. Ce couple peut être déterminé par calcul, par exemple par estimation du pixel le plus probable que l’utilisateur souhaite toucher, comme par exemple le centre de la zone de contact détectée dans une zone active Z de l’image.
L’interface 1 peut également comporter au moins un capteur d’appui 23 configuré pour mesurer un paramètre représentatif d’une force d’appui exercée sur la surface tactile 3 (figure 2).
Le capteur d’appui 23 est par exemple un capteur capacitif configuré pour mesurer une distance séparant la partie mobile de la partie fixe dans une direction perpendiculaire à la surface de l’écran tactile 2. Une variation de distance entre la partie mobile et la partie fixe est un paramètre représentatif d’un appui exercé sur l’écran tactile 2. La mesure de la force d’appui peut aussi être réalisée par d’autres moyens comme par exemple par mesure inductive ou par mesure ultrason ou par mesure de déformation au moyen de jauges de contrainte ou de capteurs FSR (pour « Force Sensing Resistor >> en anglais).
Le dispositif de retour sensitif 20 est configuré pour générer un retour sensitif lors d’une réception d’un signal de commande.
Le dispositif de retour sensitif 20 comporte un module à retour haptique et/ou un hautparleur à retour sonore 24.
Le signal de commande comprend un signal de commande du module à retour haptique H et/ou un signal de commande du haut-parleur à retour sonore S et/ou une absence de retour sensitif R.
Le signal de commande du haut-parleur à retour sonore S commande le haut-parleur à retour sonore 24. Le retour sonore peut présenter différents motifs et/ou fréquences et/ou amplitudes et/ou durées.
On désigne par « haptique », un retour tactile avec ou sans contact physique avec l’écran tactile 2.
Le retour haptique peut être réalisé en faisant vibrer l’écran tactile 2. Le retour haptique est alors un retour par le toucher. Ainsi, le retour haptique est un signal vibratoire ou vibrotactile.
Le signal de commande du module à retour haptique H peut présenter différents motifs et/ou fréquences et/ou déphasages et/ou amplitudes et/ou durées, généralement comprises
-11entre 20 et 30msec. Le motif (ou allure ou forme) présente par exemple une forme dite simple : linéaire, carré, demi-sinus, triangle, etc ou une forme dite complexe comportant une combinaison de formes simples ou une courbe.
Pour cela, le module à retour haptique comporte au moins un actionneur vibratoire 21 relié à l’écran tactile 2.
L’actionneur vibratoire 21 est par exemple de type ERM (pour « Eccentric RotatingMass >> en anglais) également appelé « moteur vibrant >> ou moteur à masselotte. Selon un autre exemple, l’actionneur vibratoire 21 est de type électromagnétique. Il repose par exemple sur une technologie similaire à celle du Haut-Parleur (en anglais : « Voice-Coil »). L’actionneur vibratoire 21 est par exemple un LRA (pour « Linear Résonant Actuator >> en anglais), également appelé « moteur linéaire >>. Selon un autre exemple, l’actionneur vibratoire 21 est de type piézoélectrique.
Le retour haptique est un signal vibratoire tel qu’une vibration produite par un signal de commande sinusoïdal ou par un signal de commande comportant un ou une succession de puises, envoyé à l’actionneur vibratoire 21. La vibration est par exemple dirigée dans le plan de l’écran tactile 2 ou orthogonalement au plan ou encore dirigée selon une combinaison de ces deux directions.
L’écran tactile 2 et l’actionneur vibratoire 21 sont par exemple des éléments d’une partie mobile de l’interface 1 qui est reliée par au moins un élément amortisseur à une partie fixe destinée à être fixée au véhicule automobile.
Selon un autre exemple, le retour haptique est réalisé en générant un champ de vibrations dans l’air, notamment face à l’écran tactile 2. Pour cela, le module à retour haptique comporte par exemple un haut-parleur haptique, diffusant des ondes ultrasoniques face à l’écran tactile 2, inaudibles pour l’oreille humaine. L’utilisateur ressent une sensation tactile sur la peau quand il place sa main devant l’écran tactile 2, dans le champ des vibrations.
Le dispositif de retour sensitif 20 peut comporter en outre une unité de traitement 26 ayant un ou plusieurs microcontrôleurs ou ordinateurs, ayant des mémoires et programmes adaptés notamment pour mettre en oeuvre le procédé de génération d’un retour sensitif de l’interface, pour modifier l’affichage de l’écran 4, pour traiter les informations fournies par la surface tactile
3. C’est par exemple l’ordinateur de bord du véhicule automobile.
Au cours du procédé de génération d’un retour sensitif, un signal de commande du dispositif de retour sensitif 20 est affecté à chaque pixel pouvant être localisé par la position d’un élément de commande dans au moins une zone active Z de l’image affichée sur l’écran 4.
-12Cette étape d’affectation d’au moins un signal de commande aux pixels de l’image, est réalisée lors d’une phase d’initialisation, par exemple au moment du premier chargement de l’image ou à chaque mise à jour des programmes de l’interface 1.
Puis en fonctionnement, on détermine une position d’un pixel localisé dans l’image affichée sur l’écran 4 en fonction de la position de l’élément de commande dans la zone active Z et on commande le dispositif de retour sensitif 20 avec le signal de commande associé au pixel dont la position X, Y a été déterminée.
Le signal de commande affecté à chaque pixel, est soit un signal de commande du module à retour haptique H, soit un signal de commande du haut-parleur à retour sonore S, soit un signal de commande du module à retour haptique H et un signal de commande du hautparleur à retour sonore S, soit une absence de retour sensitif R.
L’absence de retour sensitif R peut être un signal de commande nul ou peut être traduit par aucun signal de commande affecté au pixel.
Un retour sensitif peut ainsi être généré à chaque pixel de l’image « touché >> par l’élément de commande. Ce retour sensitif associé à une image permet à l’utilisateur qui touche la surface tactile 3 dans une zone active Z de l’image de percevoir le relief d’une texture de surface et/ou le relief d’au moins un objet de commande.
Le procédé de génération d’un retour sensitif selon l’invention simplifie de façon importante la détermination du signal de commande à envoyer au dispositif de retour sensitif. En effet, en fonctionnement, il suffit de connaître la position du « pixel >> touché par l’utilisateur pour savoir quel retour sensitif doit être généré. Le retour sensitif à générer peut ainsi être déterminé de manière quasiment immédiate, de façon complètement automatique, sans aucun calcul, sans nécessiter de mesure préalable de la vitesse et/ou du sens de déplacement du doigt de l’utilisateur, ce qui permet d’obtenir un ressenti beaucoup plus réaliste. La perception de texture sur l’écran peut donc être améliorée en nécessitant moins de ressources informatiques.
La prise en compte du signal de commande pour la commande du dispositif de retour sensitif 20 peut être conditionnée par d’autres étapes du procédé.
Par exemple, on peut prévoir que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l’écoulement d’un délai d’activation.
Le délai d’activation est par exemple supérieur à la durée du retour sensitif et/ou
-13supérieur à la durée du signal de commande sélectionné et/ou supérieur à un seuil temporel notamment égal ou supérieur à la durée du signal de commande et/ou à la durée du retour sensitif.
Tant que le délai d’activation ne s’est pas écoulé, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées.
Une nouvelle commande de retour sensitif peut ainsi être réalisée une fois que le retour sensitif précédemment généré est achevé.
Un délai d’activation et/ou un seuil temporel peuvent être affectés à chaque pixel de l’image.
Selon un autre exemple, notamment pour éviter la génération saccadée de retours sensitifs, on peut prévoir que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
Tant que cette distance ne franchit pas le seuil spatial, on ne prend pas en compte les signaux de commande subséquents, associés aux pixels dont les positions sont déterminées.
Le seuil spatial peut être défini par une surface élémentaire de la zone active Z et délimiter un nombre prédéterminé de pixels. Les pixels de la surface élémentaire peuvent être alignés en ligne (selon X) ou en colonne (selon Y) ou couvrir une surface carrée ou rectangulaire. La surface élémentaire délimite par exemple une surface de 20x20 pixels.
On évite ainsi la génération de retours sensitifs saccadés, par exemple dans certaines zones ou directions de l’image d’une même zone et/ou d’une même catégorie de couleurs.
Des dimensions de surfaces élémentaires, définissant un seuil spatial, peuvent être associées à chaque pixel de l’image.
En outre, la force d’appui exercée sur la surface tactile 3 peut être mesurée puis comparée à un seuil de pression d’appui P pour déterminer si le signal de commande du dispositif de retour sensitif 20 doit être pris en compte.
Un seuil de pression d’appui P peut être associé à chaque pixel.
L’attribution d’au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel dans au moins une zone active Z de l’image affichée sur l’écran 4 peut être stockée dans une table de données.
-14La table de données comporte un signal de commande du dispositif de retour sensitif 20 affecté à chaque pixel.
Cette table de données est par exemple un fichier texte. Par exemple, pour un écran d’affichage de résolution de 480*800 pixels, le fichier texte comporte 384000 signaux de commande H, S, R affectés à chaque pixel identifié par ses coordonnées spatiales X, Y respectives.
La table de données peut être pré-remplie manuellement.
Selon un autre exemple, la table de données est remplie automatiquement au cours de la phase d’initialisation.
Les signaux de commande du dispositif de retour sensitif 20 affectés à chacun des pixels sont par exemple déterminés en fonction d’au moins un paramètre du pixel dans l’image.
On peut en outre prévoir d’affecter à chacun des pixels un délai d’activation et/ou un seuil temporel et/ou un seuil spatial et/ou un seuil de pression d’appui P en fonction d’un paramètre du pixel afin de déterminer si le signal de commande doit être pris en compte.
Un paramètre du pixel est par exemple la position du pixel dans l’image.
On délimite au moins deux zones dans l’image, les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels étant déterminés en fonction de l’appartenance de la position X, Y du pixel à l’une des zones, un même signal de commande étant associé aux pixels d’une même zone de l’image.
Un paramètre du pixel est par exemple un paramètre visuel associé à la perception visuelle du pixel dans l’image, tel que la couleur, le niveau de gris, la luminosité et/ou l’opacité.
Pour attribuer au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel dans au moins une zone active Z, on peut classer les paramètres visuels des pixels de l’image dans un nombre prédéfini de catégories visuelles.
La couleur du pixel peut être codée en 3x8bits, par exemple en format RVB (ou RGB en anglais) ou RVBG avec gestion de l’opacité (ou RGBA en anglais).
Le paramètre visuel du pixel peut être un niveau de gris pouvant être obtenu par conversion de la couleur du pixel. Pour convertir une image couleur en niveau de gris il faut par exemple remplacer, pour chaque pixel les trois valeurs représentant les niveaux de rouge, de vert et de bleu, en une seule valeur représentant la luminosité, par exemple en utilisant un logiciel de traitement d’images et/ou en appliquant la conversion standard, telle qu’en utilisant les valeurs de la « Recommandation 709 >>.
Les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels
-15sont déterminés en fonction de l’appartenance du paramètre visuel du pixel à l’une des catégories visuelles, un même signal de commande étant associé aux pixels d’une même catégorie visuelle.
On prévoit par exemple qu’un même signal de commande du dispositif de retour sensitif 20 soit associé aux pixels d’une même catégorie visuelle dans une même zone de l’image.
L’affectation des signaux de commande du dispositif de retour sensitif 20 à chacun des pixels peut comprendre une étape préliminaire de délimitation d’au moins une zone de retour sensitif particulier dans l’image à l’aide d’un masque d’aspect visuel particulier.
Le masque est par exemple unicolore.
En recouvrant une zone de l’image avec un masque unicolore, on réalise un « coloriage >> de cette zone, ce qui permet de faciliter ou de forcer la délimitation par discrimination de la couleur de la zone du masque.
L’affectation des signaux de commande du dispositif de retour sensitif 20 à chacun des pixels en fonction d’un paramètre visuel du pixel peut comprendre une étape préliminaire d’accentuation de contrastes et/ou de lignes de l’image et/ou de suppressions de reflets d’éclairage.
Ces prétraitements de l’image permettent de mieux contrôler la discrimination des couleurs pour l’attribution automatique des signaux de commande à chacun des pixels.
On peut prévoir de mémoriser la couleur C de chaque pixel de l’image pour afficher une image reconstruite sur l’écran 4 à partir des couleurs mémorisées. On s’affranchit ainsi de la nécessité de mémoriser d’une part, la table de données des signaux de commande affectés aux pixels et d’autre part, un fichier image. Le traitement est ainsi beaucoup plus simple.
Ainsi, dans la table de données, peuvent être stockés pour chaque pixel de l’image :
- une position X, Y,
- un signal de commande du dispositif de retour sensitif 20, et
- au moins un paramètre du pixel parmi une couleur C, un seuil de pression d’appui P, un délai d’activation, un seuil temporel et un seuil spatial.
Les figures 3A à 31 illustrent un exemple de mise en oeuvre.
Dans cet exemple, l’image à afficher sur l’écran 4 est la figure 3A. Cette image est une photographie d’un bouton de commande agencé dans une planche de bord d’aspect cuir. Le bouton de commande est rond. Un appui sur le bouton permet d’enclencher une commande de désélection du mode « start and stop >> du véhicule. Le bouton de commande comporte un disque central d’aspect lisse comprenant un voyant et des lettres indiquant la fonction du
-16bouton de commande. Un anneau métallique sépare le disque central du cuir périphérique. L’anneau métallique présente une forme annulaire en relief. On considère que la zone active Z couvre toute l’image.
Au cours d’une étape préliminaire, on accentue les lignes de l’image délimitant la frontière F1 située entre la partie cuir et la partie métallique et la frontière F2 située entre la partie métallique et le disque central (figure 3B). Les lignes accentuées sont ici deux cercles concentriques qui ont été noircis et épaissis par rapport à la figure 3A. On force ainsi artificiellement l’affectation d’un signal de commande particulier aux pixels situés sous ces lignes accentuées.
Egalement, au cours d’une étape préliminaire, on délimite au moins une zone de retour sensitif particulier dans l’image à l’aide d’un premier et un deuxième masques M1, M2 d’aspect visuel particulier. Chaque masque M1, M2 présente un coloris uniforme et distinct. Un premier masque M1 en forme d’anneau, par exemple jaune, recouvre la partie métallique. Un deuxième masque M2 en forme de disque recouvre le disque central. Le deuxième masque M2 peut présenter un coloris par exemple bleu transparent, la transparence permettant aux lettres et au voyant d’apparaitre à travers le masque M2, ce qui permet une attribution des signaux de commande distincte pour les pixels des lettres et du voyant.
Trois zones sont ainsi délimitées dans l’image : la zone d’aspect cuir, la zone délimitée par le premier masque M1 et la zone délimitée par le deuxième masque M2.
Ces prétraitements réalisés sur l’image permettent de mieux contrôler l’attribution automatique qui peut être ensuite réalisée en fonction des couleurs des pixels, en facilitant la discrimination des couleurs de l’image. On évite ainsi notamment par exemple d’attribuer un signal de commande inapproprié du fait d’artéfacts d’éclairage.
On peut alors transformer les couleurs des pixels de l’image prétraitée en niveaux de gris (figures 3C et 3D). Le nombre de niveaux de gris choisi dépend de la définition que l’on souhaite obtenir des aspérités de l’image ou des différentes textures. Plus il y a de niveaux de gris et plus le ressenti peut être accentué.
Puis, pour attribuer au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel, on peut classer les niveaux de gris des pixels de l’image dans un nombre prédéfini de catégories visuelles.
Le nombre prédéfini de catégories visuelles peut être un nombre compris entre 2 et 10, voire plus, c’est par exemple quatre (figure 3E). Ainsi, dans l’exemple représenté où les niveaux de gris sont codés sur 256 valeurs, on définit quatre catégories visuelles NG1, NG2, NG3, NG4
-17classant les pixels ayant un niveau de gris compris entre 0 et 63, 64 et 127, 128 et 191 et 192 et 255. On constate sur le graphique de la figure 3E que l’image comporte un nombre plus important de pixels d’aspect fortement ou moyennement sombres correspondant aux catégories visuelles NG1 et NG2 que de pixels d’aspect plus clairs correspondants aux catégories visuelles NG3 et NG4.
Les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels sont déterminés en fonction de l’appartenance du niveau de gris du pixel à l’une des catégories visuelles NG1, NG2, NG3, NG4, un même signal de commande étant associé aux pixels d’une même catégorie visuelle NG1, NG2, NG3, NG4. On attribue ainsi un même signal de commande aux pixels ayant des niveaux de gris voisins.
On utilise par exemple pour cela une table de correspondance 22.
La table de correspondance 22 comporte par exemple un signal de commande du module à retour haptique H : « 1 >>, « 2 >>, « 3 >> ou « 4 >> et un signal de commande du haut-parleur à retour sonore S : « A», « B >>, « C >>, « D >> ainsi qu’un seuil de pression d’appui 1N ou 1,5N, associé à quatre catégories visuelles NG1, NG2, NG3, NG4 (figure 4).
Les signaux de commande du module à retour haptique H1 et H3 et du haut-parleur sonore SA et SC associés aux catégories visuelles NG1 et NG3 sont pris en compte que dans le cas où la force d’appui exercée sur la surface tactile 3 dépasse 1N. Les signaux de commande du module à retour haptique H2 et H4 et du haut-parleur sonore SB et SD associés aux catégories visuelles NG2 et NG4 ne sont eux activés que lorsque la force d’appui exercée dépasse 1,5N.
Cette table de correspondance 22 peut également comporter une valeur du délai d’activation, un seuil temporel et un seuil spatial associés à chaque catégorie visuelle NG1, NG2, NG3, NG4. La table de correspondance 22 permet ainsi de déterminer pour chaque catégorie visuelle NG1, NG2, NG3, NG4 quel ensemble de paramètres attribuer automatiquement au pixel, ce qui est beaucoup plus simple que de saisir tous les paramètres manuellement.
On a représenté en blanc sur la figure 3F tous les pixels de l’image pour lesquels le signal de commande du module à retour haptique H1 a été affecté du fait de l’appartenance du niveau de gris de ces pixels à la catégorie visuelle NG1. On constate que le signal de commande H1 est uniquement affecté aux pixels de la zone d’aspect cuir et aux pixels des frontières artificiellement accentuées F1 et F2. Le signal de commande H1 n’est pas affecté aux pixels des zones délimitées par le premier masque M1 en forme d’anneau et par le deuxième masque
-18M2 en forme de disque.
On a représenté en blanc sur la figure 3G tous les pixels de l’image pour lesquels le signal de commande du module à retour haptique H2 a été affecté du fait de l’appartenance de ces pixels à la catégorie visuelle NG2. On constate que le signal de commande H2 est affecté à certains pixels de la zone d’aspect cuir ainsi qu’à la zone du disque central du fait de l’appartenance du coloris uniforme du deuxième masque M2 à la catégorie visuelle NG2.
On a représenté en blanc sur la figure 3H tous les pixels de l’image pour lesquels le signal de commande du module à retour haptique H3 a été affecté du fait de l’appartenance de ces pixels à la catégorie visuelle NG3. On constate que le signal de commande H3 est affecté à certains pixels de la zone d’aspect cuir ainsi qu’aux lettres et au voyant situés dans le disque central.
On a représenté en blanc sur la figure 31 tous les pixels de l’image pour lesquels le signal de commande du module à retour haptique H4 a été affecté du fait de l’appartenance de ces pixels à la catégorie visuelle NG4. On constate que le signal de commande H4 est uniquement affecté aux pixels de la zone délimitée par le premier masque M1 annulaire.
On obtient ainsi pour chaque position X, Y de pixel de l’image affichée par l’écran 4, l’affectation d’un signal de commande du dispositif de retour sensitif 20 retour sensitif.
Pour chaque position X, Y de pixel, la couleur C du pixel de l’image de la figure 3A, un seuil de pression d’appui P, un délai d’activation, un seuil temporel et un seuil spatial peuvent également être attribués.
On obtient ainsi une table de données avec pour la position X, Y de chaque pixel, au moins : un signal de commande du module à retour sensitif H1, H2, H3, H4 et/ou un signal de commande du haut-parleur à retour sonore SA, SB, SC, SD et/ou une absence de retour sensitif R ainsi qu’éventuellement, une couleur C de l’image d’origine et un seuil de pression d’activation P.
On comprend que n’importe quelle image peut ainsi être codée de manière rapide et précise. Toutes les textures peuvent ainsi être codées de manière automatique.
En utilisation, on détermine une position X, Y d’un pixel dans l’image affichée sur l’écran 4 en fonction de la position de l’élément de commande dans la zone active Z et on commande le dispositif de retour sensitif 20 avec le signal de commande associé au pixel dont la position X, Y a été déterminée.
On accède ainsi à toutes les informations de chaque pixel, uniquement à partir de la position X, Y du pixel.
-19Ainsi, dans l’exemple présenté, lorsque l’utilisateur déplace son doigt sur la surface tactile 3, il perçoit un aspect cuir et un bouton de commande en relief au centre duquel apparaissent des lettres également en relief.
La figure 5 montre un autre exemple d’image pouvant être affichée sur l’écran 4. Cette image comporte des motifs réguliers noir et blanc en dents de scie. Le signal de commande du module à retour sensitif affecté à chacun des pixels de l’image de la figure 5 peut être déterminé en fonction de la couleur du pixel. Un premier signal de commande peut être associé aux pixels blancs et un deuxième signal de commande peut être associé aux pixels noirs. On constate que le traitement permettant l’affectation d’un signal de commande à un pixel peut être très rapide et très simple. En fonctionnement, on peut simuler un texturing réaliste sans avoir besoin de connaître la vitesse de déplacement de l’élément de commande ou la trajectoire de l’élément de commande sur l’écran 4.
Les figures 6 et 7 montrent deux autres exemples d’images pouvant être affichées sur l’écran 4. Le signal de commande affecté à chacun des pixels peut être déterminé en fonction de l’appartenance de la couleur du pixel à l’une des catégories visuelles dans lesquelles les couleurs des pixels de l’image sont classées, un même signal de commande étant affecté aux pixels d’une même catégorie visuelle. Ces images illustrent le fait que des images diverses et complexes peuvent être codées de manière simple et automatique.

Claims (20)

  1. REVENDICATIONS
    1. Procédé de génération d’un retour sensitif pour une interface de véhicule automobile comprenant :
    un écran (4) configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l’image, une surface tactile (3) disposée au-dessus de l’écran (4) et configurée pour localiser la position (X, Y) d’un pixel dans l’image affichée sur l’écran (4) en fonction de la position d’un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d’un contact par l’élément de commande, et un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, caractérisé en ce que :
    un signal de commande du dispositif de retour sensitif (20) est affecté à chaque pixel pouvant être localisé par la position d’un élément de commande dans la au moins une zone active (Z) lors d’une phase d’initialisation, on détermine une position (X, Y) d’un pixel localisé dans l’image affichée sur l’écran (4) en fonction de la position de l’élément de commande dans la zone active (Z), et on commande le dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.
  2. 2. Procédé de génération d’un retour sensitif selon la revendication 1, dans lequel le signal de commande comprend :
    un signal de commande d’un module à retour haptique (H) du dispositif de retour sensitif (20) et/ou un signal de commande d’un haut-parleur à retour sonore (S) du dispositif de retour sensitif (20).
  3. 3. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes, caractérisé en ce que les signaux de commande du dispositif de retour sensitif (R, S) affectés à chacun des pixels sont déterminés en fonction d’au moins un paramètre du pixel dans l’image.
  4. 4. Procédé de génération d’un retour sensitif selon la revendication précédente, caractérisé
    -21en ce qu’un paramètre du pixel est un paramètre visuel associé à la perception visuelle du pixel dans l’image, tel que la couleur, le niveau de gris, la luminosité et/ou l’opacité.
  5. 5. Procédé de génération d’un retour sensitif selon la revendication précédente, caractérisé en ce que le paramètre visuel du pixel est le niveau de gris obtenu par conversion de la couleur du pixel.
  6. 6. Procédé de génération d’un retour sensitif selon l’une des revendications 4 ou 5, caractérisé en ce qu’on classe les paramètres visuels des pixels de l’image dans un nombre prédéfini de catégories visuelles (NG1, NG2, NG3, NG4), les signaux de commande du dispositif de retour sensitif (H, S) affectés à chacun des pixels étant déterminés en fonction de l’appartenance du paramètre visuel du pixel à l’une des catégories visuelles (NG1, NG2, NG3, NG4), un même signal de commande étant associé aux pixels d’une même catégorie visuelle (NG1, NG2, NG3, NG4).
  7. 7. Procédé de génération d’un retour sensitif selon la revendication précédente, caractérisé en ce que l’affectation des signaux de commande du dispositif de retour sensitif (H, S) à chacun des pixels comprend une étape préliminaire de délimitation d’au moins une zone de retour sensitif particulier dans l’image à l’aide d’un masque (M1, M2) d’aspect visuel particulier.
  8. 8. Procédé de génération d’un retour sensitif selon la revendication précédente, caractérisé en ce que le masque est unicolore.
  9. 9. Procédé de génération d’un retour sensitif selon l’une des revendications 3 à 8, dans lequel l’affectation des signaux de commande du dispositif de retour sensitif (H, S) à chacun des pixels en fonction d’un paramètre visuel du pixel comprend une étape préliminaire d’accentuation de contrastes et/ou de lignes de l’image (F1, F2) et/ou de suppressions de reflets d’éclairage.
  10. 10. Procédé de génération d’un retour sensitif selon l’une des revendications 3 à 9, caractérisé en ce qu’un paramètre du pixel est la position (X, Y) du pixel dans l’image.
  11. 11. Procédé de génération d’un retour sensitif selon la revendication précédente, caractérisé en ce qu’on délimite au moins deux zones dans l’image, les signaux de commande du dispositif de retour sensitif (H, S) affectés à chacun des pixels étant déterminés en fonction de l’appartenance de la position (X, Y) du pixel à l’une des zones, un même signal de commande étant associé aux pixels d’une même zone de l’image.
  12. 12. Procédé de génération d’un retour sensitif selon les revendications 6 et 11, caractérisé en ce qu’un même signal de commande du dispositif de retour sensitif (H, S) est associé
    -22aux pixels d’une même catégorie visuelle (NG1, NG2, NG3, NG4) dans une même zone de l’image.
  13. 13. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes, caractérisé en ce que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l’écoulement d’un délai d’activation.
  14. 14. Procédé de génération d’un retour sensitif selon la revendication précédente, dans lequel le délai d’activation est supérieur à la durée du retour sensitif et/ou à la durée du signal de commande sélectionné et/ou à un seuil temporel.
  15. 15. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes, caractérisé en ce que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
  16. 16. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes dans lequel la force d’appui exercée sur la surface tactile (3) est mesurée puis comparée à un seuil de pression d’appui (P) pour déterminer si le signal de commande du dispositif de retour sensitif (20) doit être pris en compte.
  17. 17. Procédé de génération d’un retour sensitif selon l’une des revendications 14 à 16, caractérisé en ce que, sont affectés à chacun des pixels en fonction d’un paramètre du pixel:
    - un délai d’activation et/ou
    - un seuil temporel et/ou
    - un seuil spatial et/ou
    - un seuil de pression d’appui (P).
  18. 18. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes, dans lequel on mémorise la couleur (C) de chaque pixel de l’image pour afficher une image reconstruite sur l’écran (2) à partir des couleurs mémorisées.
  19. 19. Procédé de génération d’un retour sensitif selon l’une des revendications précédentes, caractérisé en ce qu’on stocke dans une table de données, pour chaque pixel de l’image :
    - une position (X, Y),
    - un signal de commande du dispositif de retour sensitif (H, S), et
    - au moins un paramètre du pixel parmi : une couleur (C), un seuil de pression d’appui (P), un délai d’activation, un seuil temporel et un seuil spatial.
  20. 20. Interface (1) de véhicule automobile comportant :
    - un écran (4) configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l’image,
    - une surface tactile (3) disposée au-dessus de l’écran (4) et configurée pour localiser la position (X, Y) d’un pixel dans l’image affichée sur l’écran (4) en fonction de la position d’un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d’un contact par l’élément de commande, et
    - un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, caractérisé en ce qu’elle comporte en outre :
    - une table de données comportant au moins un signal de commande du dispositif de retour sensitif (H, S) affecté à chaque pixel dans la au moins une zone active (Z), et des moyens configurés pour :
    - déterminer la position (X, Y) d’un pixel dans l’image affichée sur l’écran (4) en fonction de la position de l’élément de commande dans la zone active (Z),
    - commander le dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.
FR1754785A 2017-05-31 2017-05-31 Procede de generation d'un retour sensitif pour une interface et interface associee Active FR3066959B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1754785A FR3066959B1 (fr) 2017-05-31 2017-05-31 Procede de generation d'un retour sensitif pour une interface et interface associee
PCT/EP2018/063847 WO2018219832A1 (fr) 2017-05-31 2018-05-25 Procédé de génération d'un retour sensitif pour une interface et interface associée

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1754785 2017-05-31
FR1754785A FR3066959B1 (fr) 2017-05-31 2017-05-31 Procede de generation d'un retour sensitif pour une interface et interface associee

Publications (2)

Publication Number Publication Date
FR3066959A1 true FR3066959A1 (fr) 2018-12-07
FR3066959B1 FR3066959B1 (fr) 2020-11-06

Family

ID=60080892

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1754785A Active FR3066959B1 (fr) 2017-05-31 2017-05-31 Procede de generation d'un retour sensitif pour une interface et interface associee

Country Status (2)

Country Link
FR (1) FR3066959B1 (fr)
WO (1) WO2018219832A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3092415B1 (fr) * 2019-01-31 2021-03-05 Valeo Comfort & Driving Assistance Procédé de génération d’un retour sensitif pour une interface et interface associée
DE102021209749A1 (de) 2021-09-03 2023-03-09 Audi Aktiengesellschaft Bediensystem für ein Kraftfahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063165A1 (fr) * 2010-11-09 2012-05-18 Koninklijke Philips Electronics N.V. Interface utilisateur avec rétroaction haptique
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
WO2016051114A1 (fr) * 2014-10-02 2016-04-07 Dav Dispositif de commande pour véhicule automobile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063165A1 (fr) * 2010-11-09 2012-05-18 Koninklijke Philips Electronics N.V. Interface utilisateur avec rétroaction haptique
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
WO2016051114A1 (fr) * 2014-10-02 2016-04-07 Dav Dispositif de commande pour véhicule automobile

Also Published As

Publication number Publication date
FR3066959B1 (fr) 2020-11-06
WO2018219832A1 (fr) 2018-12-06

Similar Documents

Publication Publication Date Title
CA2557063C (fr) Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
EP2462498B1 (fr) Dispositif et procede d'interface de commande sensible a un mouvement d'un corps ou d'un objet et equipement de commande integrant ce dispositif
FR2851347A1 (fr) Dispositif d'interface homme machine a retour d'information tactile pour dalle tactile
EP3619594A1 (fr) Procede et dispositif de generation de motifs tactiles
WO2018219832A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
FR3072478A1 (fr) Interface homme-machine pour vehicule automobile
FR3076018A1 (fr) Dispositif surfacique offrant une deformation localisee amelioree
WO2020157175A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
WO2018060383A1 (fr) Interface pour véhicule automobile et procédé de commande
WO2018060388A1 (fr) Interface pour véhicule automobile et procédé d'éclairage
EP3519234B1 (fr) Interface pour véhicule automobile et procédé de procédé de génération d'un retour haptique
EP3519232B1 (fr) Interface pour véhicule automobile et procédé de commande
EP3519230B1 (fr) Interface pour véhicule automobile
WO2022090090A1 (fr) Dispositif tactile à retour haptique avec textures spatialisées
EP2788217A1 (fr) Interface homme-machine pour véhicule automobile
FR2971864A1 (fr) Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle
WO2014096576A1 (fr) Module d'interface permettant de detecter un geste
WO2017211835A1 (fr) Module et procédé de commande pour véhicule automobile
FR3053489A1 (fr) Procede de commande et interface de commande pour vehicule automobile
WO2005031556A1 (fr) Modulation de position de curseur dans les donnees video pour ecran d’ordinateur
CH711803A2 (fr) Procédé d'interaction par surface miroir interactive.
WO2015082817A1 (fr) Procédé de commande de l'interaction avec un écran tactile et équipement mettant en oeuvre ce procédé
FR3143154A1 (fr) Procédé de traitement de données vidéo provenant d’une source vidéo non certifiée
FR3079326A1 (fr) Interface pour vehicule automobile
FR2946768A1 (fr) Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20181207

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8