FR3124872A1 - Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés - Google Patents

Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés Download PDF

Info

Publication number
FR3124872A1
FR3124872A1 FR2107196A FR2107196A FR3124872A1 FR 3124872 A1 FR3124872 A1 FR 3124872A1 FR 2107196 A FR2107196 A FR 2107196A FR 2107196 A FR2107196 A FR 2107196A FR 3124872 A1 FR3124872 A1 FR 3124872A1
Authority
FR
France
Prior art keywords
screen
display
display screen
user
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2107196A
Other languages
English (en)
Inventor
Nicolas Pegorier
Fabrice Aycoberry
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Interieur Industrie SAS
Original Assignee
Faurecia Interieur Industrie SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Interieur Industrie SAS filed Critical Faurecia Interieur Industrie SAS
Priority to FR2107196A priority Critical patent/FR3124872A1/fr
Priority to US17/856,278 priority patent/US20230004230A1/en
Priority to CN202210774927.5A priority patent/CN115562476A/zh
Publication of FR3124872A1 publication Critical patent/FR3124872A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • B60K35/25
    • B60K35/65
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • B60K2360/11
    • B60K2360/1438
    • B60K2360/1464
    • B60K2360/21
    • B60K2360/741
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés Ce dispositif électronique (30) d'affichage de données sur un écran d’affichage (22), le dispositif (30) étant apte à être connecté à l’écran d’affichage (22) et à un capteur d’images (24), le capteur d’images (24) étant adapté pour prendre au moins deux images d’un utilisateur (16), comprend : - un module (40) d’affichage des données, notamment des icones, sur l’écran d’affichage (22) ; - un module (42) de détection, via les au moins deux images prises, d’un mouvement vers ledit écran (22) d’au moins un doigt de l’utilisateur (16), puis de calcul d’une direction du mouvement ; - un module (44) de détermination, parmi une page affichée sur l’écran (22) et en fonction de la direction du mouvement, d’une zone de l’écran correspondant à ladite direction ; et - un module (50) de commande d’un agrandissement de ladite zone lorsque ledit au moins un doigt s’approche de l’écran (22). Figure pour l'abrégé : Figure 1

Description

Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
La présente invention concerne un dispositif électronique d’affichage de données sur un écran d’affichage, le dispositif étant apte à être connecté à l’écran d’affichage et à un capteur d’images, le capteur d’images étant adapté pour prendre au moins deux images d’un utilisateur de l’écran d’affichage. Le dispositif comprend un module d’affichage configuré pour afficher les données, notamment des icones, sur l’écran d’affichage.
L’invention concerne également un système électronique d’affichage de données, le système comprenant un écran d’affichage, un capteur d’images adapté pour prendre au moins deux images d’un utilisateur de l’écran d’affichage, et un tel dispositif électronique d’affichage de données sur l’écran d’affichage.
L’invention concerne aussi un véhicule, notamment automobile, comprenant un tel système électronique d’affichage de données.
L’invention concerne également un procédé d’affichage de données sur un écran d’affichage, le procédé étant mis en œuvre par un tel dispositif électronique d’affichage ; ainsi qu’un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé d’affichage.
L’invention concerne le domaine des interfaces homme-machine, également appelé IHM ou MMI (de l’anglaisMan Machine Interface), et en particulier les systèmes électroniques d’affichage de données à destination de l’utilisateur.
L’invention concerne aussi le domaine des véhicules, notamment automobiles, le système électronique d’affichage objet de l’invention étant plus particulièrement configuré pour être embarqué à bord d’un véhicule, tel qu’un véhicule automobile, et l’utilisateur étant alors typiquement le conducteur du véhicule.
On connaît du document EP 2 474 885 A1 un dispositif d’affichage d’informations incluant un écran avec une fonction d’écran tactile capacitif, dans lequel un capteur mesure une variation de capacité de l’écran, puis fournit la variation mesurée de capacité et une information de position de la variation de capacité, à un contrôleur qui détermine alors si un doigt est à proximité ou non de l’écran sur la base de la variation de capacité fournie par le capteur. S’il est déterminé que le doigt est à proximité de l’écran, les coordonnées à l’écran correspondant à la position du doigt sont déterminées sur la base des informations de position fournies par le capteur de mesure, et une zone affichée à l’écran, centrée sur ces coordonnées déterminées, est alors agrandie, de manière à faciliter la sélection de l’objet se trouvant sous le doigt, cet agrandissement étant maintenu tant que le doigt est détecté comme étant à proximité de l’écran.
Le document US 9,772,757 B2 décrit également un dispositif d’affichage avec un écran tactile, dans lequel une zone affichée à l’écran est agrandie lorsque la présence d’un doigt de l’utilisateur à proximité de l’écran est détectée. Ce document enseigne aussi de modifier la zone agrandie lorsque le doigt de l’utilisateur se déplace parallèlement à l’écran tactile.
Cependant, avec de tels dispositifs d’affichage, l’interaction entre l’utilisateur et le dispositif d’affichage n’est pas toujours optimale, et une sélection tactile d’un icone affiché à l’écran demeure parfois délicate, entraînant alors une charge cognitive pour l’utilisateur.
Le but de l’invention est alors de proposer un dispositif électronique, et un procédé associé, d’affichage de données sur un écran d’affichage, permettant de faciliter la sélection d’un icone affiché à l’écran, et de réduire alors la charge cognitive pour l’utilisateur, ce qui permet de diminuer les risques d’accident d’un véhicule lorsque le dispositif électronique d’affichage est embarqué à bord de ce véhicule et que l’utilisateur est alors typiquement le conducteur dudit véhicule.
A cet effet, l’invention a pour objet un dispositif électronique d'affichage de données sur un écran d’affichage, le dispositif étant apte à être connecté à l’écran d’affichage et à un capteur d’images, le capteur d’images étant adapté pour prendre au moins deux images d’un utilisateur de l’écran d’affichage, le dispositif comprenant :
- un module d’affichage configuré pour afficher les données, notamment des icones, sur l’écran d’affichage ;
- un module de détection configuré pour détecter, via les au moins deux images prises, un mouvement vers ledit écran d’au moins un doigt de l’utilisateur, puis pour calculer une direction du mouvement ;
- un module de détermination configuré pour déterminer, parmi une page affichée sur l’écran et en fonction de la direction du mouvement, une zone de l’écran correspondant à ladite direction ; et
- un module de commande configuré pour commander un agrandissement de ladite zone lorsque ledit au moins un doigt s’approche de l’écran.
Avec le dispositif électronique d’affichage selon l’invention, le module de détection permet, via les au moins deux images prises par le capteur d’images, de détecter lorsque l’utilisateur approche au moins l’un de ses doigts de l’écran d’affichage, et de détecter en particulier le mouvement de l’au moins un doigt en direction de l’écran, puis de calculer la direction dudit mouvement. Le module de détermination permet alors de déterminer une zone affichée à l’écran à partir de la direction du mouvement calculée via les au moins deux images prises ; et le module de commande permet ensuite de modifier l’apparence de ladite zone, en particulier d’agrandir ladite zone, lorsque ledit au moins un doigt s’approche de l’écran, afin de faciliter la sélection ultérieure par l’utilisateur d’un élément inclus dans cette zone, tel qu’un icone.
L’homme du métier comprendra notamment que cette détection du mouvement de l’au moins un doigt vers l’écran, effectuée à partir des au moins deux images prises par le capteur d’images, permet une détection anticipée, par rapport à une détection effectuée via un capteur capacitif avec le dispositif d’affichage de l’état de la technique.
De préférence, la détection du mouvement est effectuée dès qu’une distance entre l’au moins un doigt de l’utilisateur et l’écran d’affichage est inférieure à un seuil de détection prédéfini, ce seuil de détection étant par exemple inférieur à 10 cm, et de préférence inférieur à 5 cm.
De préférence encore, l’agrandissement de la zone pointée par l’au moins un doigt de l’utilisateur, c’est-à-dire dans la direction du mouvement de l’au moins un doigt, est effectuée avec une intensité croissante lorsque la distance entre l’au moins un doigt détecté et l’écran d’affichage décroît, ce qui permet alors d’indiquer à l’utilisateur la zone vers laquelle son doigt pointe, et ceci de manière de plus en plus distincte au fur et à mesure que son doigt s’approche de l’écran. Si cette zone ne correspond pas à ce qu’il souhaite sélectionner, l’utilisateur peut alors facilement décaler latéralement son doigt, afin que son doigt pointe vers une autre zone, ce qui entraînera alors un agrandissement de cette autre zone, correspondant à la nouvelle direction du mouvement de l’au moins un doigt. L’agrandissement de ladite zone est alors progressif avec une amplification croissante dudit agrandissement de la zone lorsque ledit au moins un doigt s’approche plus en plus de l’écran, c’est-à-dire lorsque la distance entre l’au moins un doigt détecté et l’écran d’affichage décroît.
Suivant d’autres aspects avantageux de l’invention, le dispositif électronique d'affichage comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le module de détection est configuré pour détecter une distance entre ledit au moins un doigt et ledit écran, et le module de commande est configuré pour commander l’agrandissement de ladite zone lorsque ladite distance est inférieure à un seuil prédéfini ;
- le mouvement est un mouvement sensiblement rectiligne ;
- le module de commande est configuré pour commander l’agrandissement de ladite zone avec une intensité croissante lorsque ledit au moins un doigt s’approche plus en plus de l’écran ;
- le module de commande est configuré pour commander en outre une mise en surbrillance et/ou une modification colorimétrique de ladite zone ; et
- l’écran d’affichage est un écran tactile, et le dispositif comprend en outre un module d’acquisition configuré pour acquérir une sélection tactile, de la part de l’utilisateur, d’un icone affiché dans ladite zone ;
le module d’acquisition étant de préférence configuré en outre pour générer, à destination de l’utilisateur, un signal de confirmation d’acquisition de la sélection ;
le signal de confirmation d’acquisition étant de préférence encore choisi parmi le groupe consistant en : un signal vibratoire, un signal visuel et un signal sonore.
L’invention a également pour objet un système électronique d'affichage de données, le système comprenant un écran d’affichage, un capteur d’images adapté pour prendre au moins deux images d’un utilisateur de l’écran d’affichage, et un dispositif électronique d'affichage de données sur l’écran d’affichage, le dispositif électronique d'affichage étant tel que défini ci-dessus, le dispositif électronique d'affichage étant connecté à l’écran d’affichage et au capteur d’images.
Suivant d’autres aspects avantageux de l’invention, le système électronique d'affichage comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le système est configuré pour être embarqué à bord d’un véhicule ; le véhicule étant de préférence un véhicule automobile ; et
- l’utilisateur est un conducteur du véhicule.
L’invention a aussi pour objet un véhicule, notamment automobile, comprenant un système électronique d'affichage de données, le système électronique d'affichage étant tel que défini ci-dessus.
L’invention a également pour objet un procédé d'affichage de données sur un écran d’affichage, le procédé étant mis en œuvre par un dispositif électronique d’affichage apte à être connecté à l’écran d’affichage et à un capteur d’images, le capteur d’images étant adapté pour prendre au moins deux images d’un utilisateur de l’écran d’affichage, le procédé comprenant :
- afficher les données, notamment des icones, sur l’écran d’affichage ;
- détecter, via les au moins deux images prises, un mouvement vers ledit écran d’au moins un doigt de l’utilisateur, puis calculer une direction du mouvement ;
- déterminer, parmi une page affichée sur l’écran et en fonction de la direction du mouvement, une zone de l’écran correspondant à ladite direction ; et
- commander un agrandissement de ladite zone lorsque ledit au moins un doigt s’approche de l’écran.
L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé d’affichage tel que défini ci-dessus.
Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
la est une représentation schématique d’un véhicule, notamment automobile, comprenant un système électronique d’affichage de données selon l’invention, le système d’affichage comportant un écran d’affichage, un capteur d’images d’un utilisateur de l’écran d’affichage, et un dispositif électronique d’affichage de données sur l’écran d’affichage, ledit dispositif étant connecté à l’écran et au capteur d’images ;
la représente une vue schématique en perspective de l’intérieur de l’habitacle du véhicule de la , avec l’écran d’affichage face à un utilisateur, tel que le conducteur du véhicule, et le capteur d’images adapté pour prendre au moins deux images de l’utilisateur, notamment lorsqu’il tend l’une de ses mains en direction de l’écran ;
la est une représentation schématique de quatre situations d’interaction entre le système électronique d’affichage de la et un doigt de l’utilisateur ; et
la est un organigramme d’un procédé, selon l’invention, d’affichage de données sur l’écran d’affichage, le procédé étant mis en œuvre par le dispositif électronique d’affichage de la .
Dans la suite de la description, l’expression « sensiblement égal(e) à » définit une relation d’égalité à plus ou moins 10%, de préférence encore à plus ou moins 5%.
Sur les figures 1 et 2, un véhicule 10 comprend un habitacle 12, et à l’intérieur de l’habitacle 12, un siège 14 pour un utilisateur 16, tel qu’un conducteur, ainsi qu’un volant 18 pour la conduite du véhicule, comme connu en soi.
Selon l’invention, le véhicule 10 comprend en outre un système électronique 20 d’affichage de données à destination de l’utilisateur 16, le système d’affichage 20 étant adapté pour être embarqué à bord du véhicule 10.
L’homme du métier comprendra que le véhicule 10 s’entend au sens large comme un véhicule permettant à un conducteur, également appelé pilote, ainsi qu’en complément à un ou plusieurs passagers, de se déplacer. Le véhicule 10 est alors typiquement choisi parmi le groupe consistant en : un véhicule automobile, tel qu’une voiture, un bus ou un camion ; un véhicule ferroviaire, tel qu’un train ou un tramway ; un véhicule naval, tel qu’un bateau ; et un véhicule aéronautique, tel qu’un aéronef.
Le système électronique d’affichage 20 comprend un écran d’affichage 22, un capteur d’images 24 adapté pour prendre au moins deux images de l’utilisateur 16, et un dispositif électronique 30 d’affichage de données sur l’écran d’affichage 22, le dispositif d’affichage 30 étant connecté à l’écran 22 et au capteur d’images 24.
L’écran d’affichage 22 est adapté pour afficher des données à destination de l’utilisateur 16, notamment des icones 32, visibles sur les figures 2 et 3. L’écran d’affichage 22 est typiquement un écran tactile, et est alors configuré pour détecter un appui tactile contre l’écran de la part de l’utilisateur 16, et typiquement un appui d’au moins un doigt 34 de l’utilisateur contre une portion de la surface de l’écran 22, telle qu’une portion de surface où un icone 32 respectif est affiché. L’écran tactile est par exemple un écran tactile capacitif ou un écran tactile résistif, comme connu en soi.
Le capteur d’images 24 est connu en soi, et est configuré pour acquérir au moins deux images de l’utilisateur 16, notamment de l’une de ses mains 36, et typiquement d’au moins l’un de ses doigts 34, en particulier lorsque l’utilisateur 16 tend sa main 36 en direction de l’écran d’affichage 22.
Le capteur d’images 24 est par exemple positionné face à l’écran 22, afin de pouvoir prendre au moins deux images de la main 36 lorsqu’elle est à proximité de l’écran 22, et afin en outre de pouvoir déterminer via les au moins deux images prises, quelle est la direction du mouvement d’approche de la main 36, et en particulier de l’au moins un doigt 34, vers l’écran 22.
Le capteur d’images 24 est typiquement positionné sensiblement parallèlement à l’écran 22, un axe de visée du capteur d’images 24 étant alors sensiblement perpendiculaire à la surface de l’écran 22, l’axe de visée étant lui-même sensiblement perpendiculaire par rapport à une surface active, non représentée, du capteur d’images 24.
Le dispositif électronique d’affichage 30, visible sur la , est configuré pour afficher des données sur l’écran d’affichage 22 à destination de l’utilisateur 16. Le dispositif électronique d’affichage 30 comprend un module 40 d’affichage de données, notamment des icones 32, sur l’écran d’affichage 22.
Selon l’invention, le dispositif électronique d’affichage 30 comprend en outre un module 42 de détection, via les au moins deux images prises par le capteur d’images 24, d’un mouvement vers l’écran 22 de l’au moins un doigt 34 de l’utilisateur, le module de détection 42 étant alors configuré pour calculer une direction M du mouvement détecté ; un module 44 de détermination d’une zone 48, parmi une page 46 affichée à l’écran 22 et en fonction de la direction M du mouvement, la zone 48 incluant typiquement au moins un icone 32 ; et un module 50 de commande d’une modification d’apparence de la zone 48 déterminée.
En complément facultatif, le dispositif électronique d’affichage 30 comprend en outre un module 52 d’acquisition d’une sélection tactile, de la part de l’utilisateur 16, d’un icone 32 affiché sur l’écran 22.
Dans l’exemple de la , le dispositif électronique d’affichage 30 comprend une unité de traitement d’informations 60 formée par exemple d’une mémoire 62 et d’un processeur 64 associé à la mémoire 62.
Dans l’exemple de la , le module d’affichage 40, le module de détection 42, le module de détermination 44 et le module de commande 50, ainsi qu’en complément facultatif le module d’acquisition 52, sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutable par le processeur 64. La mémoire 62 du dispositif d’affichage 30 est alors apte à stocker un logiciel d’affichage de données sur l’écran d’affichage 22 ; un logiciel de détection, via les au moins deux images prises par le capteur 24, du mouvement vers l’écran 22 de l’au moins un doigt 34 respectif de l’utilisateur, puis de calcul de la direction M dudit mouvement ; un logiciel de détermination, parmi la page 46 affichée à l’écran 22 et en fonction de la direction M dudit mouvement, d’une zone 48 respective ; et un logiciel de commande d’une modification d’apparence de la zone 48 déterminée. En complément facultatif, la mémoire 62 du dispositif d’affichage 30 est apte à stocker un logiciel d’acquisition d’une sélection tactile, de la part de l’utilisateur 16, d’un icone 32 respectif affiché sur l’écran d’affichage 22. Le processeur 64 est alors apte à exécuter chacun des logiciels parmi le logiciel d’affichage, le logiciel de détection, le logiciel de détermination et le logiciel de commande, ainsi qu’en complément facultatif le logiciel d’acquisition.
En variante non représentée, le module d’affichage 40, le module de détection 42, le module de détermination 44 et le module de commande 50, ainsi qu’en complément facultatif le module d’acquisition 52, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglaisField Programmable Gate Array), ou encore d’un circuit intégré, tel qu’un ASIC (de l’anglaisApplication Specific I ntegrated Circuit).
Lorsque le dispositif d’affichage 30 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, également appelé produit programme d’ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple un medium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non-volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.
L’homme du métier comprendra que par icone, désigné par la référence générale 32, on entend tout objet graphique destiné à être affiché sur l’écran d’affichage 22, et en particulier tout objet graphique apte à être sélectionné de manière tactile par l’utilisateur 16. Dans les exemples des figures 2 et 3, les icones 32 sont - schématiquement et par souci de simplification du dessin - représentés avec une forme rectangulaire, et l’homme du métier comprendra bien entendu que chaque icone 32 présente une forme géométrique quelconque, pas nécessairement rectangulaire.
Le module d’affichage 40 est configuré pour afficher les données, notamment les icones 32, sur l’écran d’affichage 22. Le module d’affichage 40 est connu en soi, et est apte à générer les informations graphiques correspondant aux données à afficher, puis à les transmettre à l’écran d’affichage 22 en vue de leur affichage sur ledit écran.
Le module de détection 42 est configuré pour détecter, via les au moins deux images de l’utilisateur 16, et en particulier de sa main 34, prises par le capteur d’images 24, un mouvement vers l’écran 22 de la main 36 de l’utilisateur 16, et en particulier de l’au moins un de ses doigts 34. Le module de détection 42 est ensuite configuré pour calculer la direction M du mouvement de la main 36, et en particulier de l’au moins un doigt 34, vers l’écran d’affichage 22.
En complément facultatif, le module de détection 42 est configuré pour détecter le mouvement de l’au moins un doigt 34 de l’utilisateur 16 vers l’écran 22 seulement si une distance entre le doigt 34 et l’écran 22 est inférieure à un seuil prédéfini de détection. Le seuil de détection est par exemple inférieur ou égal à dix centimètres, ou encore inférieur ou égal à cinq centimètres, le seuil de détection étant typiquement égal à un nombre entier de centimètres inférieur ou égal aux valeurs précitées.
Le module de détection 42 est par exemple configuré pour calculer la distance entre au moins un doigt 34 et un point de repère en fonction d’un nombre de pixels entre l’au moins un doigt 34 et le point de repère dans une image correspondante, une distance prédéfinie pour deux points connus étant associée, ou encore corrélée, à un nombre prédéfini de pixels, ceci à titre de référence ou encore de relation de correspondance.
En complément facultatif, au moins trois points de repère sont pris en compte pour le calcul de ladite distance pour faire l’analyse, selon les nombres de pixels respectifs pour un même objet, tel qu’un même doigt 34, par rapport aux différents points de repère, un système de coordination en 3 dimensions est créé. Selon ce complément facultatif, le module de détection 42 est alors configuré pour déterminer, via ledit système de coordination en 3 dimensions, la direction de mouvement de l’objet, en particulier de l’au moins un doigt 34, par rapport au repère, typiquement associé à l’écran 22. Selon ce complément facultatif, le module de détection 42 est également configuré pour déterminer, via ledit système de coordination en 3 dimensions, la distance de l’objet, en particulier de l’au moins un doigt 34, par rapport au repère, typiquement associé à l’écran 22.
Le module de détermination 44 est configuré pour déterminer une zone 48 respective parmi la page 46 affichée sur l’écran d’affichage 22, la zone 48 incluant typiquement au moins un icone 32, ceci en fonction de la direction M du mouvement, préalablement calculée par le module de détection 42.
Le mouvement est par exemple un mouvement sensiblement rectiligne. L’homme du métier observera notamment que le mouvement est distinct de gestuelles classiques de la main ou à plusieurs doigts, telles qu’une gestuelle de pincement pour zoomer (de l’anglaispinch to zoom), une gestuelle de balayage (de l’anglaisswipe), etc.
Le module de commande 50 est alors configuré pour commander une modification d’une apparence de la zone 48 lorsque ledit au moins un doigt 34 s’approche de l’écran 22.
La modification d’apparence de la zone 48 est typiquement un agrandissement de ladite zone 48.
En complément facultatif, la modification d’apparence de la zone 48 comporte en outre une mise en surbrillance et/ou une modification colorimétrique de ladite zone 48.
La modification d’apparence de la zone 48 est alors typiquement choisie parmi le groupe consistant en : un agrandissement de la zone 48, une mise en surbrillance de la zone 48, et une modification colorimétrique de la zone 48.
Dans l’exemple de la , le module de commande 50 est configuré pour commander une modification de la taille, et de préférence un agrandissement, de la zone 48, et typiquement de l’au moins un icone 32 inclus dans la zone 48. L’agrandissement de la zone 48 est de préférence une homothétie par rapport à un centre la zone 48. Autrement dit, la taille la zone 48 est alors augmentée dans toutes les directions. En variante, seule une dimension la zone 48 selon une seule direction est augmentée.
En complément, l’agrandissement de chaque icone 32 est de préférence une homothétie par rapport à un centre dudit icone 32. Autrement dit, la taille de l’icone 32 est alors augmentée dans toutes les directions. En variante, seule une dimension de l’icone 32 selon une seule direction est augmentée.
En complément facultatif, le module de commande 50 est configuré pour commander ladite modification d’apparence avec une intensité croissante lors d’une décroissance d’une distance entre le doigt 34 détecté et l’écran d’affichage 22. Autrement dit, selon ce complément facultatif, le module de commande 50 est configuré pour commander la modification d’apparence avec une intensité d’autant plus forte que la distance entre le doigt 34 et l’écran 22 diminue.
Selon ce complément facultatif, l’homme du métier comprendra que lorsque la modification d’apparence est un agrandissement, l’intensité correspond à un ratio d’agrandissement, c’est-à-dire un ratio entre les dimensions de l’icone 32 après agrandissement et celles avant agrandissement. Lorsque la modification d’apparence est une mise en surbrillance, l’intensité correspond à un niveau de surbrillance, ou encore à une intensité lumineuse. Lorsque la modification d’apparence est une modification colorimétrique, l’intensité correspond par exemple à un ton colorimétrique, une intensité plus élevée étant typiquement associée à des couleurs vives, et une intensité plus faible à des couleurs pastels.
En complément facultatif encore, le module de commande 50 est configuré pour commander la modification d’apparence avec une intensité plus importante pour un icone 32 se trouvant à proximité du centre de la zone déterminée 48, que pour un icone éloigné dudit centre, et se trouvant alors plus près d’un bord périphérique de ladite zone déterminée 48.
Selon ce complément facultatif, le module de commande 50 est alors configuré pour commander la modification d’apparence avec une intensité plus importante pour un icone 32 se trouvant directement en regard de l’au moins un doigt 34 détecté, c’est-à-dire selon une direction de pointage P dudit doigt 34, que pour des icones 32 se trouvant de part et d’autre dudit icone 32 visé par le doigt 34. Les icones 32 se trouvant de part et d’autre dudit icone 32 visé par le doigt 34, tout en étant inclus à l’intérieur de la zone 48 déterminée, ont également une apparence modifiée par rapport aux icones 32 se trouvant en dehors de ladite zone 48.
En complément facultatif encore, le module de commande 50 est configuré pour commander ladite modification d’apparence de manière temporaire, par exemple pendant une durée prédéfinie. La durée prédéfinie est par exemple comprise entre un dixième de seconde et une seconde.
En variante, le module de commande 50 est configuré pour commander ladite modification d’apparence tant qu’une distance entre le doigt 34 détecté et l’écran d’affichage 22 est inférieure à un seuil prédéfini de maintien. Le seuil de maintien est par exemple inférieur ou égal à dix centimètres, ou encore inférieur ou égal à cinq centimètres, le seuil de maintien étant typiquement égal à un nombre entier de centimètres inférieur ou égal aux valeurs précitées.
En complément facultatif, le module d’acquisition 52 est configuré pour acquérir une sélection tactile d’un icone 32 respectif affiché sur l’écran 22, notamment d’un icone 32 dont l’apparence est modifiée via le module de commande 50, la sélection tactile, typiquement via un appui tactile contre l’écran 22, ayant été effectuée par l’utilisateur 16, en particulier suite à ladite modification d’apparence.
En complément facultatif encore, le module d’acquisition 52 est configuré pour, suite à l’acquisition de ladite sélection tactile, générer un signal de confirmation d’acquisition à destination de l’utilisateur 16. Le signal de confirmation d’acquisition est par exemple un signal vibratoire, tel qu’un signal haptique ou une vibration mécanique ; un signal visuel ; ou encore un signal sonore. Le signal de confirmation permet alors d’informer l’utilisateur 16 que sa sélection tactile a bien été acquise, et donc prise en compte par le dispositif électronique d’affichage 30.
Le fonctionnement du système électronique d’affichage 20, et en particulier du dispositif électronique d’affichage 30, selon l’invention va être à présent décrit en regard de la représentant un organigramme du procédé, selon l’invention, d’affichage de données sur l’écran d’affichage 22 à destination de l’utilisateur 16.
Lors d’une étape initiale et récurrente 100, le dispositif d’affichage 30 affiche, via son module d’affichage 40, les données, et notamment les icones 32, sur l’écran d’affichage 22. Comme connu en soi, lors de cette étape d’affichage 100, le module d’affichage 40 génère des informations graphiques correspondant auxdites données, et les transmet à l’écran d’affichage 22, en vue de leur affichage.
Lorsque l’utilisateur 16 effectue un mouvement d’approche vers l’écran 22, notamment avec l’une de ses mains 36, et en particulier avec l’un de ses doigts 34, le dispositif d’affichage 30 détecte ensuite, lors de l’étape suivante 110 et via son module de détection 42, ce mouvement de l’utilisateur 16 vers l’écran d’affichage 22, cette détection étant effectuée à partir des au moins deux images acquises par le capteur d’images 24.
En complément facultatif, le module de détection 42 détecte le mouvement de l’au moins un doigt 34 de l’utilisateur 16 vers l’écran 22 seulement si la distance entre le doigt 34 et l’écran 22 est inférieure au seuil prédéfini de détection.
Lors de cette étape 110, le module de détection 42 calcule ensuite la direction M de ce mouvement, également à partir des au moins deux images prises par le capteur d’image(s) 24.
Le module de détection 42 calcule par exemple la distance entre au moins un doigt 34 et un point de repère respectif, en fonction d’un nombre de pixels entre l’au moins un doigt 34 et le point de repère dans une image correspondante.
En complément facultatif, au moins trois points de repère sont pris en compte pour le calcul de ladite distance pour faire l’analyse, selon les nombres de pixels respectifs pour un même objet, tel qu’un même doigt 34, par rapport aux différents points de repère, un système de coordination en 3 dimensions est créé. Selon ce complément facultatif, le module de détection 42 détermine alors, via ledit système de coordination en 3 dimensions, la direction de mouvement de l’objet, en particulier de l’au moins un doigt 34, et la distance de l’objet, en particulier de l’au moins un doigt 34, par rapport au repère, typiquement associé à l’écran 22.
Après le calcul de la direction M, le dispositif d’affichage 30 passe à l’étape suivante 120, lors de laquelle il détermine, via son module de détermination 44, la zone 48 en fonction de la direction M du mouvement de l’au moins un doigt 34 vers l’écran 22, ladite zone 48 incluant typiquement au moins un icone 32. La zone 48 déterminée est par exemple une zone centrée sur l’intersection entre la direction M du mouvement et la surface de l’écran d’affichage 22.
A l’issue de l’étape de détermination 120, le dispositif d’affichage 30 commande, via son module de commande 50, une modification d’apparence de la zone 48 déterminée lors de la précédente étape de détermination 120. La modification d’apparence est typiquement un agrandissement de la zone 48, et en complément facultatif une mise en surbrillance et/ou une modification colorimétrique de la zone 48.
Lors de cette étape de commande 130, la modification d’apparence est de préférence commandée avec une intensité croissante lorsque la distance entre l’écran d’affichage 22 et la main 36 de l’utilisateur, en particulier son doigt 34, diminue.
De préférence encore, cette modification d’apparence est effectuée avec une intensité plus importante pour l’icone 32 qui est le plus proche du centre de la zone 48, déterminée lors de la précédente étape de détermination 120.
Lors de cette étape de commande 130, la modification d’apparence commandée est par exemple temporaire, cette modification d’apparence étant typiquement commandée tant que la distance entre l’écran d’affichage 22 et le doigt 34 détecté, en particulier l’extrémité de ce doigt 34 qui est la plus proche de l’écran d’affichage 22, est inférieure au seuil prédéfini de maintien, décrit précédemment. En variante, cette modification d’apparence est temporaire en étant commandée pendant la durée prédéfinie, décrite précédemment.
A l’issue de l’étape de commande 130, si l’utilisateur 16 a effectué une sélection tactile d’un icone 32 respectif affiché sur l’écran d’affichage 22, notamment d’un icone 32 dont l’apparence est modifiée suite à l’étape de commande 130, alors le dispositif d’affichage 30 passe à l’étape suivante 140 lors de laquelle il acquiert, via son module d’acquisition 52, ladite sélection tactile.
En complément, lors de cette étape d’acquisition 140, le module d’acquisition 52 génère en outre un signal de confirmation d’acquisition à destination de l’utilisateur 16, ceci afin de l’informer que sa sélection tactile de l’icone 32 a bien été prise en compte par le dispositif d’affichage 30. Ce signal de confirmation d’acquisition est par exemple un signal vibratoire, tel qu’un signal haptique ou une vibration mécanique ; un signal visuel ; ou encore un signal sonore.
A l’issue de l’étape d’acquisition 40, le dispositif d’affichage 30 retourne à l’étape d’affichage 100.
Par ailleurs, si à l’issue de l’étape de commande 130, aucune sélection tactile n’est effectuée par l’utilisateur 16, alors le dispositif d’affichage 30 retourne directement à l’étape d’affichage 100.
Dans l’exemple de la , représentant schématiquement quatre situations d’interaction entre le système d’affichage 20 et un doigt 34 de l’utilisateur 16, à savoir une première situation S1, une deuxième situation S2, une troisième situation S3 et une quatrième situation S4, la première situation S1 correspond au cas où la main 36 de l’utilisateur 16 est trop éloignée de l’écran d’affichage 22, de sorte qu’aucun mouvement d’approche vers l’écran 22 n’est détecté par le module de détection 42 lors de l’étape de détection 110.
Dans la deuxième situation S2, l’utilisateur 16 approche sa main 36 de l’écran d’affichage 22 selon la direction M. Sur la , la position finale de la main 36 est représentée en trait continu, et la position initiale de cette main 36 est représentée en trait pointillé. Dans cette deuxième situation S2, le module de détection 42 détecte ce mouvement d’approche de la main 36, puis calcule la direction M de ce mouvement. Le module de détermination 44 détermine alors ensuite que la zone 48, calculée en fonction de la direction M et correspondant à ce mouvement d’approche, est celle comportant les deux icones 32 en bas à gauche de la page 46. Puis, le module de commande 50 commande une modification d’apparence des deux icones 32 inclus dans la zone 48 déterminée, la modification d’apparence illustrée à la pour la deuxième situation S2 étant un agrandissement desdits icones 32. En outre, la modification d’apparence est effectuée avec une intensité plus importante pour l’icone 32 se trouvant à proximité du coin inférieur gauche de la page 46 que pour l’autre icone inclus dans la zone 48, cet icone 32 en bas à gauche étant celui qui est le plus proche du centre de la zone 48, notamment d’un point d’intersection entre la direction M du mouvement et la surface de l’écran d’affichage 22.
Dans la troisième situation S3, l’utilisateur 16 effectue ensuite un mouvement latéral avec sa main 36 selon la direction M qui est alors sensiblement parallèle à l’écran d’affichage 22. Dans cette troisième situation S3, le module de détection 42 détecte que la main 36 est toujours à proximité de l’écran 22, puis calcule la direction M du mouvement effectué par la main 36, en particulier par le doigt 34. Le module de détermination 44 détermine alors une nouvelle zone 48 en fonction de la direction M du mouvement. Dans l’exemple de la , le module de détermination 44 détermine que, dans la troisième situation S3, la direction M du mouvement est sensiblement parallèle à l’écran 22 et est latérale, de sorte que la nouvelle zone 48 déterminée est décalée latéralement, ici sur la droite, par rapport à la zone 48 déterminée dans la deuxième situation S2. Le module de commande 50 commande alors une modification d’apparence des trois icones 32 inclus dans la zone 48 déterminée dans cette troisième situation S3. Cette modification d’apparence est de préférence en outre effectuée avec une intensité plus importante pour l’icone 32 se trouvant au centre de la zone 48 déterminée. Dans cette troisième situation S3, la modification d’apparence est également un agrandissement des trois icones 32 à l’intérieur de la zone 48 déterminée, et l’agrandissement est alors plus important pour l’icone 32 se trouvant au centre de cette zone 48.
La quatrième situation S4 correspond au cas où l’utilisateur, après avoir décalé latéralement vers la gauche sa main 36, l’approche davantage de l’écran 22, selon la direction M, pour effectuer en fin de mouvement une sélection tactile de l’icone 32 ayant la modification d’apparence la plus importante. Dans cette quatrième situation S4, le module de détection 42 détecte alors ce mouvement supplémentaire d’approche de la main 36, et en particulier de l’au moins un doigt 34, vers l’écran 22 ; puis calcule la direction M dudit mouvement. Le module de détermination 44 détermine alors, en fonction de la direction M du mouvement détecté, la zone 48 incluant au moins un icone 32, et en particulier trois icones 32 dans l’exemple de cette . Le module de commande 50 commande ensuite la modification d’apparence du ou des icones 32 inclus dans la zone 48 déterminée. La modification d’apparence est de préférence en outre d’autant plus intense que la distance entre l’écran 22 et la main 36, et en particulier le doigt 34, diminue. Dans l’exemple de la , et dans la quatrième situation S4, les dimensions du ou des icones 32 inclus dans la zone 48 augmentent alors au fur et à mesure que l’utilisateur 16 approche sa main 36, et en particulier son doigt 34, de l’écran d’affichage 22.
Dans cette quatrième situation S4, l’utilisateur 16 effectue en outre à la fin de son mouvement un appui tactile sur l’icone 32 au centre de la zone 48, et le module d’acquisition 52 acquiert alors la sélection tactile de cet icone 32, effectuée par l’utilisateur 16. L’icone 32 sélectionné par l’utilisateur 16 est alors typiquement celui dont l’apparence est modifiée, cette modification d’apparence permettant de mettre en avant cet icone 32, et d’en faciliter la sélection par l’utilisateur 16, ce qui permet alors de réduire la charge cognitive pour l’utilisateur 16.
Ainsi, le système d’affichage 20 selon l’invention, et en particulier le dispositif d’affichage 30, permet d’aider l’utilisateur 16 à identifier, puis à sélectionner plus facilement l’icone 32 correspondant à une fonction, ou fonctionnalité, qu’il souhaite commander, c’est-à-dire activer ou lancer.
Cela réduit en outre le risque de sécurité dû à une distraction de l’utilisateur 16, en particulier lorsque le système d’affichage 20 est embarqué à bord du véhicule 10 et que l’utilisateur 16 est le conducteur dudit véhicule 10.
Avec le dispositif d’affichage 30 selon l’invention, la détection du mouvement de l’au moins un doigt 34 vers l’écran 22 est effectuée à partir des au moins deux images prises par le capteur d’images 24, ce qui permet une détection anticipée, par rapport à celle effectuée via un capteur capacitif avec le dispositif d’affichage de l’état de la technique.
De préférence, la détection du mouvement est effectuée dès que la distance entre le doigt 34 de l’utilisateur et l’écran d’affichage 22 est inférieure au seuil de détection prédéfini, ce seuil de détection étant de l’ordre de quelques centimètres.
De préférence encore, la modification d’apparence de la zone 48 pointée par le doigt 34 de l’utilisateur 16, c’est-à-dire de la zone 48 se trouvant dans la direction du mouvement de l’au moins un doigt 34, est effectuée avec une intensité croissante lorsque la distance entre le doigt 34 et l’écran 22 décroît, ce qui permet alors d’indiquer à l’utilisateur 16 encore mieux la zone 48 vers laquelle son doigt 34 pointe, cette indication étant de plus en plus distincte au fur et à mesure que le doigt 34 s’approche de l’écran 22. Si cette zone 48 ne correspond pas à ce que l’utilisateur 16 souhaite sélectionner, il peut alors facilement décaler latéralement son doigt 34, afin qu’il pointe vers une autre zone 48, ce qui entraînera alors une modification d’apparence de cette autre zone 48, correspondant à la nouvelle direction du mouvement de l’au moins un doigt 34.
Le dispositif d’affichage 30 et le procédé d’affichage selon l’invention permettent également de diminuer le risque d’une sélection erronée d’un icone 32, par exemple due à une déformation de la chaussée sur laquelle circule le véhicule 10 au moment où l’utilisateur 16 sélectionne l’icone 32. Cette diminution du risque de sélection erronée est particulièrement efficace lorsque la modification d’apparence est un agrandissement de l’icone 32, et ce d’autant plus que la modification d’apparence est d’intensité croissante lorsque la distance entre le doigt 34 et l’écran d’affichage 22 décroît.
On conçoit ainsi que le dispositif électronique d’affichage 30 et le procédé d’affichage selon l’invention permettent de faciliter la sélection d’un icone 32 affiché à l’écran 22, et de réduire alors la charge cognitive pour l’utilisateur 16, ce qui limite les risques d’accident du véhicule 10 lorsque le dispositif électronique d’affichage 30 est embarqué à bord du véhicule 10 et que l’utilisateur 16 est typiquement le conducteur dudit véhicule.

Claims (10)

  1. Dispositif électronique (30) d'affichage de données sur un écran d’affichage (22), le dispositif (30) étant apte à être connecté à l’écran d’affichage (22) et à un capteur d’images (24), le capteur d’images (24) étant adapté pour prendre au moins deux images d’un utilisateur (16) de l’écran d’affichage (22), le dispositif (30) comprenant :
    - un module d’affichage (40) configuré pour afficher les données, notamment des icones (32), sur l’écran d’affichage (22) ;
    caractérisé en ce qu’il comprend en outre :
    - un module de détection (42) configuré pour détecter, via les au moins deux images prises, un mouvement vers ledit écran (22) d’au moins un doigt (34) de l’utilisateur (16), puis pour calculer une direction (M) du mouvement ;
    - un module de détermination (44) configuré pour déterminer, parmi une page (46) affichée sur l’écran (22) et en fonction de la direction (M) du mouvement, une zone (48) de l’écran correspondant à ladite direction (M) ; et
    - un module de commande (50) configuré pour commander un agrandissement de ladite zone (48) lorsque ledit au moins un doigt (34) s’approche de l’écran (22).
  2. Dispositif (30) selon la revendication 1, dans lequel le module de détection (42) est configuré pour détecter une distance entre ledit au moins un doigt (34) et ledit écran (22), et le module de commande (50) est configuré pour commander l’agrandissement de ladite zone lorsque ladite distance est inférieure à un seuil prédéfini.
  3. Dispositif (30) selon l’une quelconque des revendications précédentes, dans lequel le mouvement est un mouvement sensiblement rectiligne.
  4. Dispositif (30) selon l’une quelconque des revendications précédentes, dans lequel le module de commande (50) est configuré pour commander l’agrandissement de ladite zone (48) avec une intensité croissante lorsque ledit au moins un doigt s’approche plus en plus de l’écran (22).
  5. Dispositif (30) selon l’une quelconque des revendications précédentes, dans lequel le module de commande (50) est configuré pour commander en outre une mise en surbrillance et/ou une modification colorimétrique de ladite zone (48).
  6. Dispositif (30) selon l’une quelconque des revendications précédentes, dans lequel l’écran d’affichage (22) est un écran tactile, et le dispositif (30) comprend en outre un module d’acquisition (52) configuré pour acquérir une sélection tactile, de la part de l’utilisateur (16), d’un icone (32) affiché dans ladite zone (48) ;
    le module d’acquisition (52) étant de préférence configuré en outre pour générer, à destination de l’utilisateur (16), un signal de confirmation d’acquisition de la sélection ;
    le signal de confirmation d’acquisition étant de préférence encore choisi parmi le groupe consistant en : un signal vibratoire, un signal visuel et un signal sonore.
  7. Système électronique (20) d'affichage de données, le système (20) comprenant un écran d’affichage (22), un capteur d’images (24) adapté pour prendre au moins deux images d’un utilisateur (16) de l’écran d’affichage (22), et un dispositif électronique (30) d'affichage de données sur l’écran d’affichage (22),
    caractérisé en ce que le dispositif électronique d'affichage (30) est selon l’une quelconque des revendications précédentes, et le dispositif électronique d'affichage (30) est connecté à l’écran d’affichage (22) et au capteur d’images (24).
  8. Véhicule (10), notamment automobile, comprenant un système électronique (20) d'affichage de données,
    caractérisé en ce que le système électronique d'affichage (20) est selon la revendication précédente.
  9. Procédé d'affichage de données sur un écran d’affichage (22), le procédé étant mis en œuvre par un dispositif électronique d’affichage (30) apte à être connecté à l’écran d’affichage (22) et à un capteur d’images (24), le capteur d’images (24) étant adapté pour prendre au moins deux images d’un utilisateur (16) de l’écran d’affichage (22), le procédé comprenant l’étape suivante :
    - afficher (100) les données, notamment des icones (32), sur l’écran d’affichage (22) ;
    caractérisé en ce qu’il comprend en outre les étapes suivantes :
    - détecter (110), via les au moins deux images prises, un mouvement vers ledit écran (22) d’au moins un doigt (34) de l’utilisateur (16), puis calculer (110) une direction (M) du mouvement ;
    - déterminer (120), parmi une page (46) affichée sur l’écran (22) et en fonction de la direction (M) du mouvement, une zone (48) de l’écran correspondant à ladite direction (M) ;
    - commander (130) un agrandissement de ladite zone (48) lorsque ledit au moins un doigt (34) s’approche de l’écran (22).
  10. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé selon la revendication précédente.
FR2107196A 2021-07-02 2021-07-02 Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés Pending FR3124872A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2107196A FR3124872A1 (fr) 2021-07-02 2021-07-02 Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
US17/856,278 US20230004230A1 (en) 2021-07-02 2022-07-01 Electronic device and method for displaying data on a display screen, related display system, vehicle and computer program
CN202210774927.5A CN115562476A (zh) 2021-07-02 2022-07-01 用于在显示屏幕上显示数据的电子装置和方法、相关的显示系统、交通工具和计算机程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2107196A FR3124872A1 (fr) 2021-07-02 2021-07-02 Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
FR2107196 2021-07-02

Publications (1)

Publication Number Publication Date
FR3124872A1 true FR3124872A1 (fr) 2023-01-06

Family

ID=77226928

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2107196A Pending FR3124872A1 (fr) 2021-07-02 2021-07-02 Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés

Country Status (3)

Country Link
US (1) US20230004230A1 (fr)
CN (1) CN115562476A (fr)
FR (1) FR3124872A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090076124A (ko) * 2008-01-07 2009-07-13 엘지전자 주식회사 가전 기기 제어 방법 및 이를 이용한 장치
EP2474885A1 (fr) 2009-09-02 2012-07-11 Nec Corporation Dispositif d'affichage
US20150091810A1 (en) * 2013-09-29 2015-04-02 Yang Pan User Interface of an Electronic Apparatus for Adjusting Dynamically Sizes of Displayed Items
US20170192617A1 (en) * 2015-12-18 2017-07-06 Delphi Technologies, Inc. System and method for monitoring 3d space in front of an output unit for the control of the output unit
US9772757B2 (en) 2012-04-23 2017-09-26 Panasonic Intellectual Property Corporation Of America Enlarging image based on proximity of a pointing object to a display screen

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070209025A1 (en) * 2006-01-25 2007-09-06 Microsoft Corporation User interface for viewing images
EP1983402A4 (fr) * 2006-02-03 2013-06-26 Panasonic Corp Dispositif d'entree et son procede
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US20110221776A1 (en) * 2008-12-04 2011-09-15 Mitsuo Shimotani Display input device and navigation device
WO2010064423A1 (fr) * 2008-12-04 2010-06-10 三菱電機株式会社 Dispositif d’entrée d’affichage
US8890819B2 (en) * 2009-03-31 2014-11-18 Mitsubishi Electric Corporation Display input device and vehicle-mounted information equipment
US20130249793A1 (en) * 2012-03-22 2013-09-26 Ingeonix Corporation Touch free user input recognition
US9213436B2 (en) * 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
JP5620440B2 (ja) * 2012-08-09 2014-11-05 パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示制御装置、表示制御方法及びプログラム
JP5812054B2 (ja) * 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
US10620748B2 (en) * 2014-10-22 2020-04-14 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for providing a touch-based user interface
US10606468B2 (en) * 2015-11-20 2020-03-31 International Business Machines Corporation Dynamic image compensation for pre-touch localization on a reflective surface
JP2018132929A (ja) * 2017-02-15 2018-08-23 株式会社デンソーテン 制御装置および制御方法
US20190318711A1 (en) * 2018-04-16 2019-10-17 Bell Helicopter Textron Inc. Electronically Damped Touch Screen Display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090076124A (ko) * 2008-01-07 2009-07-13 엘지전자 주식회사 가전 기기 제어 방법 및 이를 이용한 장치
EP2474885A1 (fr) 2009-09-02 2012-07-11 Nec Corporation Dispositif d'affichage
US9772757B2 (en) 2012-04-23 2017-09-26 Panasonic Intellectual Property Corporation Of America Enlarging image based on proximity of a pointing object to a display screen
US20150091810A1 (en) * 2013-09-29 2015-04-02 Yang Pan User Interface of an Electronic Apparatus for Adjusting Dynamically Sizes of Displayed Items
US20170192617A1 (en) * 2015-12-18 2017-07-06 Delphi Technologies, Inc. System and method for monitoring 3d space in front of an output unit for the control of the output unit

Also Published As

Publication number Publication date
US20230004230A1 (en) 2023-01-05
CN115562476A (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
JP6340969B2 (ja) 周辺監視装置、及びプログラム
EP2516196B1 (fr) Dispositif de commande pour véhicule automobile
US11040739B2 (en) Parking assist device, parking assist method, and driving assist device
JP6565408B2 (ja) 車両制御装置及び車両制御方法
FR2997046A1 (fr) Systeme d'assistance de conduite et son procede de gestion
EP3221781B1 (fr) Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche
WO2014176478A1 (fr) Système de découverte de scène pour un véhicule
JP2012003764A (ja) 顔追跡または眼追跡に基づいた表示部の再設定
US10592078B2 (en) Method and device for a graphical user interface in a vehicle with a display that adapts to the relative position and operating intention of the user
US20190096359A1 (en) Display control device, display device, in-vehicle display system, and display control method
US20190147275A1 (en) Driver monitoring apparatus, method, and recording medium
JP2010018201A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
US9802484B2 (en) Method and display device for transitioning display information
FR2958741A1 (fr) Procede et systeme d'information pour marquer une destination dans un vehicule
EP3221780B1 (fr) Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche
JP7058800B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
FR3030798A1 (fr) Procede de gestion d'un dispositif d'entree et ainsi que dispositif d'entree applique a un vehicule automobile pour la mise en oeuvre du procede
FR3029655A1 (fr) Dispositif d'entree notamment d'un vehicule automobile pour la saisie sans contact de la position et/ou d'un changement de position d'au moins un doigt d'une main de l'utilisateur
EP1228423B1 (fr) Procede de commande d'une surface tactile
FR3124872A1 (fr) Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
EP2936284B1 (fr) Module d'interface permettant de detecter un geste
JP6405930B2 (ja) 車載用表示装置
EP3643552B1 (fr) Procédé d'aide à la conduite, système et véhicule associés
EP2936293B1 (fr) Terminal d'operateur de controle de trafic aerien
EP3867126B1 (fr) Procédé et dispositif d'aide à la conduite d'un véhicule automobile en phase de recul

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230106

PLFP Fee payment

Year of fee payment: 3