FR2989486A1 - System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target - Google Patents
System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target Download PDFInfo
- Publication number
- FR2989486A1 FR2989486A1 FR1253346A FR1253346A FR2989486A1 FR 2989486 A1 FR2989486 A1 FR 2989486A1 FR 1253346 A FR1253346 A FR 1253346A FR 1253346 A FR1253346 A FR 1253346A FR 2989486 A1 FR2989486 A1 FR 2989486A1
- Authority
- FR
- France
- Prior art keywords
- vehicle
- target
- control
- button
- pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003213 activating effect Effects 0.000 title claims description 6
- 230000000007 visual effect Effects 0.000 title claims description 6
- 238000007493 shaping process Methods 0.000 title abstract description 3
- 230000033001 locomotion Effects 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 230000005693 optoelectronics Effects 0.000 claims abstract description 8
- 230000004913 activation Effects 0.000 claims abstract description 3
- 238000013459 approach Methods 0.000 abstract description 7
- 238000004148 unit process Methods 0.000 abstract 1
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 241000772415 Neovison vison Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000003592 biomimetic effect Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/25—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/11—Instrument graphical user interfaces or menu aspects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/141—Activation of instrument input devices by approaching fingers or pens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
SYSTEME POUR DESIGNER ET ACTIVER UNE CI BLE DANS UNE SCENE DE L'ENVIRONNEMENT VISUEL D'UN OPERATEUR La présente invention concerne un système pour désigner et activer une cible dans une scène de l'environnement visuel d'un opérateur et en particulier dans une scène réelle ou dans une scène virtuelle ou encore, en combinant les deux types de scène précédents, dans une scène dite de réalité augmentée. La présente invention s'applique notamment à un système pour désigner et activer une cible dans une scène de l'environnement visuel d'un occupant d'un véhicule automobile et en particulier dans une scène de l'environnement visuel se situant à l'avant du véhicule vis-à-vis du conducteur du véhicule. Les fonctions d'affichage et de manipulation d'informations dans un véhicule, et notamment un véhicule automobile, sont des fonctions qui doivent être compatibles avec les exigences d'ergonomie nécessaires à la conduite sans impacter la vigilance du conducteur dont l'attention ne doit pas être détournée de la route au moment de saisir ou lire une information. C'est là une des principales contraintes qui distingue les applications multimédia grand public de type « Smartphone » ou tablette, d'une application 20 automobile. Depuis ces dernières années, on assiste à la multiplication d'écrans dans le véhicule, au niveau du combiné d'instrumentation face au conducteur, et également en différents endroits du cockpit, appelé également poste de conduite, par exemple pour des fonctions de confort telles que la radio ou la 25 climatisation. A tous ces écrans peut aussi se rajouter un afficheur d'aide à la navigation, situé au centre du cockpit automobile. Pour permettre au conducteur de garder toute son attention sur l'environnement routier, un nouveau système optique encore nommé « afficheur tête haute » VTH (Vison Tête Haute) ou HUD (acronyme anglo-saxon pour 30 « Head Up Display ») commence à apparaître : il s'agit de créer une image virtuelle face au conducteur dans une zone située sur la planche de bord, à la base du pare-brise. Avantageusement, cette visualisation ne nécessite pas de mouvement de la tête et des yeux du conducteur. Ce système d'affichage évite aussi la fatigue visuelle qui résulte d'une accommodation de l'oeil à courte distance au niveau du cockpit puis à longue distance sur la route. A terme, on pourrait disposer d'une plus grande image virtuelle située plus en avant du véhicule, proche de la route, avec une animation qui mette en oeuvre différentes fonctions, en superposition et éventuellement en transparence avec l'environnement réel. Ces fonctions peuvent par exemple permettre de sélectionner un monument pour obtenir l'affichage de son nom en superposition avec celui-ci, par la fonction que l'on nomme la réalité augmentée. Une autre fonction peut aussi déclencher l'énoncé d'un commentaire sur un monument. D'autres usages peuvent, par exemple, permettre de sélectionner un objet pour demander une adresse, demander de faire un zoom sur une carte affichée, etc. Mais, il faut aussi pouvoir désigner et activer ces fonctions à partir d'une liste de fonctions ou d'objets affichés en image virtuelle, dans un contexte de conduite automobile : c'est un des objectifs de la présente invention. On utilisera le terme « désignateur » pour définir le moyen permettant de désigner et activer à distance une fonction désirée. Un tel désignateur devra s'intégrer dans le cockpit au plus près des mains du conducteur dans leur position de conduite normale. L'ensemble des désignateurs existants ne sont pas adaptés à un environnement de conduite qui vibre, secoue et qui met en jeux de la réalité augmentée ou des scènes virtuelles projetées à distance du conducteur, par exemple dans un contexte de vision tête haute pour le conducteur. The present invention relates to a system for designating and activating a target in a scene of the visual environment of an operator and in particular in a scene. real or in a virtual scene or, by combining the two previous types of scene, in a scene called augmented reality. The present invention applies in particular to a system for designating and activating a target in a scene of the visual environment of an occupant of a motor vehicle and in particular in a scene of the visual environment situated at the front of the vehicle vis-à-vis the driver of the vehicle. The functions of display and manipulation of information in a vehicle, and in particular a motor vehicle, are functions that must be compatible with the ergonomic requirements necessary for driving without impacting the vigilance of the driver whose attention must not be diverted from the road when entering or reading information. This is one of the main constraints that distinguishes consumer multimedia applications of the "smartphone" or tablet type, from an automotive application. In recent years, there has been a proliferation of screens in the vehicle, at the level of the instrumentation console facing the driver, and also at different locations in the cockpit, also called a driving position, for example for comfort functions such as only radio or air conditioning. All these screens can also be added a navigational aid display, located in the center of the automobile cockpit. To allow the driver to keep his full attention on the road environment, a new optical system also called "head-up display" VTH (High Head Mink) or HUD (English acronym for 30 "Head Up Display") begins to appear : it's about creating a virtual image facing the driver in an area on the dashboard, at the base of the windshield. Advantageously, this visualization does not require movement of the driver's head and eyes. This display system also avoids the visual fatigue that results from an accommodation of the eye at short distance in the cockpit and then at long distance on the road. Eventually, we could have a larger virtual image located further ahead of the vehicle, close to the road, with an animation that implements different functions, superimposed and possibly transparent with the real environment. These functions can for example make it possible to select a monument to obtain the display of its name in superposition with this one, by the function that one names the augmented reality. Another function may also trigger the statement of a comment on a monument. Other uses may, for example, make it possible to select an object to request an address, ask to zoom in on a displayed map, etc. But, it is also necessary to designate and activate these functions from a list of functions or objects displayed in a virtual image, in a driving context: this is one of the objectives of the present invention. The term "designator" will be used to define the means for remotely designating and activating a desired function. Such a designator will have to fit into the cockpit as close as possible to the driver's hands in their normal driving position. The set of existing designators are not suitable for a driving environment that vibrates, shakes and involves augmented reality or virtual scenes projected remotely from the driver, for example in a context of head-up for the driver .
Le problème est qu'il faut que le conducteur garde les yeux sur l'environnement routier, tout en manipulant un désignateur qui est à l'intérieur du véhicule et tout en gardant les mains en position de conduite, c'est-à-dire avec au moins une main sur le volant et l'autre disponible à proximité immédiate du volant, alors que l'objet désigné se trouve dans une scène virtuelle à l'extérieur du véhicule, par exemple devant le pare-brise, en superposition de la route. Les organes de commande manuelle de type boutons ou molette : poussé, rotatif, haut-bas, droite-gauche, de type souris ou joystick, ... ne conviennent pas parce qu'il faut regarder où se trouve le bouton avant de pouvoir l'activer. Cela nécessite de quitter la route des yeux une fraction de seconde ou plus. The problem is that the driver must keep his eyes on the road environment, while handling a designator who is inside the vehicle and while keeping his hands in the driving position, that is to say with at least one hand on the steering wheel and the other available in the immediate vicinity of the steering wheel, while the designated object is in a virtual scene outside the vehicle, for example in front of the windshield, in superposition of the road. Manual control devices such as buttons or wheel: push, rotary, up-down, right-left, mouse or joystick type, ... are not suitable because you have to look where the button is before you can 'activate. This requires leaving the road eyes a fraction of a second or more.
D'autre part, ces boutons ne permettent pas l'acquisition de commandes complexes à l'instar de celles faites avec des écrans tactiles de Smartphones, comme par exemple des demandes d'agrandissement en écartant deux doigts, des demandes de déplacement en balayant le doigt, ou de rotation par mouvement circulaire d'un doigt, etc. On the other hand, these buttons do not allow the acquisition of complex commands like those made with touch screens of smartphones, such as requests for enlargement by removing two fingers, requests for movement by scanning the finger, or rotation by circular motion of a finger, etc.
Les pointeurs informatiques de type souris ne conviennent pas parce qu'il faut saisir un objet en pleine main au lieu de tenir le volant. Les surfaces tactiles d'ordinateur de bureau, ne conviennent pas plus parce qu'il manque un point de repère physique et un dispositif d'actionnement de type « clic » qui permettent de positionner la main sans regarder et de 15 déclencher des commandes dans un environnement instable. Les écrans tactiles, de type résistif ou capacitif, ne conviennent pas non plus parce que leur emploi nécessite de regarder ces surfaces tactiles et que l'image est superposée à l'écran tactile. Des caméras associées à un système de traitement d'images peuvent 20 capter et interpréter des gestes, mais cela nécessite un logiciel de détection de mouvement assez lourd. D'autre part, puisqu'il n'y aurait pas de contact physique, il faudrait savoir à quel moment enclencher le détecteur de mouvement pour éviter des commandes intempestives. Un but de la présente invention est de proposer un système moins 25 complexe qu'une caméra avec un circuit électronique de traitement de l'image pour la reconnaissance de gestes, fiable, apte à décoder les ordres sans nécessiter de traitement logiciel lourd, facilement intégrable dans le cockpit d'une automobile et à moindre coût. La présente invention permet d'une façon générale, d'utiliser un 30 désignateur sans avoir besoin de le regarder, sans avoir besoin de le saisir à pleine main, en mettant en oeuvre des gestes simples pour pouvoir désigner un objet dans une scène virtuelle, sans quitter celle-ci des yeux. Mouse-based computer pointers are not appropriate because you have to grab an object in your hand instead of holding the wheel. The touch-sensitive desktop surfaces are no more suitable because a physical landmark and a click-like actuator are missing which allow the hand to be positioned without looking and to trigger commands in a unstable environment. Touch screens, resistive or capacitive type, are also not suitable because their use requires looking at these touch surfaces and the image is superimposed on the touch screen. Cameras associated with an image processing system can capture and interpret gestures, but this requires quite heavy motion detection software. On the other hand, since there would be no physical contact, it would be necessary to know when to activate the motion detector to avoid untimely commands. An object of the present invention is to provide a less complex system than a camera with an electronic image processing circuit for gesture recognition, reliable, capable of decoding orders without the need for heavy software processing, easily integrable in the cockpit of an automobile and at a lower cost. The present invention generally makes it possible to use a designator without having to look at it, without having to grasp it by hand, by implementing simple gestures to be able to designate an object in a virtual scene. without leaving her eyes.
La présente invention exploite avantageusement les mouvements de la main et des doigts à l'instar de ce qu'il est possible de faire avec des écrans tactiles de Smartphones, comme par exemple des demandes d'agrandissement en écartant deux doigts, ou des demande de déplacement par balayage d'un ou plusieurs doigts, ou de rotation par mouvement circulaire d'un doigt. Le conducteur a ainsi la possibilité d'activer une fonction en gardant la main proche du volant, au niveau du cockpit, sans quitter la route du regard, par simple tâtonnement et par geste. A cet effet, l'invention a pour premier objet un système pour désigner une cible dans une scène de l'environnement visuel d'un opérateur, et pour activer au moins une fonction associée à la cible désignée, ledit système étant caractérisé en ce qu'il comporte : - des moyens de pointage et de commande tactile disposés à portée de main de l'opérateur et accessibles sans que l'opérateur ne quitte la scène des yeux ; - des moyens de guidage d'au moins un doigt de l'opérateur, lesdits moyens étant disposés sur une surface située au voisinage des moyens de pointage et de commande ; les moyens de guidage étant aptes à guider le doigt le long des moyens de guidage jusqu'aux moyens de pointage et de commande ; - des moyens de détection de mouvement du doigt couplé aux moyens de pointage et de commande; - des moyens de traitement des informations de mouvements délivrées par les moyens de détection ; et - des moyens de commande convertissant les informations délivrés par les moyens de traitement en actions de commande matérialisant la désignation de la cible et l'activation de la fonction associée à la cible. Selon une caractéristique, les moyens de guidage sont constitués par des arrangements tactilement identifiables aménagés sur la surface ; lesdits arrangements étant organisés de manière à faire converger le doigt vers les moyens de pointage et de commande. Les arrangements tactilement identifiables sont par exemple des sillons creusés dans la surface. The present invention advantageously exploits the movements of the hand and fingers in the manner of what can be done with touch screens of smartphones, such as requests for enlargement by removing two fingers, or requests for sweeping movement of one or more fingers, or rotation by circular motion of a finger. The driver has the opportunity to activate a function by keeping the hand close to the steering wheel, at the cockpit, without leaving the road of the eye, by simple trial and error. For this purpose, the invention firstly relates to a system for designating a target in a scene of the visual environment of an operator, and for activating at least one function associated with the designated target, said system being characterized in that it comprises: - pointing and tactile control means arranged within reach of the operator and accessible without the operator leaving the scene of the eyes; means for guiding at least one finger of the operator, said means being disposed on a surface located in the vicinity of the pointing and control means; the guide means being able to guide the finger along the guide means to the pointing and control means; - Finger movement detection means coupled to the pointing and control means; means for processing the movement information delivered by the detection means; and control means converting the information delivered by the processing means into control actions embodying the designation of the target and the activation of the function associated with the target. According to one characteristic, the guiding means consist of touch-sensitive arrangements arranged on the surface; said arrangements being arranged so as to converge the finger towards the pointing and control means. The sensitively identifiable arrangements are for example furrows dug in the surface.
Selon une autre caractéristique, les moyens de pointage, de commande tactile et de détection de mouvements sont réunis dans un même boîtier définissant le boîtier d'un bouton de commande ; ledit boîtier servant de guide pour la partie mobile du bouton. According to another characteristic, the pointing, tactile control and motion detection means are combined in the same housing defining the casing of a control button; said housing serving as a guide for the moving part of the button.
Selon une autre caractéristique, les moyens de traitement des informations de mouvement délivrées par les moyens de détection sont également dans le boîtier du bouton de commande. Selon une autre caractéristique, les moyens de commande convertissant les informations délivrées par les moyens de traitement en actions de 10 commande, sont également dans le boîtier du bouton de commande. Selon une autre caractéristique, les moyens de détection de mouvements comportent un capteur optoélectronique utilisant une architecture de traitement en bio-mimétisme de type oeil de mouche ou autre. Selon une autre caractéristique, les moyens de guidage comportent des 15 moyens de détection de mouvements couplés aux moyens de traitement des moyens de pointage et de commande tactile. L'invention a pour second objet un véhicule comportant un système tel que décrit précédemment. Il est agencé, par exemple, sur une partie du véhicule et accessible par 2 0 au moins un occupant du véhicule et en particulier, sur une partie interne du véhicule en vis-à-vis d'un vitrage ou d'un écran du véhicule. Il peut être également agencé sur le cockpit ou une partie rattachée au cockpit du véhicule en étant accessible par le conducteur du véhicule. L'invention sera mieux comprise et d'autres avantages ressortiront à la 25 lecture de la description qui suit, donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins sur lesquels : - la figure 1 illustre une vue de dessus, schématique, d'un exemple de mode de réalisation d'un système selon l'invention ; et - la figure 2 illustre un exemple de désignateur optoélectronique selon 30 l'invention, selon une coupe faite suivant l'axe de coupe Il-Il de la figures1. Dans le mode de réalisation, illustré à la figure 1, le système 1 selon l'invention comporte des moyens de guidage constitués par des arrangements tactilement identifiables aménagés à la surface du cockpit. Ces arrangements sont organisés de manière à faire converger le doigt vers les moyens de pointage et de commande. Comme illustré, ces moyens de guidage comportent des premiers moyens 2 formant un premier type de « guide d'approche » pour un doigt permettant de déplacer le doigt linéairement le long de ce premier guide 2 pour s'approcher progressivement d'un organe de commande de type bouton 3 associé à un désignateur optoélectronique 4, appelé également moyen de pointage. On désignera, par la suite, l'ensemble formé par le désignateur 4 optoélectronique et le bouton de commande 3 par le terme « bouton optoélectronique » ou plus simplement par le terme bouton 3, 4. Le moyens de guidage comportent des deuxièmes moyens 5 formant un deuxième type de « guide local » autour du bouton 3,4 permettant de guider le ou les mouvements d'un ou plusieurs doigts de la main sur ou au voisinage immédiat du bouton 3, 4 selon différents angles d'attaque du bouton 3, 4. According to another characteristic, the means for processing the movement information delivered by the detection means are also in the control button housing. According to another characteristic, the control means converting the information delivered by the processing means into control actions are also in the control button housing. According to another characteristic, the motion detection means comprise an optoelectronic sensor using a bio-mimicry treatment architecture of fly-eye type or other. According to another characteristic, the guide means comprise motion detection means coupled to the means for processing the pointing and tactile control means. The subject of the invention is a vehicle comprising a system as described above. It is arranged, for example, on a part of the vehicle and accessible by at least one occupant of the vehicle and in particular, on an internal part of the vehicle vis-à-vis a window or a screen of the vehicle . It can also be arranged on the cockpit or a part attached to the cockpit of the vehicle being accessible by the driver of the vehicle. The invention will be better understood and other advantages will be apparent from reading the description which follows, given solely by way of nonlimiting example and with reference to the drawings, in which: FIG. 1 illustrates a view from above, schematic, an exemplary embodiment of a system according to the invention; and FIG. 2 illustrates an example of an optoelectronic designator according to the invention, in a section along the sectional axis II-II of FIG. In the embodiment, illustrated in FIG. 1, the system 1 according to the invention comprises guiding means constituted by touch-sensitive arrangements arranged on the surface of the cockpit. These arrangements are organized so as to converge the finger towards the pointing and control means. As illustrated, these guide means comprise first means 2 forming a first type of "approach guide" for a finger for moving the finger linearly along the first guide 2 to approach gradually a control member button type 3 associated with an optoelectronic designator 4, also called pointing means. The assembly formed by the optoelectronic designator 4 and the control button 3 will subsequently be designated by the term "optoelectronic button" or more simply by the term "button 3, 4". The guiding means comprise second means 5 forming a second type of "local guide" around the button 3,4 for guiding the movement or movements of one or more fingers of the hand on or in the immediate vicinity of the button 3, 4 at different angles of attack of the button 3, 4.
Un exemple de réalisation d'un guide d'approche 2, 5 le plus simple consiste en un sillon creusé dans la peau d'une partie de cockpit, dans le même plan que celui dans lequel est disposé le bouton 3, 4. Une extrémité 21 du guide d'approche 2 est située au voisinage d'une des mains du conducteur qui se trouve dans une position naturelle de conduite ou de repos, avant utilisation du bouton. L'autre extrémité 22 est disposée au voisinage du bouton 3, 4. On peut avantageusement réaliser une combinaison de sillons horizontaux 51, ou portions de sillons horizontaux, avec des sillons verticaux 52, ou portions de sillon verticaux (dans de sens de la figure), et avec des sillons curvilignes 53, ou portions de sillons curvilignes, adaptée à la forme de la partie de cockpit ou planche de bord considérée, ou d'une autre partie ou équipement interne du véhicule comme par exemple : une console centrale, un accoudoir, un montant de baie, une portière, un pavillon, un volant, un siège, etc. Comme illustré à la figure 1, un exemple de « guide local » au bouton est formé par un « guide cardinal » : il comporte deux portions de sillons verticaux 52 et deux portions de sillons horizontaux 51 de part et d'autre du bouton 3, 4. An exemplary embodiment of a guide approach 2, 5 the simplest consists of a groove dug into the skin of a cockpit portion, in the same plane in which is disposed the button 3, 4. One end 21 of the approach guide 2 is located in the vicinity of one of the hands of the driver who is in a natural driving position or rest, before using the button. The other end 22 is disposed in the vicinity of the button 3, 4. It is advantageously possible to combine horizontal grooves 51, or portions of horizontal grooves, with vertical grooves 52, or vertical groove portions (in the direction of FIG. ), and with curvilinear grooves 53, or portions of curvilinear grooves, adapted to the shape of the part of cockpit or dashboard considered, or another part or internal equipment of the vehicle such as for example: a central console, a an armrest, a door jamb, a door, a roof, a steering wheel, a seat, etc. As illustrated in FIG. 1, an example of a "local guide" to the button is formed by a "cardinal guide": it comprises two portions of vertical furrows 52 and two portions of horizontal furrows 51 on either side of the button 3, 4.
Le guide cardinal est associé, dans cet exemple, à un « guide périphérique » au bouton : il comporte des portions de sillons circulaires 53 en périphérie du bouton. La largueur des sillons est avantageusement choisie inférieure mais proche de la largeur de celle d'un doigt pour permettre un guidage tactile naturel et donc facilement reconnaissable tactilement. Les sillons peuvent contenir des capteurs de mouvements, disposés dans le fond des sillons et disposés par exemple à intervalles réguliers ou se réduisant progressivement plus on se rapproche du bouton ou autour du bouton, pour faciliter la détection des mouvements du ou des doigts à proximité du bouton. Les capteurs peuvent être de différentes natures de façon à détecter la présence et le mouvement du ou des doigts. Parmi ces capteurs, on peut citer notamment : - les capteurs capacitifs ; - les capteurs résistifs ; - les capteurs optiques, sensibles aux longueurs d'onde dans le domaine de l'infrarouge ou à d'autres longueurs d'onde (photodiodes en semi-conducteur, par exemple en silicium dans le domaine du visible ; - les capteurs de chaleur ; - etc. Des émetteurs peuvent être associés aux capteurs afin de fiabiliser le signal capté ou le guidage des doigts. The cardinal guide is associated, in this example, with a "peripheral guide" to the button: it comprises portions of circular grooves 53 at the periphery of the button. The width of the grooves is advantageously chosen lower but close to the width of that of a finger to allow a natural tactile guidance and therefore easily recognizable tactilely. The grooves may contain motion sensors disposed at the bottom of the grooves and arranged for example at regular intervals or progressively reduced as one approaches the button or around the button, to facilitate the detection of movements of the finger or fingers near the button. The sensors can be of different natures so as to detect the presence and movement of the finger or fingers. Among these sensors, there may be mentioned in particular: capacitive sensors; - resistive sensors; optical sensors, sensitive to wavelengths in the infrared range or at other wavelengths (semiconductor photodiodes, for example silicon in the visible range, heat sensors; - etc. Transmitters may be associated with the sensors to make the captured signal or finger guidance more reliable.
Parmi ces émetteurs, on peut citer notamment : - les émetteurs de lumière, dans l'infrarouge ou dans d'autres spectres de fréquences (émetteurs pouvant être réalisés par des diodes électroluminescentes) ; - les émetteurs de vibration ; - les émetteurs de chaleur ; - les émetteurs de sons liés à la détection d'approche ou de passage des doigts sur le capteur ; 2 9894 86 8 - les émetteurs d'odeurs spécifiques à l'usage de ce bouton peuvent encourager son utilisation ; - etc. Ces émetteurs peuvent se trouver dans les sillons et/ou au voisinage du 5 bouton. On peut également prévoir des repères mécaniques, en plus des capteurs avec ou sans émetteurs associés, comme par exemple : - un système de crantage sur un bouton rotatif ; - un système mécanique de type « clic » sur un bouton en appui ; 10 - etc. Un exemple de mode de réalisation du bouton d'un système selon l'invention est décrit schématiquement ci-après en référence à la figure 2. Le bouton 3, 4 comporte un boîtier 6 formé d'un fond 61 et d'une paroi latérale 62 qui remonte en périphérie du fond 61. 15 Cette paroi latérale 62 sert de guide à une partie mobile 7 supérieure du bouton 3, 4 lors de son déplacement. La partie mobile supérieure 7 forme un couvercle pour le boîtier 6. La face extérieure 71 de la partie mobile 7 est conformée pour être ergonomique et facilement reconnaissable au toucher. Elle définit une face 2 0 d'appui 72 pour au moins un doigt. La partie mobile 7 est apte à coulisser selon une direction orthogonale au centre de la face d'appui 72 du bouton 3, 4. Le boîtier 6 du bouton 3, 4 est fixé dans la peau P du cockpit. La face extérieure 71 de la partie mobile 7 affleure ou dépasse 25 sensiblement à l'extérieur de la peau P du cockpit. Un moyen 8 formant ressort, de type membrane ou autre, relie la partie mobile 7 au boîtier 6. Ce moyen 8 assure en outre une position stable en extension du bouton 3, 4 (position de repos). Un dispositif mécanique, non représenté, peut être aménagé dans le 3 0 boîtier 6 et coopérer avec la partie mobile 7 pour créer un retour haptique de type « clic » en position de compression (position de travail) pour signaler la prise en compte d'un appui au centre du bouton 3, 4 ou sur l'un de ses bords. Among these emitters, mention may be made in particular of: light emitters, in the infrared or in other frequency spectra (emitters that can be produced by light-emitting diodes); - vibration emitters; - heat emitters; sound transmitters related to the detection of approach or passage of the fingers on the sensor; 2 9894 86 8 - odor emitters specific to the use of this button may encourage its use; - etc. These transmitters may be in the grooves and / or in the vicinity of the button. It is also possible to provide mechanical markers, in addition to sensors with or without associated transmitters, for example: a system of notching on a rotary knob; a mechanical system of "click" type on a button in support; 10 - etc. An exemplary embodiment of the button of a system according to the invention is described schematically below with reference to Figure 2. The button 3, 4 comprises a housing 6 formed of a bottom 61 and a side wall 62 which rises at the periphery of the bottom 61. 15 This side wall 62 serves as a guide to a movable upper portion 7 of the button 3, 4 during its movement. The upper movable portion 7 forms a cover for the housing 6. The outer face 71 of the movable portion 7 is shaped to be ergonomic and easily recognizable by touch. It defines a support surface 72 for at least one finger. The movable portion 7 is slidable in a direction orthogonal to the center of the bearing face 72 of the button 3, 4. The housing 6 of the button 3, 4 is fixed in the skin P of the cockpit. The outer face 71 of the movable portion 7 is flush or protrude substantially outside the skin P of the cockpit. A spring means 8, membrane or other type, connects the movable portion 7 to the housing 6. This means 8 further ensures a stable position extending the button 3, 4 (rest position). A mechanical device, not shown, can be arranged in the housing 6 and cooperate with the mobile part 7 to create a click-like haptic feedback in the compression position (working position) to signal the taking into account of a support in the center of the button 3, 4 or on one of its edges.
La face extérieure 71 de la partie mobile 7 du bouton 3, 4 laisse passer la lumière. Le bouton 3, 4 comprend des moyens de détection de mouvements ou gestes 9, disposés au coeur du boîtier 6 sous la face extérieure 71 qui, étant transparente, permet aux moyens de détection de détecter une variation du flux lumineux quand le doigt est sur ou à proximité du bouton 3, 4. Les moyens de détection 9 comportent un ou plusieurs capteurs de lumière 91 et un ou plusieurs capteurs de déplacement 92 de la partie mobile 7 du bouton 3, 4. The outer face 71 of the movable portion 7 of the button 3, 4 passes the light. The button 3, 4 comprises movement detection means or gestures 9, arranged in the heart of the housing 6 under the outer face 71 which, being transparent, allows the detection means to detect a variation in the luminous flux when the finger is on or close to the button 3, 4. The detection means 9 comprise one or more light sensors 91 and one or more displacement sensors 92 of the mobile part 7 of the button 3, 4.
On peut prévoir d'utiliser deux ou plusieurs capteurs latéraux de compression des bords du bouton, à la place d'un seul capteur de déplacement central. Le bouton 3, 4 comporte en outre des moyens 10 électronique de traitement des signaux reçus par les capteurs 91, 92, disposés dans le boîtier 6 entre le fond 61 du boîtier 6 et les moyens de détection 9. Les moyens de détection 9 peuvent être également directement intégrés au dispositif de traitement 10 ou inversement. Les moyens de traitement 10 comprennent des moyens 11 de décodage et de mise en forme des signaux délivrés par les capteurs 91, 92. It can be expected to use two or more lateral compression sensors of the edges of the button, instead of a single central displacement sensor. The button 3, 4 further comprises electronic means 10 for processing the signals received by the sensors 91, 92 disposed in the housing 6 between the bottom 61 of the housing 6 and the detection means 9. The detection means 9 can be also directly integrated with the processing device 10 or vice versa. The processing means 10 comprise means 11 for decoding and shaping the signals delivered by the sensors 91, 92.
Le bouton 3, 5 comporte également une interface de communication 12 couplée au dispositif de traitement 10 permettant de transmettre les informations traitées vers un calculateur automobile, non représenté, apte à gérer les différents équipements électroniques présents dans le cockpit et notamment les dispositifs de commande et d'affichage du poste de conduite du véhicule. The button 3, 5 also comprises a communication interface 12 coupled to the processing device 10 for transmitting the processed information to an automobile computer, not shown, able to manage the various electronic equipment present in the cockpit and in particular the control devices and display of the driving position of the vehicle.
La mise en forme peut comprendre une simple mise à l'échelle des signaux ou aussi une acquisition et détection des mouvements des doigts, jusqu'à détection de mouvements complexes. Le fond 61 du boîtier 6 comporte une interface d'interconnexion, non représentée, avec le réseau de bord du véhicule pour l'alimentation électrique des moyens de détection, de traitement et l'interface de communication et pour la transmission des informations au calculateur. On peut également prévoir par exemple des moyens de transmission sans fil de type Wifi ou Bluetooth. The formatting can include a simple scaling of the signals or also an acquisition and detection of the movements of the fingers, until detection of complex movements. The bottom 61 of the housing 6 comprises an interconnection interface, not shown, with the vehicle edge network for the power supply of the detection means, the processing and the communication interface and for the transmission of information to the computer. It is also possible for example wireless transmission means of Wifi or Bluetooth type.
Les moyens de décodage peuvent être déportés du bouton 3, 4 et être hébergés dans le calculateur. Les signaux transmis peuvent être des signaux analogiques ou numériques avec un codage de l'information qui peut utiliser un protocole de 5 communication complexe comme le bus LIN, acronyme anglo-saxon pour « Local Interconnect Network » ou le bus CAN, acronyme anglo-saxon pour « Controller Aera Network ». Les moyens de détection 9 peuvent comprendre avantageusement un capteur optoélectronique utilisant une architecture de traitement en bio- 10 mimétisme de type oeil de mouche ou autre pour détecter les mouvements ou gestes du conducteur. Le système selon l'invention peut inclure les variantes suivantes : Des capteurs de tout type peuvent être disposés dans les guides en plus des capteurs disposés dans le bouton. 15 La forme du bouton peut être carrée ou autre pour être facilement reconnaissable tactilement. La taille du bouton peut être de l'ordre du centimètre ou de la dizaine de centimètre. Il peut y avoir au moins deux capteurs optiques ou des dizaines. Lorsqu'il 20 y a deux capteurs, en les plaçant par exemple sous le doigt, au centre du bouton, il est encore possible de détecter dans quel sens et à quelle vitesse le doigt se déplace longitudinalement dans l'axe des deux capteurs. Avec trois capteurs, il est possible de capter le déplacement horizontal et le déplacement vertical avec la vitesse de déplacement. 25 Le dispositif de traitement peut comprendre un processeur de traitement des signaux capteurs, ou des circuits logiques éventuellement intégrés sous la forme d'un circuit microélectronique de type ASIC, acronyme anglo-saxon pour « Application Specific Integrated Circuit ». Les informations transmises peuvent prendre la forme d'un signal logique 30 haut ou bas sur plusieurs fils (par exemple niveau 0/12V ou niveau TTL), ou bien par un nombre limité de fils qui codent en niveaux de tension (par exemple un signal qui code quatre signaux de 3 volts en 3 volts). The decoding means can be deported from the button 3, 4 and be housed in the computer. The transmitted signals may be analog or digital signals with an information coding which may use a complex communication protocol such as the LIN bus, the acronym for Local Interconnect Network, or the CAN bus, acronym for Anglo-Saxon. for "Controller Aera Network". The detection means 9 may advantageously comprise an optoelectronic sensor using a fly-eyed or other type of biomimetic treatment architecture to detect the movements or gestures of the driver. The system according to the invention can include the following variants: Sensors of any type can be arranged in the guides in addition to the sensors arranged in the button. The shape of the button may be square or otherwise to be easily recognizable by touch. The size of the button can be of the order of one centimeter or ten centimeters. There may be at least two optical sensors or tens. When there are two sensors, placing them for example under the finger, in the center of the button, it is still possible to detect in which direction and how fast the finger moves longitudinally in the axis of the two sensors. With three sensors, it is possible to capture the horizontal displacement and the vertical displacement with the speed of movement. The processing device may comprise a processor for processing the sensor signals, or possibly integrated logic circuits in the form of an ASIC-type microelectronic circuit, which stands for "Application Specific Integrated Circuit". The transmitted information may take the form of a logic signal 30 up or down on several wires (for example level 0 / 12V or TTL level), or by a limited number of wires which code in voltage levels (for example a signal which codes four signals of 3 volts in 3 volts).
La scène peut être projetée sur toute partie vitrée du véhicule comme par exemple : le pare-brise, les vitres latérales du véhicule ou le toit vitré ou sur un ou plusieurs écrans disposés dans l'habitacle. Ainsi, tout occupant du véhicule sera en mesure de désigner et activer une ou plusieurs fonctions associées à la cible affichée dans la scène à partir de son siège sans avoir à effectuer de gestes amples ou brusques, susceptibles de gêner le conducteur. The scene can be projected on any glass part of the vehicle such as: the windshield, the side windows of the vehicle or the glass roof or on one or more screens arranged in the passenger compartment. Thus, any occupant of the vehicle will be able to designate and activate one or more functions associated with the target displayed in the scene from his seat without having to make large or sudden gestures, likely to hinder the driver.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1253346A FR2989486A1 (en) | 2012-04-12 | 2012-04-12 | System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1253346A FR2989486A1 (en) | 2012-04-12 | 2012-04-12 | System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2989486A1 true FR2989486A1 (en) | 2013-10-18 |
Family
ID=46514568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1253346A Pending FR2989486A1 (en) | 2012-04-12 | 2012-04-12 | System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2989486A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001045080A1 (en) * | 1999-12-15 | 2001-06-21 | Automotive Technologies International, Inc. | Interactive vehicle display system |
EP1759912A1 (en) * | 2005-09-02 | 2007-03-07 | Valeo Systèmes Thermiques | Control center for motor vehicle |
-
2012
- 2012-04-12 FR FR1253346A patent/FR2989486A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001045080A1 (en) * | 1999-12-15 | 2001-06-21 | Automotive Technologies International, Inc. | Interactive vehicle display system |
EP1759912A1 (en) * | 2005-09-02 | 2007-03-07 | Valeo Systèmes Thermiques | Control center for motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11124118B2 (en) | Vehicular display system with user input display | |
FR2952012A1 (en) | VEHICLE DRIVER ASSISTANCE SYSTEM EQUIPPED WITH DATA ENTRY DEVICE | |
US20110310001A1 (en) | Display reconfiguration based on face/eye tracking | |
EP2752730B1 (en) | Vehicle display arrangement and vehicle comprising a vehicle display arrangement | |
FR2997046A1 (en) | DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT | |
EP2936190B1 (en) | Method for adjusting a viewing/masking sector of an environment scanning device, and corresponding adjusting device and operator terminal | |
FR3005173A1 (en) | INTERACTION METHOD IN AN AIRCRAFT COCKPIT BETWEEN A PILOT AND ITS ENVIRONMENT | |
FR2969781A1 (en) | Human machine interface for use in passenger compartment of e.g. car to browse through list of audio titles, has display that does not comprise cursor to be moved by one of fingers of driver, when interface is in scrolling mode | |
FR3029655A1 (en) | DEVICE FOR ENTRY IN PARTICULAR FROM A MOTOR VEHICLE FOR NON-CONTACT SEIZURE OF POSITION AND / OR CHANGE OF POSITION OF AT LEAST ONE FINGER OF A USER'S HAND | |
EP3201728A1 (en) | System and method for controlling a piece of equipment of a motor vehicle | |
EP1228423B1 (en) | Method for controlling a touchpad | |
EP2936281A1 (en) | Interface module | |
FR2989486A1 (en) | System for indicating target and activating function in visual environment scene on e.g. screen, in driver compartment of car, has decoding and shaping unit and interface converting information into actions realizing indication of target | |
EP2936284B1 (en) | Interface module making it possible to detect a gesture | |
FR2798329A1 (en) | Vehicle control device associated with steering wheel has tactile surface located on central part of wheel that may operate calculator located on sideboard and screen used for indicators, telephone etc. | |
FR3060784B1 (en) | MULTIMODAL CONTROL AND DISPLAY DEVICE FOR VEHICLE. | |
FR2969782A1 (en) | Human-machine interface for use in passenger compartment of e.g. car, for activating different functions, has control surface for enabling user to activate icons that correspond to different types of sliding or different types of pressing | |
FR3023513A1 (en) | INTERACTION METHOD FOR DRIVING A COMBINED INSTRUMENT OF A MOTOR VEHICLE | |
EP3856559B1 (en) | Touch screen display device displaying in independent areas miniature view pages associated with vehicle functions | |
FR3026506A1 (en) | COMMAND AND SUPERVISION STATION | |
FR3085888A1 (en) | MOTORIZED SUN VISOR AND SCREEN WITH CONTEXTUAL DISPLAY, FOR A VEHICLE | |
WO2024132690A1 (en) | In-vehicle immersive-reality system | |
EP2936282B1 (en) | Interface module | |
FR3086421A1 (en) | TOUCH SCREEN DISPLAY DEVICE DISPLAYING DRIVING PASSENGER AND PASSENGER PAGES OF A VEHICLE | |
FR3079327A1 (en) | INFO-ENTERTAINMENT DEVICE FOR VEHICLE. |