WO2018219832A1 - Procédé de génération d'un retour sensitif pour une interface et interface associée - Google Patents

Procédé de génération d'un retour sensitif pour une interface et interface associée Download PDF

Info

Publication number
WO2018219832A1
WO2018219832A1 PCT/EP2018/063847 EP2018063847W WO2018219832A1 WO 2018219832 A1 WO2018219832 A1 WO 2018219832A1 EP 2018063847 W EP2018063847 W EP 2018063847W WO 2018219832 A1 WO2018219832 A1 WO 2018219832A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
sensory feedback
control signal
image
pixels
Prior art date
Application number
PCT/EP2018/063847
Other languages
English (en)
Inventor
Nour-Eddine EL-OUARDI
Stéphanie DABIC
Pedro ADRIANO
Original Assignee
Dav
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav filed Critical Dav
Publication of WO2018219832A1 publication Critical patent/WO2018219832A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices

Definitions

  • the present invention relates to a method for generating a sensory feedback for a motor vehicle interface.
  • the present invention also relates to a motor vehicle interface configured for implementing said method.
  • buttons are increasingly replaced by touch screens.
  • touch screens allows to continue to increase the number of functions, these become programmable and reconfigurable and can be exposed temporarily or permanently depending on the context or the activated function.
  • the screen thus includes a possibility of multifunctionality, while dematerializing the buttons and being customizable.
  • a sensitive feedback such as haptic and / or audible vibratory feedback.
  • the sensitive feedback allows for example to ensure the user that his command has been taken into account, which avoids the occurrence of dangerous situations during driving.
  • the screens make it possible to display images that may include objects, such as buttons.
  • the user has, through the effects of light effects and shadows, a visual perception in relief of the displayed object.
  • Some other images or areas of the image display a surface having a certain surface texture.
  • a haptic pattern is for example associated at least in certain areas of the image to simulate to the user a feeling close to the displayed visual pattern.
  • a texture simulation method that associates a specific haptic pattern with different areas of the screen.
  • streak pattern areas are defined on the image for each "rib” or "groove” and a different haptic pattern is associated with each different appearance area.
  • This haptic perception of texture can however sometimes lack realism. This is for example the case when the user perceives a shift between the location of a haptic feeling of a relief on the screen and its visualization. Such an offset can occur for example when the user quickly moves his finger on the screen.
  • one solution consists in carrying out calculations of direction and trajectory making it possible to take into account in particular the speed of movement of the finger, the pressure of support of the finger exerted on the screen or the direction of movement of the finger for the determination of the haptic effect to be generated. These calculations try for example to anticipate the movement of the finger on the screen to better synchronize the perception of the generated haptic feedback with the texture displayed on the screen so that it is as realistic as possible.
  • the direction of movement of the finger is measured to adapt the haptic pattern according to whether the user moves his finger horizontally or vertically.
  • the speed of movement of the finger is measured to anticipate the trajectory and to adapt the pattern of the generated haptic feedback to the increase in the speed of movement of the finger.
  • One of the aims of the present invention is therefore to propose a method for generating a sensory feedback for a more efficient motor vehicle interface, which allows a rapid and precise determination of the sensory feedback to be generated, which improves the perception of texture on the screen, which allows the texturing of complex images and requires less computer resources.
  • the subject of the invention is a method for generating a sensory feedback for a motor vehicle interface comprising:
  • a screen configured to display an image formed of a predetermined number of pixels each marked by a position in the image
  • a tactile surface disposed above the screen and configured to locate the position of a pixel in the image displayed on the screen according to the position of a control element in at least one active zone of the screen; a touch-sensitive surface, the at least one active area being an area of the touch surface for which sensory feedback can be generated in the case of contact by the control element, and
  • a sensitive feedback device configured to generate a tactile feedback when receiving a control signal
  • a control signal of the sensory feedback device is assigned to each pixel that can be located by the position of a control element in the at least one active zone, during an initialization phase,
  • a position of a pixel in the image displayed on the screen is determined according to the position of the control element in the active zone
  • the sensory feedback device is controlled with the control signal associated with the pixel whose position has been determined.
  • Sensitive feedback can be generated at each pixel of the "touched" image by the control element.
  • This sensory feedback associated with an image is also called “texturing” in English or surface sensory perception. It allows the user who touches the tactile surface in an active area to perceive the relief of a surface texture and / or the relief of at least one object.
  • the method of generating a sense feedback significantly simplifies the determination of the control signal to be sent to the sensory feedback device. Indeed, in operation, it is sufficient to know the position of the "pixel" touched by the user to know which sensory feedback generate.
  • the sensory feedback to be generated can thus be determined almost immediately, completely automatically, without any calculation, without requiring prior measurement of the speed and / or direction of movement of the user's finger, which gives a much more realistic feeling.
  • the perception of texture on the screen can therefore be improved by requiring less computing resources.
  • the control signal comprises for example:
  • the control signal assigned to each pixel is either a control signal of the haptic feedback module, a control signal of the loudspeaker, or a control signal of the haptic feedback module and a control signal of the haptic feedback module.
  • loudspeaker with a sound return that is a lack of sensory feedback.
  • the absence of sensory feedback may be a null control signal or may be translated by any control signal assigned to the pixel.
  • the control signals of the sensory feedback device assigned to each of the pixels can be determined according to at least one parameter of the pixel in the image.
  • a parameter of the pixel is for example a visual parameter associated with the visual perception of the pixel in the image, such as color, gray level, brightness and / or opacity.
  • the visual parameter of the pixel is, for example, the gray level obtained by converting the color of the pixel.
  • the visual parameters of the pixels of the image are classified in a predefined number of visual categories, the control signals of the sensory feedback device assigned to each of the pixels being determined. according to the membership of the pixel's visual parameter to one of the visual categories, the same control signal being associated with the pixels of the same visual category.
  • the assignment of the control signals of the sensory feedback device to each of the pixels may comprise a preliminary step of delimiting at least one particular sensory feedback area in the image using a particular visual appearance mask. .
  • the mask is for example a single color.
  • the assignment of the control signals of the sensory feedback device to each of the pixels in The function of a visual parameter of the pixel includes a preliminary step of accentuating contrasts and / or lines of the image and / or eliminating glare.
  • a parameter of the pixel is for example the position of the pixel in the image.
  • At least two zones are defined in the image, the control signals of the sensory feedback device assigned to each of the pixels being determined according to the membership of the position of the pixel at one of the zones, the same control signal being associated with the pixels of the same zone of the image.
  • the same control signal of the sensory feedback device is for example associated with the pixels of the same visual category in the same area of the image.
  • a subsequent control signal associated with the pixel whose position is taken into account is taken into account. determined after the expiration of an activation delay.
  • the activation delay is for example greater than the duration of the control signal and / or greater than the duration of the sensory feedback and / or greater than a time threshold in particular equal to or greater than the duration of the control signal and / or the duration of sensory feedback.
  • a subsequent control signal associated with a pixel whose position is taken into account is taken into account. has been determined, when the distance between the determined position and the position of the pixel associated with the previous command of the sensory feedback device, crosses a spatial threshold.
  • the subsequent control signals associated with the pixels whose positions are determined are not taken into account.
  • the pressing force exerted on the touch surface can be measured and then compared with a pressure threshold to determine if the control signal of the sensory feedback device is to be taken into account.
  • each of the pixels is assigned to each of the pixels as a function of a parameter of the pixel: an activation delay and / or a time threshold and / or a spatial threshold and / or a pressure threshold.
  • the invention also relates to a motor vehicle interface comprising:
  • a screen configured to display an image formed of a predetermined number of pixels each marked by a position in the image
  • a tactile surface disposed above the screen and configured to locate the position of a pixel in the image displayed on the screen according to the position of a control element in at least one active zone of the screen; a touch-sensitive surface, the at least one active area being an area of the touch surface for which sensory feedback can be generated in the case of contact by the control element, and
  • a sensitive feedback device configured to generate a tactile feedback when receiving a control signal
  • a data table comprising at least one control signal of the sensitive feedback device assigned to each pixel in the at least one active zone, and means configured for:
  • FIG. 1 shows a front part of a passenger compartment of a motor vehicle
  • FIG. 2 represents a schematic side view of an interface
  • FIG. 3A shows an exemplary image displayed on the touch screen
  • FIG. 3B shows an example of pretreatment of the image of FIG. 3A
  • FIG. 3C shows a transformation in gray levels of the pretreated image of FIG. 3B
  • FIG. 3D shows a graph having for abscissa the gray level and a number of pixels in ordinate for the image of FIG. 3C,
  • FIG. 3E shows a graph similar to FIG. 3D with the gray levels of the pixels classified in four visual categories
  • FIG. 3F is a schematic view of the image of FIG. 3C on which the pixels of a first visual category are highlighted
  • FIG. 3G is an image similar to FIG. 3F on which the pixels of a second visual category are highlighted
  • FIG. 3H is an image similar to FIG. 3G on which the pixels of a third visual category are highlighted
  • FIG. 31 is an image similar to FIG. 3H in which the pixels of a fourth visual category are highlighted
  • FIG. 4 shows an example of a correspondence table
  • FIG. 5 shows another example of an image
  • FIG. 6 shows another example of an image
  • Figure 1 shows a schematic view of a front part of a passenger compartment 10 of a motor vehicle seen from the rear part of the vehicle.
  • the passenger compartment 10 includes a driver seat disposed behind a steering wheel 11 and a dashboard 12, a passenger seat, an interior mirror 14, a ceiling module 15, also called dome, placed near the interior mirror 14 in the part high center of the front part of the passenger compartment 10 and a central console 13 located between the two seats of the front part of the passenger compartment 10, an interface 1 being mounted in the dashboard 12.
  • the interface 1 can be disposed at other places in the cabin 10 as for example at the center console 13 or any other suitable place.
  • the interface 1 comprises a screen 4, a touch surface 3 disposed above the screen 4 and a sensitive feedback device 20.
  • L screen 4 and the touch surface 3 forms a touch screen 2.
  • the interface 1 further allows the control of at least one function of a motor vehicle member for example to control functions of an air conditioning system, an audio system, a telephony system or a navigation system.
  • the interface 1 can also be used for example to control interior lights, central locking, sunroof, hazard lights or mood lights.
  • This interface 1 can also be used for window regulator controls, positioning controls for exterior mirrors or motorized seat motion controls. It allows for example to select a destination postal address or a name in a directory, the settings of the air conditioning system, the activation of a function, the selection of a musical track from a list.
  • the touch surface 3 is for example a capacitive touch screen.
  • the capacitive touch-sensitive panel here comprises at least one capacitive sensor 31, a front plate 32 arranged on the capacitive sensor 31 and a controller 33 connected to the capacitive sensor 31.
  • the capacitive sensor 31 makes it possible to detect a capacitance variation at the surface of the front plate 32.
  • the capacitive sensor 31 and the controller 33 make it possible to detect and determine the spatial coordinates of a control element touching the tactile surface 3.
  • the control element may be a finger or other activation means (for example a stylus) of the user.
  • the capacitive sensor 31 and the front plate 32 are at least partially transparent.
  • the capacitive sensor 31 is for example formed of an array of electrodes extending over all or part of the surface of the slab.
  • the electrodes are for example made of ITO (indium oxide - tin) which allow the sensor 31 to be transparent.
  • the rigidity of the capacitive touch screen is obtained by means of the rigid front plate 32 (or contact plate), such as a glass plate.
  • the front plate 32 arranged on the capacitive sensor 31 faces the user once mounted in the passenger compartment.
  • the screen 4 such as a TFT screen ("Thin-Film transistor" in English) or an LED screen or an LCD screen is for example configured to display information associated with the manipulation of the interface 1.
  • the screen 4 is disposed under the capacitive sensor 31.
  • the screen 4 is configured to display an image formed of a predetermined number of pixels each marked by a position in the X, Y image.
  • a pixel is a basic surface element (rectangular or square) of a digital image .
  • a pixel can be formed of several sub-pixels: red, green, blue for example.
  • a screen 4 of 480 * 800 resolution has 384000 pixels.
  • the images displayed by the screen 4 may be photographs, which may be in color.
  • the touch surface 3 comprises at least one active zone Z (FIG. 1).
  • the at least one active zone Z is a zone of the tactile surface 3 for which a sensory feedback can be generated in the case of a contact by the control element.
  • the active zone Z thus delimits a set of pixels of the images displayed by the screen 4 such as a visual representation of a surface texture and / or at least one control object, for which a sensitive feedback can be generated.
  • an inactive zone delimits all the pixels for which no sensitive feedback is generated.
  • the surface texture may have at least one relief and / or texture of a material such as leather, wood, plastic, metal and / or any texture as formed by a plurality of repeating patterns, such as geometric patterns and / or combinations of different textures, reliefs and / or patterns.
  • the control object is for example a command button, a keyboard key or a slider.
  • the touch surface 3 is configured to locate the X, Y position of a pixel in the image displayed on the screen 4 as a function of the position of the control element on the touch surface 3.
  • a pixel can thus be assigned at an X, Y position detected. This pair of coordinates is assigned to each pixel taking into account the resolution of the touch screen 3 and the resolution of the screen 4, these two resolutions are not necessarily identical.
  • the contact area detected under the finger can cover several pixels, it is determined for processing, for example a single pair of spatial coordinates X, Y for each contact zone.
  • This torque can be determined by calculation, for example by estimating the most likely pixel that the user wishes to touch, such as for example the center of the contact zone detected in an active zone Z of the image.
  • the interface 1 may also comprise at least one support sensor 23 configured to measure a parameter representative of a pressing force exerted on the touch surface 3 (FIG. 2).
  • the support sensor 23 is for example a capacitive sensor configured to measure a distance separating the mobile part from the fixed part in a direction perpendicular to the surface of the touch screen 2. A variation in distance between the mobile part and the part is a parameter representative of a support exerted on the touch screen 2.
  • the measurement of the support force can also be carried out by other means such as for example by inductive measurement or ultrasonic measurement or measurement of deformation at means of strain gauges or sensors FSR (for "Force Sensing Resistor").
  • the sensory feedback device 20 is configured to generate a tactile feedback when receiving a control signal.
  • the sensory feedback device 20 comprises a haptic feedback module and / or a sound return loudspeaker 24.
  • the control signal comprises a control signal of the haptic feedback module H and / or a control signal of the loudspeaker S and / or a lack of sensory feedback R.
  • the sound return loudspeaker control signal S controls the sound return loudspeaker 24.
  • the sound return may have different patterns and / or frequencies and / or amplitudes and / or durations.
  • haptic refers to tactile feedback with or without physical contact with the touch screen 2.
  • haptic feedback can be achieved by vibrating the touch screen 2.
  • the haptic feedback is then a return by touch.
  • haptic feedback is a vibratory or vibrotactile signal.
  • the control signal of the haptic feedback module H may have different patterns and / or frequencies and / or phase shifts and / or amplitudes and / or durations, generally included between 20 and 30msec.
  • the pattern (or shape or shape) has for example a so-called simple shape: linear, square, half-sine, triangle, etc. or a so-called complex shape comprising a combination of simple shapes or a curve.
  • the haptic feedback module comprises at least one vibratory actuator 21 connected to the touch screen 2.
  • the vibratory actuator 21 is for example ERM type (for "Eccentric Rotating Mass” in English) also called “vibrating motor” or feeder motor.
  • the vibratory actuator 21 is of the electromagnetic type. It relies for example on a technology similar to that of the speaker (in English: “Voice-Coil”).
  • the vibratory actuator 21 is for example an LRA (for "Linear Resonant Actuator” in English), also called “linear motor”.
  • the vibratory actuator 21 is of piezoelectric type.
  • the haptic feedback is a vibratory signal such as a vibration produced by a sinusoidal control signal or by a control signal comprising one or a succession of pulses, sent to the vibratory actuator 21.
  • the vibration is for example directed in the plane of the touch screen 2 or orthogonally to the plane or directed in a combination of these two directions.
  • the touch screen 2 and the vibratory actuator 21 are for example elements of a mobile part of the interface 1 which is connected by at least one damping element to a fixed part intended to be fixed to the motor vehicle.
  • the haptic feedback is achieved by generating a vibration field in the air, in particular opposite the touch screen 2.
  • the haptic feedback module comprises for example a haptic loudspeaker, broadcasting waves Ultrasonic touch screen 2, inaudible to the human ear. The user feels a tactile sensation on the skin when he places his hand in front of the touch screen 2, in the field of vibrations.
  • the sensory feedback device 20 may further comprise a processing unit 26 having one or more microcontrollers or computers, having memories and programs adapted in particular to implement the method of generating a sensitive feedback of the interface, to modify the display of the screen 4, to process the information provided by the touch surface 3. It is for example the on-board computer of the motor vehicle.
  • a control signal of the sensory feedback device 20 is assigned to each pixel that can be located by the position of a control element in at least one active zone Z of the image displayed on the screen 4. This step of assigning at least one control signal to the pixels of the image is performed during an initialization phase, for example at the time of the first image loading or at each update of the programs. of the interface 1.
  • a position of a localized pixel in the image displayed on the screen 4 is determined as a function of the position of the control element in the active zone Z and the sensory feedback device 20 is controlled with the control signal associated with the pixel whose position X, Y has been determined.
  • the control signal assigned to each pixel is either a control signal of the haptic feedback module H, or a control signal of the loudspeaker S, or a control signal of the haptic feedback module H and a signal for controlling the sound return loudspeaker S, ie no sensory feedback R.
  • the absence of sensory feedback R may be a null control signal or may be translated by any control signal assigned to the pixel.
  • Sensitive feedback can be generated at each pixel of the "touched" image by the control element. This sensory feedback associated with an image enables the user who touches the tactile surface 3 in an active zone Z of the image to perceive the relief of a surface texture and / or the relief of at least one control object. .
  • the method of generating a sensory feedback according to the invention greatly simplifies the determination of the control signal to be sent to the sensory feedback device. Indeed, in operation, it is sufficient to know the position of the "pixel" touched by the user to know what sensitive feedback should be generated.
  • the sensory feedback to be generated can thus be determined almost immediately, in a completely automatic manner, without any calculation, without requiring a prior measurement of the speed and / or the direction of movement of the user's finger, which makes it possible to get a much more realistic feeling.
  • the perception of texture on the screen can therefore be improved by requiring less computing resources.
  • the taking into account of the control signal for the control of the sensory feedback device 20 may be conditioned by other steps of the method.
  • a subsequent control signal associated with the pixel whose position has been determined after the lapse of a delay time is taken into account. activation.
  • the activation time is for example greater than the duration of the sensory feedback and / or greater than the duration of the selected control signal and / or greater than a time threshold in particular equal to or greater than the duration of the control signal and / or the duration of the sensory feedback.
  • a new sensory feedback command can thus be performed once the sensory feedback previously generated is complete.
  • An activation delay and / or a time threshold can be assigned to each pixel of the image.
  • a subsequent control signal associated with a pixel whose position has been determined when the distance between the determined position and the position of the pixel associated with the previous command of the sensory feedback device, crosses a spatial threshold.
  • the spatial threshold may be defined by an elementary surface of the active zone Z and delimit a predetermined number of pixels.
  • the pixels of the elementary surface can be aligned in line (in X) or in column (in Y) or cover a square or rectangular surface.
  • the elementary surface delimits for example a surface of 20x20 pixels.
  • Elementary surface dimensions defining a spatial threshold, may be associated with each pixel of the image.
  • the pressing force exerted on the touch surface 3 can be measured and then compared with a pressing pressure threshold P to determine whether the control signal of the sensory feedback device 20 must be taken into account.
  • a pressing pressure threshold P may be associated with each pixel.
  • the allocation of at least one control signal of the sensitive feedback device 20 to each pixel in at least one active zone Z of the image displayed on the screen 4 can be stored in a data table.
  • the data table includes a control signal of the sensory feedback device 20 assigned to each pixel.
  • This data table is for example a text file.
  • the text file comprises 384000 H, S, R control signals assigned to each pixel identified by its respective spatial coordinates X, Y.
  • the data table can be pre-filled manually.
  • the data table is automatically populated during the initialization phase.
  • control signals of the sensitive feedback device 20 assigned to each of the pixels are for example determined as a function of at least one parameter of the pixel in the image.
  • a parameter of the pixel is for example the position of the pixel in the image.
  • At least two zones are delimited in the image, the control signals of the sensory feedback device 20 allocated to each of the pixels being determined according to the membership of the X, Y position of the pixel at one of the zones, a same control signal being associated with the pixels of the same area of the image.
  • a parameter of the pixel is for example a visual parameter associated with the visual perception of the pixel in the image, such as color, gray level, brightness and / or opacity.
  • the visual parameters of the pixels of the image can be classified into a predefined number of visual categories.
  • the color of the pixel may be coded in 3x8 bits, for example in RGB (or RGB) or RGBG (RGBA) format.
  • the visual parameter of the pixel may be a level of gray that can be obtained by converting the color of the pixel.
  • a color image into a gray level
  • the three values representing the levels of red, green and blue must be replaced, for each pixel, by a single value representing the brightness, for example by using a processing software.
  • images and / or applying the standard conversion such as using the values of "Recommendation 709".
  • the sensory feedback device control signals assigned to each of the pixels are determined according to the membership of the visual parameter of the pixel to one of the visual categories, the same control signal being associated with the pixels of the same visual category.
  • a same control signal of the sensory feedback device 20 is associated with the pixels of the same visual category in the same area of the image.
  • Assigning the control signals of the sensory feedback device 20 to each of the pixels may comprise a preliminary step of delimiting at least one particular sensory feedback area in the image using a visual appearance mask. particular.
  • the mask is for example a single color.
  • the assignment of the control signals of the sensitive feedback device 20 to each of the pixels as a function of a visual parameter of the pixel may comprise a preliminary step of accentuation of contrasts and / or lines of the image and / or deletions reflections of lighting.
  • At least one parameter of the pixel among a color C, a threshold of pressing pressure P, an activation delay, a time threshold and a spatial threshold.
  • FIGS 3A to 31 illustrate an example of implementation.
  • FIG. 3A the image to be displayed on the screen 4 is FIG. 3A.
  • This image is a photograph of a control button arranged in a dashboard leather appearance.
  • the command button is round. Pressing the button activates a command to deselect the "start and stop" mode of the vehicle.
  • the control button has a smooth-looking center disk with a light and letters indicating the function of the control button.
  • a metal ring separates the central disk from the peripheral leather.
  • the metal ring has an annular shape in relief. It is considered that the active zone Z covers the entire image.
  • the lines of the image delimiting the boundary F1 located between the leather part and the metal part and the border F2 situated between the metal part and the central disk are accentuated (FIG. 3B).
  • the accented lines here are two concentric circles that have been blackened and thickened with respect to Figure 3A. Thus, the assignment of a particular control signal to the pixels under these accented lines is artificially forced.
  • At least one particular sensitive return region is defined in the image by means of a first and a second mask M1, M2 of particular visual appearance.
  • Each mask M1, M2 has a uniform and distinct color.
  • a second mask M2 disk-shaped covers the central disk.
  • the second mask M2 may have a color, for example transparent blue, the transparency allowing the letters and the indicator to appear through the mask M2, which allows a separate assignment of control signals for the pixels of the letters and the indicator.
  • the gray levels of the pixels of the image can be classified into a predefined number of visual categories.
  • the predefined number of visual categories can be a number between 2 and 10, or even more, for example four ( Figure 3E).
  • Figure 3E the gray levels are coded on 256 values
  • four visual categories NG1, NG2, NG3, NG4 are defined. classifying the pixels having a gray level between 0 and 63, 64 and 127, 128 and 191 and 192 and 255. It can be seen in the graph of Figure 3E that the image has a larger number of pixels of appearance strongly or moderately dark corresponding to visual categories NG1 and NG2 as lighter-looking pixels corresponding to visual categories NG3 and NG4.
  • the control signals of the sensory feedback device 20 allocated to each of the pixels are determined according to the membership of the gray level of the pixel to one of the visual categories NG1, NG2, NG3, NG4, the same control signal being associated with the pixels of the same visual category NG1, NG2, NG3, NG4. This gives the same control signal to the pixels having neighboring gray levels.
  • a correspondence table 22 is used for this purpose.
  • the correspondence table 22 comprises, for example, a control signal of the haptic feedback module H: “1”, “2”, “3” or “4" and a control signal of the loudspeaker S: “A “,” B “,” C “,” D “and a pressure threshold 1 N or 1, 5N associated with four visual categories NG1, NG2, NG3, NG4 ( Figure 4).
  • the control signals of the haptic feedback module H1 and H3 and of the sound speaker SA and SC associated with the visual categories NG1 and NG3 are taken into account only in the case where the pressing force exerted on the touch surface 3 exceeds 1 N.
  • the control signals of the H2 and H4 haptic feedback module and the SB and SD sound loudspeaker associated with the visual categories NG2 and NG4 are only activated when the pressing force exerted exceeds 1, 5N.
  • This correspondence table 22 may also include a value of the activation delay, a time threshold and a spatial threshold associated with each visual category NG1, NG2, NG3, NG4.
  • the correspondence table 22 thus makes it possible to determine for each visual category NG1, NG2, NG3, NG4 which set of parameters to automatically assign to the pixel, which is much simpler than entering all the parameters manually.
  • 3F shows all the pixels of the image for which the control signal of the haptic feedback module H1 has been affected because of the gray level of these pixels belonging to the visual category NG1. It can be seen that the control signal H1 is only assigned to the pixels of the leather appearance zone and to the pixels of the artificially accentuated borders F1 and F2. The control signal H1 is not assigned to the pixels of the zones delimited by the first mask M1 in the form of a ring and by the second mask M2 shaped disc.
  • control signal H2 is assigned to certain pixels of the leather-looking zone as well as to the zone of the central disk because of the fact that the uniform color of the second mask M2 belongs to the visual category NG2.
  • 3H shows all the pixels of the image for which the control signal of the haptic feedback module H3 has been affected because of the membership of these pixels in the visual category NG3. It can be seen that the control signal H3 is assigned to certain pixels of the leather appearance area as well as to the letters and the indicator located in the central disk.
  • control signal H4 is only assigned to the pixels of the zone delimited by the first annular mask M1.
  • a pressing pressure threshold P For each pixel position X, Y, the color C of the image pixel of Fig. 3A, a pressing pressure threshold P, an activation delay, a time threshold and a spatial threshold can also be assigned.
  • a data table is thus obtained with, for the X, Y position of each pixel, at least: a control signal of the sensitive feedback module H1, H2, H3, H4 and / or a control signal of the return speaker sound SA, SB, SC, SD and / or an absence of sensory feedback R as well as possibly a color C of the original image and an activation pressure threshold P.
  • an X, Y position of a pixel is determined in the image displayed on the screen 4 as a function of the position of the control element in the active zone Z and the sensory feedback device 20 is controlled with the control signal associated with the pixel whose position X, Y has been determined.
  • Figure 5 shows another example of an image that can be displayed on the screen 4.
  • This image has regular patterns black and white sawtooth.
  • the control signal of the sensory feedback module assigned to each of the pixels of the image of FIG. 5 can be determined according to the color of the pixel.
  • a first control signal may be associated with the white pixels and a second control signal may be associated with the black pixels. It can be seen that the processing allowing the assignment of a control signal to a pixel can be very fast and very simple. In operation, it is possible to simulate a realistic texturing without having to know the speed of displacement of the control element or the trajectory of the control element on the screen 4.
  • FIGS. 6 and 7 show two other examples of images that can be displayed on the screen 4.
  • the control signal assigned to each of the pixels can be determined according to the membership of the color of the pixel to one of the categories in which the colors of the pixels of the image are classified, the same control signal being assigned to the pixels of the same visual category.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de génération d'un retour sensitif pour une interface de véhicule automobile comprenant : - un écran (4) configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l'image, une surface tactile (3) disposée au-dessus de l'écran (4) et configurée pour localiser la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position d'un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d'une réception d'un signal de commande, caractérisé en ce que : - un signal de commande du dispositif de retour sensitif (20) est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans la au moins une zone active (Z) lors d'une phase d'initialisation, on détermine une position (X, Y) d'un pixel localisé dans l'image affichée sur l'écran (4) en fonction de la position de l'élément de commande dans la zone active (Z), et - on commande le au moins un dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.

Description

Procédé de génération d'un retour sensitif pour une interface et interface associée
La présente invention concerne un procédé de génération d'un retour sensitif pour une interface de véhicule automobile. La présente invention concerne également une interface de véhicule automobile configurée pour la mise en œuvre dudit procédé.
Pour simplifier les tableaux de bord des véhicules automobiles tout en permettant d'augmenter le nombre de fonctions pouvant être commandées par les utilisateurs, les boutons sont de plus en plus souvent remplacés par des écrans tactiles. L'utilisation d'écrans tactiles permet de continuer à augmenter le nombre des fonctions, celles-ci devenant programmables et reconfigurables et pouvant être exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. L'écran inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons et en étant personnalisable.
Afin de compenser la perte de rétroaction causée par la substitution de boutons mécaniques classiques par des écrans tactiles, il peut être prévu d'ajouter un retour sensitif tel qu'un retour vibratoire haptique et/ou sonore. Le retour sensitif permet par exemple d'assurer à l'utilisateur que sa commande a bien été prise en compte, ce qui permet d'éviter l'apparition de situations dangereuses en cours de conduite.
Les écrans permettent d'afficher des images pouvant comporter des objets, comme par exemple des boutons. L'utilisateur a, par le jeu d'effets d'éclairages et d'ombres, une perception visuelle en relief de l'objet affiché. Certaines autres images ou zones de l'image affichent une surface présentant une certaine texture de surface.
Des développements récents proposent d'associer un retour sensitif au relief de l'image affichée sur l'écran tactile. Un motif haptique est par exemple associé au moins dans certaines zones de l'image pour simuler à l'utilisateur un ressenti proche du motif visuel affiché.
On connaît par exemple un procédé de simulation de texture qui associe un motif haptique spécifique à différentes zones de l'écran.
Par exemple, pour simuler une texture de stries verticales, des zones reprenant les formes des stries sont définies sur l'image pour chaque « nervure » ou « rainure » et un motif haptique différent est associé à chaque zone d'aspect différent.
En fonctionnement, lorsque le doigt de l'utilisateur se déplace horizontalement sur la succession de stries, il perçoit des motifs haptiques générés en alternance rappelant les stries verticales qu'il visualise simultanément sur l'écran.
Cette perception haptique de texture, également appelée « texturing », peut toutefois parfois manquer de réalisme. C'est par exemple le cas lorsque l'utilisateur perçoit un décalage entre la localisation d'un ressenti haptique d'un relief sur l'écran et sa visualisation. Un tel décalage peut survenir par exemple lorsque l'utilisateur déplace rapidement son doigt sur l'écran.
Cela peut aussi être le cas lorsque l'utilisateur déplace son doigt dans des directions différentes et qu'il ne perçoit pas de modifications de texture selon le sens de déplacement du doigt alors qu'il visualise des textures asymétriques sur l'écran.
Ces imprécisions du ressenti haptique sont notamment dues au temps de calcul nécessaire pour le traitement des informations.
Pour améliorer cela, une solution consiste à réaliser des calculs de direction et de trajectoire permettant de prendre en compte notamment la vitesse de déplacement du doigt, la pression d'appui du doigt exercée sur l'écran ou le sens de déplacement du doigt pour la détermination de l'effet haptique à générer. Ces calculs tentent par exemple d'anticiper le mouvement du doigt sur l'écran pour mieux synchroniser la perception du retour haptique généré avec la texture affichée sur l'écran afin qu'elle soit la plus réaliste possible.
En reprenant l'exemple des stries verticales, on mesure par exemple le sens de déplacement du doigt pour adapter le motif haptique selon que l'utilisateur déplace son doigt horizontalement ou verticalement. Egalement, on mesure la vitesse de déplacement du doigt pour anticiper la trajectoire et adapter le motif du retour haptique généré à l'augmentation de vitesse de déplacement du doigt.
Toutefois, ces calculs nécessitent beaucoup de ressources informatiques.
En outre, on constate toujours des imperfections de perception du retour haptique.
Ces imperfections de perception sont principalement dues au temps de calcul notamment nécessaire pour mesurer la vitesse et le sens de déplacement du doigt de l'utilisateur sur l'écran tactile et pour calculer ensuite le retour haptique à générer qui correspond à ces données particulières.
Egalement, ces méthodes ne permettent pas un texturing haptique d'images plus complexes que des images simples à motifs réguliers et répétitifs. La complication des motifs visuels de l'image nécessite la démultiplication des zones à traiter et donc l'augmentation du nombre de calculs à réaliser. En outre, le texturing d'images à motifs irréguliers ne peut tout simplement pas être réalisé.
Un des buts de la présente invention est donc de proposer un procédé de génération d'un retour sensitif pour une interface de véhicule automobile plus performant, qui permette une détermination rapide et précise du retour sensitif à générer, qui améliore la perception de texture sur l'écran, qui permette le texturing d'images complexes et qui nécessite moins de ressources informatiques.
A cet effet, l'invention a pour objet un procédé de génération d'un retour sensitif pour une interface de véhicule automobile comprenant :
- un écran configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position dans l'image,
- une surface tactile disposée au-dessus de l'écran et configurée pour localiser la position d'un pixel dans l'image affichée sur l'écran en fonction de la position d'un élément de commande dans au moins une zone active de la surface tactile, la au moins une zone active étant une zone de la surface tactile pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et
- un dispositif de retour sensitif configuré pour générer un retour sensitif lors d'une réception d'un signal de commande,
caractérisé en ce que :
- un signal de commande du dispositif de retour sensitif est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans la au moins une zone active, lors d'une phase d'initialisation,
- on détermine une position d'un pixel dans l'image affichée sur l'écran en fonction de la position de l'élément de commande dans la zone active, et
- on commande le dispositif de retour sensitif avec le signal de commande associé au pixel dont la position a été déterminée.
Un retour sensitif peut ainsi être généré à chaque pixel de l'image « touché » par l'élément de commande. Ce retour sensitif associé à une image est également appelé «texturing» en anglais ou perception sensitive de surface. Il permet à l'utilisateur qui touche la surface tactile dans une zone active de percevoir le relief d'une texture de surface et/ou le relief d'au moins un objet.
Le procédé de génération d'un retour sensitif simplifie de façon importante la détermination du signal de commande à envoyer au dispositif de retour sensitif. En effet, en fonctionnement, il suffit de connaître la position du « pixel » touché par l'utilisateur pour savoir quel retour sensitif générer. Le retour sensitif à générer peut ainsi être déterminé de manière quasiment immédiate, de façon complètement automatique, sans aucun calcul, sans nécessiter de mesure préalable de la vitesse et/ou du sens de déplacement du doigt de l'utilisateur, ce qui permet d'obtenir un ressenti beaucoup plus réaliste. La perception de texture sur l'écran peut donc être améliorée en nécessitant moins de ressources informatiques.
Le signal de commande comprend par exemple :
- un signal de commande d'un module à retour haptique du dispositif de retour sensitif et/ou
- un signal de commande d'un haut-parleur à retour sonore du dispositif de retour sensitif.
Le signal de commande affecté à chaque pixel, est soit un signal de commande du module à retour haptique, soit un signal de commande du haut-parleur à retour sonore, soit un signal de commande du module à retour haptique et un signal de commande du haut-parleur à retour sonore, soit une absence de retour sensitif.
L'absence de retour sensitif peut être un signal de commande nul ou peut être traduit par aucun signal de commande affecté au pixel. Les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels peuvent être déterminés en fonction d'au moins un paramètre du pixel dans l'image.
Un paramètre du pixel est par exemple un paramètre visuel associé à la perception visuelle du pixel dans l'image, tel que la couleur, le niveau de gris, la luminosité et/ou l'opacité.
Le paramètre visuel du pixel est par exemple le niveau de gris obtenu par conversion de la couleur du pixel.
Selon un exemple de réalisation du procédé de génération d'un retour sensitif, on classe les paramètres visuels des pixels de l'image dans un nombre prédéfini de catégories visuelles, les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels étant déterminés en fonction de l'appartenance du paramètre visuel du pixel à l'une des catégories visuelles, un même signal de commande étant associé aux pixels d'une même catégorie visuelle.
L'affectation des signaux de commande du dispositif de retour sensitif à chacun des pixels peut comprendre une étape préliminaire de délimitation d'au moins une zone de retour sensitif particulier dans l'image à l'aide d'un masque d'aspect visuel particulier.
Le masque est par exemple unicolore.
Selon un exemple de réalisation du procédé de génération d'un retour sensitif, l'affectation des signaux de commande du dispositif de retour sensitif à chacun des pixels en fonction d'un paramètre visuel du pixel comprend une étape préliminaire d'accentuation de contrastes et/ou de lignes de l'image et/ou de suppressions de reflets d'éclairage.
Ces prétraitements de l'image permettent de mieux contrôler la discrimination des couleurs pour l'attribution automatique des signaux de commande à chacun des pixels.
Un paramètre du pixel est par exemple la position du pixel dans l'image.
Selon un exemple de réalisation du procédé de génération d'un retour sensitif, on délimite au moins deux zones dans l'image, les signaux de commande du dispositif de retour sensitif affectés à chacun des pixels étant déterminés en fonction de l'appartenance de la position du pixel à l'une des zones, un même signal de commande étant associé aux pixels d'une même zone de l'image.
Un même signal de commande du dispositif de retour sensitif est par exemple associé aux pixels d'une même catégorie visuelle dans une même zone de l'image.
Selon un exemple de réalisation du procédé de génération d'un retour sensitif, on prévoit que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l'écoulement d'un délai d'activation.
Le délai d'activation est par exemple supérieur à la durée du signal de commande et/ou supérieur à la durée du retour sensitif et/ou supérieur à un seuil temporel notamment égal ou supérieur à la durée du signal de commande et/ou à la durée du retour sensitif.
Tant que le délai d'activation ne s'est pas écoulé, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées.
Selon un exemple de réalisation du procédé de génération d'un retour sensitif, on prévoit que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
Tant que cette distance ne franchit pas le seuil spatial, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées. La force d'appui exercée sur la surface tactile peut être mesurée puis comparée à un seuil de pression d'appui pour déterminer si le signal de commande du dispositif de retour sensitif doit être pris en compte.
On prévoit par exemple dans le procédé de génération d'un retour sensitif que, sont affectés à chacun des pixels en fonction d'un paramètre du pixel: un délai d'activation et/ou un seuil temporel et/ou un seuil spatial et/ou un seuil de pression d'appui.
On peut également mémoriser la couleur de chaque pixel de l'image pour afficher une image reconstruite sur l'écran à partir des couleurs mémorisées. On s'affranchit ainsi de la nécessité de mémoriser d'une part, la table de données des signaux de commande affectés aux pixels et d'autre part, un fichier image. Le traitement est ainsi beaucoup plus simple.
On peut stocker dans une table de données, pour chaque pixel de l'image :
- une position,
- un signal de commande du dispositif de retour sensitif, et
- au moins un paramètre du pixel parmi une couleur, un seuil de pression d'appui, un délai d'activation, un seuil temporel et un seuil spatial.
L'invention a aussi pour objet une interface de véhicule automobile comportant :
- un écran configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position dans l'image,
- une surface tactile disposée au-dessus de l'écran et configurée pour localiser la position d'un pixel dans l'image affichée sur l'écran en fonction de la position d'un élément de commande dans au moins une zone active de la surface tactile, la au moins une zone active étant une zone de la surface tactile pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et
- un dispositif de retour sensitif configuré pour générer un retour sensitif lors d'une réception d'un signal de commande,
caractérisé en ce qu'elle comporte en outre :
- une table de données comportant au moins un signal de commande du dispositif de retour sensitif affecté à chaque pixel dans la au moins une zone active, et des moyens configurés pour :
- déterminer la position d'un pixel dans l'image affichée sur l'écran en fonction de la position de l'élément de commande dans la zone active, - commander le dispositif de retour sensitif avec le signal de commande associé au pixel dont la position a été déterminée.
D'autres avantages et caractéristiques apparaîtront à la lecture de la description de l'invention, ainsi que sur les figures annexées qui représentent un exemple de réalisation non limitatif de l'invention et sur lesquelles :
- la figure 1 montre une partie avant d'un habitacle de véhicule automobile,
- la figure 2 représente une vue schématique de côté d'une interface,
- la figure 3A montre un exemple d'image affichée sur l'écran tactile,
- la figure 3B montre un exemple de prétraitement de l'image de la figure 3A,
- la figure 3C montre une transformation en niveaux de gris de l'image prétraitée de la figure 3B,
- la figure 3D montre un graphique ayant pour abscisse le niveau de gris et un nombre de pixels en ordonnée pour l'image de la figure 3C,
- la figure 3E montre un graphique similaire à la figure 3D avec les niveaux de gris des pixels classés dans quatre catégories visuelles,
- la figure 3F est une vue schématique de l'image de la figure 3C sur laquelle les pixels d'une première catégorie visuelle sont mis en évidence,
- la figure 3G est une image similaire à la figure 3F sur laquelle les pixels d'une deuxième catégorie visuelle sont mis en évidence,
- la figure 3H est une image similaire à la figure 3G sur laquelle les pixels d'une troisième catégorie visuelle sont mis en évidence,
- la figure 31 est une image similaire à la figure 3H sur laquelle les pixels d'une quatrième catégorie visuelle sont mis en évidence,
- la figure 4 montre un exemple de table de correspondance,
- la figure 5 montre un autre exemple d'image,
- la figure 6 montre un autre exemple d'image, et
- la figure 7 montre un autre exemple d'image.
Sur ces figures, les éléments identiques portent les mêmes numéros de référence.
Les réalisations suivantes sont des exemples. Bien que la description se réfère à un ou plusieurs modes de réalisation, ceci ne signifie pas nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s'appliquent seulement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation peuvent également être combinées pour fournir d'autres réalisations.
La figure 1 montre une vue schématique d'une partie avant d'un habitacle 10 de véhicule automobile vue depuis la partie arrière du véhicule.
L'habitacle 10 comprend notamment un siège conducteur disposé derrière un volant 11 et une planche de bord 12, un siège passager, un rétroviseur intérieur 14, un module de plafonnier 15, aussi appelé dôme, placé à proximité du rétroviseur intérieur 14 dans la partie centrale haute de la partie avant de l'habitacle 10 et une console centrale 13 située entre les deux sièges de la partie avant de l'habitacle 10, une interface 1 étant montée dans la planche de bord 12. Bien entendu, l'interface 1 peut être disposée à d'autres endroits dans l'habitacle 10 comme par exemple au niveau de la console centrale 13 ou tout autre endroit adapté.
Comme on peut le voir sur la figure 2 montrant une vue schématique de l'interface 1 , l'interface 1 comporte un écran 4, une surface tactile 3 disposée au-dessus de l'écran 4 et un dispositif de retour sensitif 20. L'écran 4 et la surface tactile 3 forme un écran tactile 2.
Selon un exemple de réalisation, l'interface 1 permet en outre la commande d'au moins une fonction d'un organe de véhicule automobile pour par exemple commander des fonctions d'un système de climatisation, d'un système audio, d'un système de téléphonie ou encore d'un système de navigation. L'interface 1 peut aussi être utilisée pour par exemple commander des lumières intérieures, un verrouillage central, un toit ouvrant, les feux de détresse ou les lumières d'ambiance. Cette interface 1 peut également servir pour les commandes de lève-vitres, des commandes de positionnement des rétroviseurs extérieurs ou encore des commandes de déplacement de sièges motorisés. Il permet par exemple de sélectionner une adresse postale de destination ou un nom dans un répertoire, les réglages du système de climatisation, l'activation d'une fonction, la sélection d'une piste musicale parmi une liste.
La surface tactile 3 est par exemple une dalle tactile capacitive.
La dalle tactile capacitive comprend ici au moins un capteur capacitif 31 , une plaque frontale 32 agencée sur le capteur capacitif 31 et un contrôleur 33 relié au capteur capacitif 31 .
Le capteur capacitif 31 permet de détecter une variation de capacité au niveau de la surface de la plaque frontale 32. Le capteur capacitif 31 et le contrôleur 33 permettent de détecter et déterminer les coordonnées spatiales d'un élément de commande touchant la surface tactile 3.
L'élément de commande peut être un doigt ou tout autre moyen d'activation (par exemple un stylet) de l'utilisateur. Le capteur capacitif 31 et la plaque frontale 32 sont au moins partiellement transparents. Le capteur capacitif 31 est par exemple formé d'un réseau d'électrodes s'étendant sur tout ou partie de la surface de la dalle. Les électrodes sont par exemple réalisées en ITO (oxyde indium - étain) qui permettent au capteur 31 d'être transparent.
La rigidité de la dalle tactile capacitive est obtenue au moyen de la plaque frontale 32 (ou plaque de contact) rigide, telle qu'une plaque de verre. La plaque frontale 32 agencée sur le capteur capacitif 31 fait face à l'utilisateur une fois montée dans l'habitacle.
L'écran 4, tel qu'un écran TFT (« Thin-Film transistor » en anglais) ou un écran LED ou un écran LCD est par exemple configuré pour afficher des informations associées à la manipulation de l'interface 1 .
L'écran 4 est disposé sous le capteur capacitif 31 . L'écran 4 est configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position dans l'image X, Y. Un pixel est un élément de surface de base (rectangulaire ou carré) d'une image numérique. Un pixel peut être formé de plusieurs sous-pixels : rouge, vert, bleu par exemple. Par exemple, un écran 4 de résolution 480*800 comporte 384000 pixels.
Les images affichées par l'écran 4 peuvent être des photographies, qui peuvent être en couleur.
La surface tactile 3 comprend au moins une zone active Z (figure 1 ). La au moins une zone active Z est une zone de la surface tactile 3 pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande. La zone active Z délimite ainsi un ensemble de pixels des images affichées par l'écran 4 telle qu'une représentation visuelle d'une texture de surface et/ou au moins un objet de commande, pour lesquels un retour sensitif peut être généré. A contrario, une zone inactive délimite l'ensemble des pixels pour lesquels aucun retour sensitif n'est généré.
La texture de surface peut présenter au moins un relief et/ou une texture d'un matériau tel qu'un aspect cuir, bois, plastique, métallique et/ou une texture quelconque, telle que formée par une pluralité de motifs récurrents, tels que des motifs géométriques et/ou présenter des associations de différentes textures, reliefs et/ou motifs.
L'objet de commande est par exemple un bouton de commande, une touche de clavier ou un curseur de défilement (ou « slider » en anglais).
La surface tactile 3 est configurée pour localiser la position X, Y d'un pixel dans l'image affichée sur l'écran 4 en fonction de la position de l'élément de commande sur la surface tactile 3. Un pixel peut ainsi être attribué à une position X, Y détectée. Ce couple de coordonnées est attribué à chaque pixel en tenant compte de la résolution de la dalle tactile 3 et de la résolution de l'écran 4, ces deux résolutions n'étant pas forcément identiques.
Par ailleurs, la zone de contact détectée sous le doigt pouvant couvrir plusieurs pixels, on détermine pour le traitement, par exemple un seul couple de coordonnées spatiales X, Y pour chaque zone de contact. Ce couple peut être déterminé par calcul, par exemple par estimation du pixel le plus probable que l'utilisateur souhaite toucher, comme par exemple le centre de la zone de contact détectée dans une zone active Z de l'image.
L'interface 1 peut également comporter au moins un capteur d'appui 23 configuré pour mesurer un paramètre représentatif d'une force d'appui exercée sur la surface tactile 3 (figure 2).
Le capteur d'appui 23 est par exemple un capteur capacitif configuré pour mesurer une distance séparant la partie mobile de la partie fixe dans une direction perpendiculaire à la surface de l'écran tactile 2. Une variation de distance entre la partie mobile et la partie fixe est un paramètre représentatif d'un appui exercé sur l'écran tactile 2. La mesure de la force d'appui peut aussi être réalisée par d'autres moyens comme par exemple par mesure inductive ou par mesure ultrason ou par mesure de déformation au moyen de jauges de contrainte ou de capteurs FSR (pour « Force Sensing Resistor » en anglais).
Le dispositif de retour sensitif 20 est configuré pour générer un retour sensitif lors d'une réception d'un signal de commande.
Le dispositif de retour sensitif 20 comporte un module à retour haptique et/ou un haut- parleur à retour sonore 24.
Le signal de commande comprend un signal de commande du module à retour haptique H et/ou un signal de commande du haut-parleur à retour sonore S et/ou une absence de retour sensitif R.
Le signal de commande du haut-parleur à retour sonore S commande le haut-parleur à retour sonore 24. Le retour sonore peut présenter différents motifs et/ou fréquences et/ou amplitudes et/ou durées.
On désigne par « haptique », un retour tactile avec ou sans contact physique avec l'écran tactile 2.
Le retour haptique peut être réalisé en faisant vibrer l'écran tactile 2. Le retour haptique est alors un retour par le toucher. Ainsi, le retour haptique est un signal vibratoire ou vibrotactile.
Le signal de commande du module à retour haptique H peut présenter différents motifs et/ou fréquences et/ou déphasages et/ou amplitudes et/ou durées, généralement comprises entre 20 et 30msec. Le motif (ou allure ou forme) présente par exemple une forme dite simple : linéaire, carré, demi-sinus, triangle, etc ou une forme dite complexe comportant une combinaison de formes simples ou une courbe.
Pour cela, le module à retour haptique comporte au moins un actionneur vibratoire 21 relié à l'écran tactile 2.
L'actionneur vibratoire 21 est par exemple de type ERM (pour « Eccentric Rotating- Mass » en anglais) également appelé « moteur vibrant » ou moteur à masselotte. Selon un autre exemple, l'actionneur vibratoire 21 est de type électromagnétique. Il repose par exemple sur une technologie similaire à celle du Haut-Parleur (en anglais : « Voice-Coil »). L'actionneur vibratoire 21 est par exemple un LRA (pour « Linear Résonant Actuator » en anglais), également appelé « moteur linéaire ». Selon un autre exemple, l'actionneur vibratoire 21 est de type piézoélectrique.
Le retour haptique est un signal vibratoire tel qu'une vibration produite par un signal de commande sinusoïdal ou par un signal de commande comportant un ou une succession de puises, envoyé à l'actionneur vibratoire 21 . La vibration est par exemple dirigée dans le plan de l'écran tactile 2 ou orthogonalement au plan ou encore dirigée selon une combinaison de ces deux directions.
L'écran tactile 2 et l'actionneur vibratoire 21 sont par exemple des éléments d'une partie mobile de l'interface 1 qui est reliée par au moins un élément amortisseur à une partie fixe destinée à être fixée au véhicule automobile.
Selon un autre exemple, le retour haptique est réalisé en générant un champ de vibrations dans l'air, notamment face à l'écran tactile 2. Pour cela, le module à retour haptique comporte par exemple un haut-parleur haptique, diffusant des ondes ultrasoniques face à l'écran tactile 2, inaudibles pour l'oreille humaine. L'utilisateur ressent une sensation tactile sur la peau quand il place sa main devant l'écran tactile 2, dans le champ des vibrations.
Le dispositif de retour sensitif 20 peut comporter en outre une unité de traitement 26 ayant un ou plusieurs microcontrôleurs ou ordinateurs, ayant des mémoires et programmes adaptés notamment pour mettre en œuvre le procédé de génération d'un retour sensitif de l'interface, pour modifier l'affichage de l'écran 4, pour traiter les informations fournies par la surface tactile 3. C'est par exemple l'ordinateur de bord du véhicule automobile.
Au cours du procédé de génération d'un retour sensitif, un signal de commande du dispositif de retour sensitif 20 est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans au moins une zone active Z de l'image affichée sur l'écran 4. Cette étape d'affectation d'au moins un signal de commande aux pixels de l'image, est réalisée lors d'une phase d'initialisation, par exemple au moment du premier chargement de l'image ou à chaque mise à jour des programmes de l'interface 1 .
Puis en fonctionnement, on détermine une position d'un pixel localisé dans l'image affichée sur l'écran 4 en fonction de la position de l'élément de commande dans la zone active Z et on commande le dispositif de retour sensitif 20 avec le signal de commande associé au pixel dont la position X, Y a été déterminée.
Le signal de commande affecté à chaque pixel, est soit un signal de commande du module à retour haptique H, soit un signal de commande du haut-parleur à retour sonore S, soit un signal de commande du module à retour haptique H et un signal de commande du haut- parleur à retour sonore S, soit une absence de retour sensitif R.
L'absence de retour sensitif R peut être un signal de commande nul ou peut être traduit par aucun signal de commande affecté au pixel.
Un retour sensitif peut ainsi être généré à chaque pixel de l'image « touché » par l'élément de commande. Ce retour sensitif associé à une image permet à l'utilisateur qui touche la surface tactile 3 dans une zone active Z de l'image de percevoir le relief d'une texture de surface et/ou le relief d'au moins un objet de commande.
Le procédé de génération d'un retour sensitif selon l'invention simplifie de façon importante la détermination du signal de commande à envoyer au dispositif de retour sensitif. En effet, en fonctionnement, il suffit de connaître la position du « pixel » touché par l'utilisateur pour savoir quel retour sensitif doit être généré. Le retour sensitif à générer peut ainsi être déterminé de manière quasiment immédiate, de façon complètement automatique, sans aucun calcul, sans nécessiter de mesure préalable de la vitesse et/ou du sens de déplacement du doigt de l'utilisateur, ce qui permet d'obtenir un ressenti beaucoup plus réaliste. La perception de texture sur l'écran peut donc être améliorée en nécessitant moins de ressources informatiques.
La prise en compte du signal de commande pour la commande du dispositif de retour sensitif 20 peut être conditionnée par d'autres étapes du procédé.
Par exemple, on peut prévoir que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l'écoulement d'un délai d'activation.
Le délai d'activation est par exemple supérieur à la durée du retour sensitif et/ou supérieur à la durée du signal de commande sélectionné et/ou supérieur à un seuil temporel notamment égal ou supérieur à la durée du signal de commande et/ou à la durée du retour sensitif.
Tant que le délai d'activation ne s'est pas écoulé, on ne prend pas en compte les signaux de commande subséquents associés aux pixels dont les positions sont déterminées.
Une nouvelle commande de retour sensitif peut ainsi être réalisée une fois que le retour sensitif précédemment généré est achevé.
Un délai d'activation et/ou un seuil temporel peuvent être affectés à chaque pixel de l'image.
Selon un autre exemple, notamment pour éviter la génération saccadée de retours sensitifs, on peut prévoir que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
Tant que cette distance ne franchit pas le seuil spatial, on ne prend pas en compte les signaux de commande subséquents, associés aux pixels dont les positions sont déterminées.
Le seuil spatial peut être défini par une surface élémentaire de la zone active Z et délimiter un nombre prédéterminé de pixels. Les pixels de la surface élémentaire peuvent être alignés en ligne (selon X) ou en colonne (selon Y) ou couvrir une surface carrée ou rectangulaire. La surface élémentaire délimite par exemple une surface de 20x20 pixels.
On évite ainsi la génération de retours sensitifs saccadés, par exemple dans certaines zones ou directions de l'image d'une même zone et/ou d'une même catégorie de couleurs.
Des dimensions de surfaces élémentaires, définissant un seuil spatial, peuvent être associées à chaque pixel de l'image.
En outre, la force d'appui exercée sur la surface tactile 3 peut être mesurée puis comparée à un seuil de pression d'appui P pour déterminer si le signal de commande du dispositif de retour sensitif 20 doit être pris en compte.
Un seuil de pression d'appui P peut être associé à chaque pixel.
L'attribution d'au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel dans au moins une zone active Z de l'image affichée sur l'écran 4 peut être stockée dans une table de données. La table de données comporte un signal de commande du dispositif de retour sensitif 20 affecté à chaque pixel.
Cette table de données est par exemple un fichier texte. Par exemple, pour un écran d'affichage de résolution de 480*800 pixels, le fichier texte comporte 384000 signaux de commande H, S, R affectés à chaque pixel identifié par ses coordonnées spatiales X, Y respectives.
La table de données peut être pré-remplie manuellement.
Selon un autre exemple, la table de données est remplie automatiquement au cours de la phase d'initialisation.
Les signaux de commande du dispositif de retour sensitif 20 affectés à chacun des pixels sont par exemple déterminés en fonction d'au moins un paramètre du pixel dans l'image.
On peut en outre prévoir d'affecter à chacun des pixels un délai d'activation et/ou un seuil temporel et/ou un seuil spatial et/ou un seuil de pression d'appui P en fonction d'un paramètre du pixel afin de déterminer si le signal de commande doit être pris en compte.
Un paramètre du pixel est par exemple la position du pixel dans l'image.
On délimite au moins deux zones dans l'image, les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels étant déterminés en fonction de l'appartenance de la position X, Y du pixel à l'une des zones, un même signal de commande étant associé aux pixels d'une même zone de l'image.
Un paramètre du pixel est par exemple un paramètre visuel associé à la perception visuelle du pixel dans l'image, tel que la couleur, le niveau de gris, la luminosité et/ou l'opacité.
Pour attribuer au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel dans au moins une zone active Z, on peut classer les paramètres visuels des pixels de l'image dans un nombre prédéfini de catégories visuelles.
La couleur du pixel peut être codée en 3x8bits, par exemple en format RVB (ou RGB en anglais) ou RVBG avec gestion de l'opacité (ou RGBA en anglais).
Le paramètre visuel du pixel peut être un niveau de gris pouvant être obtenu par conversion de la couleur du pixel. Pour convertir une image couleur en niveau de gris il faut par exemple remplacer, pour chaque pixel les trois valeurs représentant les niveaux de rouge, de vert et de bleu, en une seule valeur représentant la luminosité, par exemple en utilisant un logiciel de traitement d'images et/ou en appliquant la conversion standard, telle qu'en utilisant les valeurs de la « Recommandation 709 ».
Les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels sont déterminés en fonction de l'appartenance du paramètre visuel du pixel à l'une des catégories visuelles, un même signal de commande étant associé aux pixels d'une même catégorie visuelle.
On prévoit par exemple qu'un même signal de commande du dispositif de retour sensitif 20 soit associé aux pixels d'une même catégorie visuelle dans une même zone de l'image.
L'affectation des signaux de commande du dispositif de retour sensitif 20 à chacun des pixels peut comprendre une étape préliminaire de délimitation d'au moins une zone de retour sensitif particulier dans l'image à l'aide d'un masque d'aspect visuel particulier.
Le masque est par exemple unicolore.
En recouvrant une zone de l'image avec un masque unicolore, on réalise un « coloriage » de cette zone, ce qui permet de faciliter ou de forcer la délimitation par discrimination de la couleur de la zone du masque.
L'affectation des signaux de commande du dispositif de retour sensitif 20 à chacun des pixels en fonction d'un paramètre visuel du pixel peut comprendre une étape préliminaire d'accentuation de contrastes et/ou de lignes de l'image et/ou de suppressions de reflets d'éclairage.
Ces prétraitements de l'image permettent de mieux contrôler la discrimination des couleurs pour l'attribution automatique des signaux de commande à chacun des pixels.
On peut prévoir de mémoriser la couleur C de chaque pixel de l'image pour afficher une image reconstruite sur l'écran 4 à partir des couleurs mémorisées. On s'affranchit ainsi de la nécessité de mémoriser d'une part, la table de données des signaux de commande affectés aux pixels et d'autre part, un fichier image. Le traitement est ainsi beaucoup plus simple.
Ainsi, dans la table de données, peuvent être stockés pour chaque pixel de l'image :
- une position X, Y,
- un signal de commande du dispositif de retour sensitif 20, et
- au moins un paramètre du pixel parmi une couleur C, un seuil de pression d'appui P, un délai d'activation, un seuil temporel et un seuil spatial.
Les figures 3A à 31 illustrent un exemple de mise en œuvre.
Dans cet exemple, l'image à afficher sur l'écran 4 est la figure 3A. Cette image est une photographie d'un bouton de commande agencé dans une planche de bord d'aspect cuir. Le bouton de commande est rond. Un appui sur le bouton permet d'enclencher une commande de désélection du mode « start and stop » du véhicule. Le bouton de commande comporte un disque central d'aspect lisse comprenant un voyant et des lettres indiquant la fonction du bouton de commande. Un anneau métallique sépare le disque central du cuir périphérique. L'anneau métallique présente une forme annulaire en relief. On considère que la zone active Z couvre toute l'image.
Au cours d'une étape préliminaire, on accentue les lignes de l'image délimitant la frontière F1 située entre la partie cuir et la partie métallique et la frontière F2 située entre la partie métallique et le disque central (figure 3B). Les lignes accentuées sont ici deux cercles concentriques qui ont été noircis et épaissis par rapport à la figure 3A. On force ainsi artificiellement l'affectation d'un signal de commande particulier aux pixels situés sous ces lignes accentuées.
Egalement, au cours d'une étape préliminaire, on délimite au moins une zone de retour sensitif particulier dans l'image à l'aide d'un premier et un deuxième masques M1 , M2 d'aspect visuel particulier. Chaque masque M1 , M2 présente un coloris uniforme et distinct. Un premier masque M1 en forme d'anneau, par exemple jaune, recouvre la partie métallique. Un deuxième masque M2 en forme de disque recouvre le disque central. Le deuxième masque M2 peut présenter un coloris par exemple bleu transparent, la transparence permettant aux lettres et au voyant d'apparaître à travers le masque M2, ce qui permet une attribution des signaux de commande distincte pour les pixels des lettres et du voyant.
Trois zones sont ainsi délimitées dans l'image : la zone d'aspect cuir, la zone délimitée par le premier masque M1 et la zone délimitée par le deuxième masque M2.
Ces prétraitements réalisés sur l'image permettent de mieux contrôler l'attribution automatique qui peut être ensuite réalisée en fonction des couleurs des pixels, en facilitant la discrimination des couleurs de l'image. On évite ainsi notamment par exemple d'attribuer un signal de commande inapproprié du fait d'artéfacts d'éclairage.
On peut alors transformer les couleurs des pixels de l'image prétraitée en niveaux de gris (figures 3C et 3D). Le nombre de niveaux de gris choisi dépend de la définition que l'on souhaite obtenir des aspérités de l'image ou des différentes textures. Plus il y a de niveaux de gris et plus le ressenti peut être accentué.
Puis, pour attribuer au moins un signal de commande du dispositif de retour sensitif 20 à chaque pixel, on peut classer les niveaux de gris des pixels de l'image dans un nombre prédéfini de catégories visuelles.
Le nombre prédéfini de catégories visuelles peut être un nombre compris entre 2 et 10, voire plus, c'est par exemple quatre (figure 3E). Ainsi, dans l'exemple représenté où les niveaux de gris sont codés sur 256 valeurs, on définit quatre catégories visuelles NG1 , NG2, NG3, NG4 classant les pixels ayant un niveau de gris compris entre 0 et 63, 64 et 127, 128 et 191 et 192 et 255. On constate sur le graphique de la figure 3E que l'image comporte un nombre plus important de pixels d'aspect fortement ou moyennement sombres correspondant aux catégories visuelles NG1 et NG2 que de pixels d'aspect plus clairs correspondants aux catégories visuelles NG3 et NG4.
Les signaux de commande du dispositif de retour sensitif 20 attribués à chacun des pixels sont déterminés en fonction de l'appartenance du niveau de gris du pixel à l'une des catégories visuelles NG1 , NG2, NG3, NG4, un même signal de commande étant associé aux pixels d'une même catégorie visuelle NG1 , NG2, NG3, NG4. On attribue ainsi un même signal de commande aux pixels ayant des niveaux de gris voisins.
On utilise par exemple pour cela une table de correspondance 22.
La table de correspondance 22 comporte par exemple un signal de commande du module à retour haptique H : « 1 », « 2 », « 3 » ou « 4 » et un signal de commande du haut-parleur à retour sonore S : « A », « B », « C », « D » ainsi qu'un seuil de pression d'appui 1 N ou 1 ,5N, associé à quatre catégories visuelles NG1 , NG2, NG3, NG4 (figure 4).
Les signaux de commande du module à retour haptique H1 et H3 et du haut-parleur sonore SA et SC associés aux catégories visuelles NG1 et NG3 sont pris en compte que dans le cas où la force d'appui exercée sur la surface tactile 3 dépasse 1 N. Les signaux de commande du module à retour haptique H2 et H4 et du haut-parleur sonore SB et SD associés aux catégories visuelles NG2 et NG4 ne sont eux activés que lorsque la force d'appui exercée dépasse 1 ,5N.
Cette table de correspondance 22 peut également comporter une valeur du délai d'activation, un seuil temporel et un seuil spatial associés à chaque catégorie visuelle NG1 , NG2, NG3, NG4. La table de correspondance 22 permet ainsi de déterminer pour chaque catégorie visuelle NG1 , NG2, NG3, NG4 quel ensemble de paramètres attribuer automatiquement au pixel, ce qui est beaucoup plus simple que de saisir tous les paramètres manuellement.
On a représenté en blanc sur la figure 3F tous les pixels de l'image pour lesquels le signal de commande du module à retour haptique H1 a été affecté du fait de l'appartenance du niveau de gris de ces pixels à la catégorie visuelle NG1 . On constate que le signal de commande H1 est uniquement affecté aux pixels de la zone d'aspect cuir et aux pixels des frontières artificiellement accentuées F1 et F2. Le signal de commande H1 n'est pas affecté aux pixels des zones délimitées par le premier masque M1 en forme d'anneau et par le deuxième masque M2 en forme de disque.
On a représenté en blanc sur la figure 3G tous les pixels de l'image pour lesquels le signal de commande du module à retour haptique H2 a été affecté du fait de l'appartenance de ces pixels à la catégorie visuelle NG2. On constate que le signal de commande H2 est affecté à certains pixels de la zone d'aspect cuir ainsi qu'à la zone du disque central du fait de l'appartenance du coloris uniforme du deuxième masque M2 à la catégorie visuelle NG2.
On a représenté en blanc sur la figure 3H tous les pixels de l'image pour lesquels le signal de commande du module à retour haptique H3 a été affecté du fait de l'appartenance de ces pixels à la catégorie visuelle NG3. On constate que le signal de commande H3 est affecté à certains pixels de la zone d'aspect cuir ainsi qu'aux lettres et au voyant situés dans le disque central.
On a représenté en blanc sur la figure 31 tous les pixels de l'image pour lesquels le signal de commande du module à retour haptique H4 a été affecté du fait de l'appartenance de ces pixels à la catégorie visuelle NG4. On constate que le signal de commande H4 est uniquement affecté aux pixels de la zone délimitée par le premier masque M1 annulaire.
On obtient ainsi pour chaque position X, Y de pixel de l'image affichée par l'écran 4, l'affectation d'un signal de commande du dispositif de retour sensitif 20 retour sensitif.
Pour chaque position X, Y de pixel, la couleur C du pixel de l'image de la figure 3A, un seuil de pression d'appui P, un délai d'activation, un seuil temporel et un seuil spatial peuvent également être attribués.
On obtient ainsi une table de données avec pour la position X, Y de chaque pixel, au moins : un signal de commande du module à retour sensitif H1 , H2, H3, H4 et/ou un signal de commande du haut-parleur à retour sonore SA, SB, SC, SD et/ou une absence de retour sensitif R ainsi qu'éventuellement, une couleur C de l'image d'origine et un seuil de pression d'activation P.
On comprend que n'importe quelle image peut ainsi être codée de manière rapide et précise. Toutes les textures peuvent ainsi être codées de manière automatique.
En utilisation, on détermine une position X, Y d'un pixel dans l'image affichée sur l'écran 4 en fonction de la position de l'élément de commande dans la zone active Z et on commande le dispositif de retour sensitif 20 avec le signal de commande associé au pixel dont la position X, Y a été déterminée.
On accède ainsi à toutes les informations de chaque pixel, uniquement à partir de la position X, Y du pixel. Ainsi, dans l'exemple présenté, lorsque l'utilisateur déplace son doigt sur la surface tactile 3, il perçoit un aspect cuir et un bouton de commande en relief au centre duquel apparaissent des lettres également en relief.
La figure 5 montre un autre exemple d'image pouvant être affichée sur l'écran 4. Cette image comporte des motifs réguliers noir et blanc en dents de scie. Le signal de commande du module à retour sensitif affecté à chacun des pixels de l'image de la figure 5 peut être déterminé en fonction de la couleur du pixel. Un premier signal de commande peut être associé aux pixels blancs et un deuxième signal de commande peut être associé aux pixels noirs. On constate que le traitement permettant l'affectation d'un signal de commande à un pixel peut être très rapide et très simple. En fonctionnement, on peut simuler un texturing réaliste sans avoir besoin de connaître la vitesse de déplacement de l'élément de commande ou la trajectoire de l'élément de commande sur l'écran 4.
Les figures 6 et 7 montrent deux autres exemples d'images pouvant être affichées sur l'écran 4. Le signal de commande affecté à chacun des pixels peut être déterminé en fonction de l'appartenance de la couleur du pixel à l'une des catégories visuelles dans lesquelles les couleurs des pixels de l'image sont classées, un même signal de commande étant affecté aux pixels d'une même catégorie visuelle. Ces images illustrent le fait que des images diverses et complexes peuvent être codées de manière simple et automatique.

Claims

REVENDICATIONS
Procédé de génération d'un retour sensitif pour une interface de véhicule automobile comprenant :
- un écran (4) configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l'image,
- une surface tactile (3) disposée au-dessus de l'écran (4) et configurée pour localiser la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position d'un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et
- un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d'une réception d'un signal de commande,
caractérisé en ce que :
- un signal de commande du dispositif de retour sensitif (20) est affecté à chaque pixel pouvant être localisé par la position d'un élément de commande dans la au moins une zone active (Z) lors d'une phase d'initialisation,
- on détermine une position (X, Y) d'un pixel localisé dans l'image affichée sur l'écran (4) en fonction de la position de l'élément de commande dans la zone active (Z), et
- on commande le dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.
Procédé de génération d'un retour sensitif selon la revendication 1 , dans lequel le signal de commande comprend :
- un signal de commande d'un module à retour haptique (H) du dispositif de retour sensitif (20) et/ou
- un signal de commande d'un haut-parleur à retour sonore (S) du dispositif de retour sensitif (20).
Procédé de génération d'un retour sensitif selon l'une des revendications précédentes, caractérisé en ce que les signaux de commande du dispositif de retour sensitif (R, S) affectés à chacun des pixels sont déterminés en fonction d'au moins un paramètre du pixel dans l'image.
Procédé de génération d'un retour sensitif selon la revendication précédente, caractérisé en ce qu'un paramètre du pixel est un paramètre visuel associé à la perception visuelle du pixel dans l'image, tel que la couleur, le niveau de gris, la luminosité et/ou l'opacité.
5. Procédé de génération d'un retour sensitif selon la revendication précédente, caractérisé en ce que le paramètre visuel du pixel est le niveau de gris obtenu par conversion de la couleur du pixel.
6. Procédé de génération d'un retour sensitif selon l'une des revendications 4 ou 5, caractérisé en ce qu'on classe les paramètres visuels des pixels de l'image dans un nombre prédéfini de catégories visuelles (NG1 , NG2, NG3, NG4), les signaux de commande du dispositif de retour sensitif (H, S) affectés à chacun des pixels étant déterminés en fonction de l'appartenance du paramètre visuel du pixel à l'une des catégories visuelles (NG1 , NG2, NG3, NG4), un même signal de commande étant associé aux pixels d'une même catégorie visuelle (NG1 , NG2, NG3, NG4).
7. Procédé de génération d'un retour sensitif selon la revendication précédente, caractérisé en ce que l'affectation des signaux de commande du dispositif de retour sensitif (H, S) à chacun des pixels comprend une étape préliminaire de délimitation d'au moins une zone de retour sensitif particulier dans l'image à l'aide d'un masque (M1 , M2) d'aspect visuel particulier.
8. Procédé de génération d'un retour sensitif selon la revendication précédente, caractérisé en ce que le masque est unicolore.
9. Procédé de génération d'un retour sensitif selon l'une des revendications 3 à 8, dans lequel l'affectation des signaux de commande du dispositif de retour sensitif (H, S) à chacun des pixels en fonction d'un paramètre visuel du pixel comprend une étape préliminaire d'accentuation de contrastes et/ou de lignes de l'image (F1 , F2) et/ou de suppressions de reflets d'éclairage.
10. Procédé de génération d'un retour sensitif selon l'une des revendications 3 à 9, caractérisé en ce qu'un paramètre du pixel est la position (X, Y) du pixel dans l'image.
1 1 . Procédé de génération d'un retour sensitif selon la revendication précédente, caractérisé en ce qu'on délimite au moins deux zones dans l'image, les signaux de commande du dispositif de retour sensitif (H, S) affectés à chacun des pixels étant déterminés en fonction de l'appartenance de la position (X, Y) du pixel à l'une des zones, un même signal de commande étant associé aux pixels d'une même zone de l'image.
12. Procédé de génération d'un retour sensitif selon les revendications 6 et 11 , caractérisé en ce qu'un même signal de commande du dispositif de retour sensitif (H, S) est associé aux pixels d'une même catégorie visuelle (NG1 , NG2, NG3, NG4) dans une même zone de l'image.
13. Procédé de génération d'un retour sensitif selon l'une des revendications précédentes, caractérisé en ce que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé au pixel dont la position a été déterminée après l'écoulement d'un délai d'activation.
14. Procédé de génération d'un retour sensitif selon la revendication précédente, dans lequel le délai d'activation est supérieur à la durée du retour sensitif et/ou à la durée du signal de commande sélectionné et/ou à un seuil temporel.
15. Procédé de génération d'un retour sensitif selon l'une des revendications précédentes, caractérisé en ce que, consécutivement à une commande du dispositif de retour sensitif par un signal de commande, on prend en compte un signal de commande subséquent associé à un pixel dont la position a été déterminée, lorsque la distance entre la position déterminée et la position du pixel associé à la commande précédente du dispositif de retour sensitif, franchit un seuil spatial.
16. Procédé de génération d'un retour sensitif selon l'une des revendications précédentes dans lequel la force d'appui exercée sur la surface tactile (3) est mesurée puis comparée à un seuil de pression d'appui (P) pour déterminer si le signal de commande du dispositif de retour sensitif (20) doit être pris en compte.
17. Procédé de génération d'un retour sensitif selon l'une des revendications 14 à 16, caractérisé en ce que, sont affectés à chacun des pixels en fonction d'un paramètre du pixel:
- un délai d'activation et/ou
- un seuil temporel et/ou
- un seuil spatial et/ou
- un seuil de pression d'appui (P).
18. Procédé de génération d'un retour sensitif selon l'une des revendications précédentes, dans lequel on mémorise la couleur (C) de chaque pixel de l'image pour afficher une image reconstruite sur l'écran (2) à partir des couleurs mémorisées.
19. Procédé de génération d'un retour sensitif selon l'une des revendications précédentes, caractérisé en ce qu'on stocke dans une table de données, pour chaque pixel de l'image : - une position (X, Y),
- un signal de commande du dispositif de retour sensitif (H, S), et
- au moins un paramètre du pixel parmi : une couleur (C), un seuil de pression d'appui (P), un délai d'activation, un seuil temporel et un seuil spatial. 20. Interface (1 ) de véhicule automobile comportant :
- un écran (4) configuré pour afficher une image formée d'un nombre prédéterminé de pixels repérés chacun par une position (X, Y) dans l'image,
- une surface tactile (3) disposée au-dessus de l'écran (4) et configurée pour localiser la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position d'un élément de commande dans au moins une zone active (Z) de la surface tactile (3), la au moins une zone active (Z) étant une zone de la surface tactile (3) pour laquelle un retour sensitif peut être généré dans le cas d'un contact par l'élément de commande, et
- un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d'une réception d'un signal de commande,
caractérisé en ce qu'elle comporte en outre :
- une table de données comportant au moins un signal de commande du dispositif de retour sensitif (H, S) affecté à chaque pixel dans la au moins une zone active (Z),
et des moyens configurés pour :
- déterminer la position (X, Y) d'un pixel dans l'image affichée sur l'écran (4) en fonction de la position de l'élément de commande dans la zone active (Z),
- commander le dispositif de retour sensitif (20) avec le signal de commande associé au pixel dont la position (X, Y) a été déterminée.
PCT/EP2018/063847 2017-05-31 2018-05-25 Procédé de génération d'un retour sensitif pour une interface et interface associée WO2018219832A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1754785 2017-05-31
FR1754785A FR3066959B1 (fr) 2017-05-31 2017-05-31 Procede de generation d'un retour sensitif pour une interface et interface associee

Publications (1)

Publication Number Publication Date
WO2018219832A1 true WO2018219832A1 (fr) 2018-12-06

Family

ID=60080892

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/063847 WO2018219832A1 (fr) 2017-05-31 2018-05-25 Procédé de génération d'un retour sensitif pour une interface et interface associée

Country Status (2)

Country Link
FR (1) FR3066959B1 (fr)
WO (1) WO2018219832A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157175A1 (fr) * 2019-01-31 2020-08-06 Valeo Comfort And Driving Assistance Procédé de génération d'un retour sensitif pour une interface et interface associée
DE102021209749A1 (de) 2021-09-03 2023-03-09 Audi Aktiengesellschaft Bediensystem für ein Kraftfahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063165A1 (fr) * 2010-11-09 2012-05-18 Koninklijke Philips Electronics N.V. Interface utilisateur avec rétroaction haptique
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
WO2016051114A1 (fr) * 2014-10-02 2016-04-07 Dav Dispositif de commande pour véhicule automobile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063165A1 (fr) * 2010-11-09 2012-05-18 Koninklijke Philips Electronics N.V. Interface utilisateur avec rétroaction haptique
EP2733576A1 (fr) * 2012-11-20 2014-05-21 Immersion Corporation Système et procédé destinés à simuler des interactions physiques avec effets haptiques
WO2016051114A1 (fr) * 2014-10-02 2016-04-07 Dav Dispositif de commande pour véhicule automobile

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157175A1 (fr) * 2019-01-31 2020-08-06 Valeo Comfort And Driving Assistance Procédé de génération d'un retour sensitif pour une interface et interface associée
FR3092415A1 (fr) * 2019-01-31 2020-08-07 Valeo Comfort And Driving Assistance Procédé de génération d’un retour sensitif pour une interface et interface associée
DE102021209749A1 (de) 2021-09-03 2023-03-09 Audi Aktiengesellschaft Bediensystem für ein Kraftfahrzeug

Also Published As

Publication number Publication date
FR3066959A1 (fr) 2018-12-07
FR3066959B1 (fr) 2020-11-06

Similar Documents

Publication Publication Date Title
EP2849040A1 (fr) Dispositif et procédé d'interface de commande sensible à un mouvement d'un corps ou d'un objet et écran de visualisation intégrant ce dispositif
FR3026866B1 (fr) Dispositif et procede de commande pour vehicule automobile
FR2851347A1 (fr) Dispositif d'interface homme machine a retour d'information tactile pour dalle tactile
WO2018219832A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
WO2018202609A1 (fr) Procede et dispositif de generation de motifs tactiles
FR3072478A1 (fr) Interface homme-machine pour vehicule automobile
WO2020157175A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
WO2018060383A1 (fr) Interface pour véhicule automobile et procédé de commande
WO2018060388A1 (fr) Interface pour véhicule automobile et procédé d'éclairage
EP3519234B1 (fr) Interface pour véhicule automobile et procédé de procédé de génération d'un retour haptique
EP3519232B1 (fr) Interface pour véhicule automobile et procédé de commande
EP2788217A1 (fr) Interface homme-machine pour véhicule automobile
WO2022090090A1 (fr) Dispositif tactile à retour haptique avec textures spatialisées
EP3508369B1 (fr) Interface pour véhicule automobile et procédé de commande
EP3519230B1 (fr) Interface pour véhicule automobile
FR2928468A1 (fr) Dispositif pour une interaction non tactile avec une image ne reposant sur aucun support
WO2017211835A1 (fr) Module et procédé de commande pour véhicule automobile
FR3053489A1 (fr) Procede de commande et interface de commande pour vehicule automobile
FR3079326A1 (fr) Interface pour vehicule automobile
FR3079325A1 (fr) Interface pour vehicule automobile
FR3078181A1 (fr) Dispositif tactile d'agrandissement de l'image affichee par un ecran tactile d'un dispositif electronique

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18728835

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18728835

Country of ref document: EP

Kind code of ref document: A1