WO2023175162A1 - Device and method for detecting an object above a detection surface - Google Patents
Device and method for detecting an object above a detection surface Download PDFInfo
- Publication number
- WO2023175162A1 WO2023175162A1 PCT/EP2023/056928 EP2023056928W WO2023175162A1 WO 2023175162 A1 WO2023175162 A1 WO 2023175162A1 EP 2023056928 W EP2023056928 W EP 2023056928W WO 2023175162 A1 WO2023175162 A1 WO 2023175162A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light intensity
- detection surface
- photoemitters
- function
- acquired
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Definitions
- the invention relates to an electronic device for detecting an object in the near field in front of a detection surface.
- the invention also relates to a method for detecting such an object.
- document FR3103341 describes the use of a device such as a camera or depth camera to detect a user's hand or the recognition of a hand gesture.
- a disadvantage of this type of device is that the detection cone or field of view of such a camera is narrow and defined by its optical lens. Consequently, this type of device is not suitable for detecting an object in the near field, that is to say at almost zero height relative to the detection device.
- document EP2843509 describes a device comprising a peripheral border of a screen making it possible to estimate the coordinates of an object above the screen.
- Another disadvantage is that this device, due to the location of the photodetectors on the periphery and their low detection angle, does not make it possible to detect an object close to the center of the screen.
- the object of the invention is therefore to propose a device and a method making it possible to precisely detect objects in the field close to a detection surface.
- the invention relates to an electronic device comprising:
- a detection surface in particular near field detection comprising: o optionally a substrate; o a plurality of photoemitters, the photoemitters being separated from each other, for example on said substrate; o a plurality of photodetectors, at least part of these photodetectors each being arranged between two photoemitters, for example on the substrate;
- a first acquisition unit connected to the plurality of photodetectors and to the plurality of photoemitters comprising means adapted for carrying out the following steps: o generating an emission by controlling the ignition of the photoemitters; o the acquisition of a light intensity map according to the position and the light intensity received by each photodetector;
- a second unit for detecting an object placed in front of the detection surface comprising means adapted for determining a distance between said object and said detection surface.
- the second detection unit comprises means adapted for determining a distance between said object and said detection surface by executing the following steps:
- the second detection unit comprises means adapted for determining a distance between said object and said detection surface by executing the following steps:
- the calculation of the consistency score includes:
- An advantage of such an electronic device is to allow the detection of an object, without being hampered by the detection angle. It is therefore possible to detect an object in the near field or at short distance from a large surface, which is not possible with traditional optics or depth cameras.
- calculating a coherence score includes applying a transform of the deconvolution of the acquired light intensity map and/or the acquired light intensity map.
- the second unit may include means adapted for the application of such a transform.
- applying a transform includes applying a Fourier transform or a Laplace transform.
- the second unit also comprises means for executing a step of estimating the shape of the object in a plane parallel to the plane of the detection surface from the light intensity mapping acquired and/or from the deconvolution having obtained the best score.
- the second unit also comprises means for executing a step of determining the spatial coordinates of the object in a plane parallel to the plane of the detection surface, for example from the deconvolution having obtained the best score .
- the detection surface includes a display screen.
- the display screen is formed by the plurality of pixels and the photoemitters and photodetectors are distributed between said pixels.
- the pixels of the plurality of pixels each comprise at least one visible light source, preferably RGB light sources, and in which the photoemitters are designed to emit infrared light and the photodetectors are designed to detect an infrared light. light intensity in the infrared region.
- the first unit comprises means for executing the step of acquiring a light intensity map so that said acquisition step includes a step of measuring, by each photodetector, the light intensity emitted by the photoemitters and reflected by at least one object placed in front of the detection surface.
- the electronic device comprises a covering layer covering the plurality of photoemitters and the plurality of photodetectors, said covering layer being transparent to the rays emitted by the photoemitters.
- the coherence score is calculated based on a sharpness criterion of the image obtained by the deconvolution of the acquired light intensity mapping.
- the invention also relates to a method of using an electronic device comprising the following steps:
- ⁇ generating an emission by controlling the ignition of the photoemitters; ⁇ the acquisition of a light intensity map as a function of the position and the light intensity received by each photodetector;
- the invention relates to an electronic device comprising:
- a detection surface in particular for the detection of an object in the near field comprising: o optionally a substrate; o a plurality of photoemitters separated from each other, for example on said substrate; o a plurality of photodetectors, at least part of these photodetectors being arranged between said photoemitters, for example on the substrate;
- a first unit for acquiring a light intensity map connected to the plurality of photoemitters and to the plurality of photodetectors comprising means adapted to execute the following steps: o generating a first emission pattern by the controlling the ignition of a first set of photoemitters of the detection surface; o the acquisition of a first light intensity map as a function of the position and the light intensity received by each photodetector during the generation of the first emission pattern.
- the device comprises a second unit for generating a point cloud of said object placed in front of the detection surface comprising means for executing a construction function making it possible to generate a final point cloud of said object from the first emission pattern and the first acquired light intensity mapping.
- the device comprises a second unit for generating at least one point of said object placed in front of the detection surface comprising means for executing a construction function making it possible to generate at least one end point of said object from the first emission pattern and the first acquired light intensity mapping.
- the first unit and/or the second unit comprises means for carrying out the following steps:
- the generation of at least one end point of said object is carried out from the first emission pattern, the first acquired light intensity mapping, the second emission pattern and the second light intensity mapping. light intensity.
- the at least one point comprises a point cloud
- the at least one end point comprises a end point cloud
- the invention also relates to a method implemented by a computer for generating a point cloud of an object placed in front of the detection surface of an electronic device according to the invention comprising the following steps:
- ⁇ generating a first emission pattern by controlling the ignition of a first set of photoemitters of the detection surface; ⁇ the acquisition of a first light intensity map as a function of the position and the light intensity received by each photodetector during the generation of the first emission pattern;
- An advantage of such an electronic device and such a method is to authorize the detection and reconstruction of a cloud of points of an object, without being hampered by the detection angle. It is therefore possible to detect an object in the near field or at short distance from a large surface, which is not possible with traditional optics or depth cameras.
- the execution of the construction function comprises the execution of the following steps:
- ⁇ generating a first image by carrying out a simulation of light rays emitted by the photoemitters of the first set and reflected by an object defined by a cloud of candidate points;
- the generation of the end point cloud comprises:
- the generation of the point cloud of said object is carried out from the first emission pattern and the first acquired light intensity mapping as well as the second emission pattern and the second intensity mapping bright.
- the implementation of the construction function comprises:
- ⁇ generating a second image by carrying out a simulation of light rays emitted by the photodetectors of the second set and reflected by an object defined by the cloud of candidate points;
- the minimization step comprises minimization of the result of the second comparison and the first comparison by varying the candidate point cloud of said object.
- the minimization step is implemented by a gradient descent method.
- the step of generating an image comprises generating a virtual object defined by a candidate point cloud in a virtual environment comprising a simulation of a surface similar to the detection surface.
- the construction function is a learning function, implemented by a neural network trained to generate a point cloud of an object from one or more pairs of patterns and intensity maps light acquired.
- the electronic device comprises a memory comprising a library (or a database) of acquired light intensity maps, each associated with an emission pattern and a point cloud of an object, the construction function being capable of generating said point cloud by comparison with the maps of said library.
- the second unit comprises means for receiving at least one distance information between said object and the detection surface and in which the point cloud is generated by the construction function from said distance information.
- the first set of photodetectors comprises at least a first zone of the substrate in which all the photodetectors are turned on.
- the second set of the second pattern is selected based on the result of the first comparison.
- the detection surface comprises a display screen formed by a plurality of pixels and in which the plurality of photoemitters and photodetectors are dispersed between and/or in said pixels.
- the device comprises means for implementing the method according to the first aspect of the invention.
- the invention relates to a movement recognition system
- a movement recognition system comprising an electronic device according to the invention comprising a movement recognition unit comprising means for executing the acquisition of a plurality of end points and/or or point clouds of the object placed in front of the detection surface as a function of time and the determination of at least one movement parameter from a rotation of the object and/or a direction of translation of the object detected from the end points and/or point clouds acquired as a function of time.
- the invention relates to a method of displaying a user interface on the screen of an electronic device.
- Said method comprises determining a distance between the detection surface 2 of the electronic device and an object; providing a database in which a plurality of different user interfaces are recorded, each user interface being associated with a predetermined distance different from the others.
- the user interface to be displayed is selected by comparison between the determined distance and the predetermined distances associated with the pre-recorded user interfaces.
- the method finally includes displaying the selected user interface.
- the invention also relates to a computer program product comprising instructions which cause the electronic device according to the invention to execute the steps of a method or methods according to the invention.
- the invention relates to a computer-readable medium on which the computer program according to the invention is recorded.
- Fig. 1 a schematic view of an electronic device according to one embodiment of the invention comprising a detection surface whose light rays emitted by the photoemitters are reflected by the hand of a user towards said detection surface.
- Fig. 2 a schematic sectional view of the detection surface comprising a plurality of photoemitters emitting light rays and photodetectors for detecting the rays reflected by the object above the detection surface.
- Fig. 3 an example of an array of pixels of the detection surface according to an embodiment in which each pixel comprises sources of red, blue, green light as well as a photoemitter and a photodetector capable of detecting the rays emitted by the photoemitter.
- Fig. 4 an example of an array of pixels of the detection surface according to an embodiment in which each pixel comprises red, blue, green light sources as well as a photoemitter or a photodetector.
- Fig. 5 a representation of a light intensity map acquired by the photodetector network according to one embodiment of the invention.
- Fig. 6 an example of deconvolution of the light intensity mapping according to Figure 5 from different point spread functions.
- Each point spreading function being characteristic of a predetermined height of the object and different from the other point spreading functions.
- Fig. 7 a flowchart representing a method for determining the distance between an object located in front of the detection surface and said detection surface according to one embodiment of the invention.
- Fig. 8A a flowchart representing a method for generating a point cloud representing an object detected in front of the detection surface according to one embodiment of the invention.
- Fig. 8B a flowchart representing a method for generating a point cloud representing an object detected in front of the detection surface according to an embodiment of the invention in which several acquisitions of Light intensity maps are made by modifying the emission pattern.
- Fig. 9 a flowchart representing an example of carrying out the minimization step of the method according to Figure 8B.
- Fig. 10 a flowchart representing a method for generating a movement parameter of an object detected by the detection surface according to one embodiment of the invention.
- Fig. 11 a representation of several emission patterns by the activation of a set of photoemitters.
- Fig. 12 a schematic representation of a calculation system of the electronic device according to one embodiment of the invention.
- Fig. 13A to Fig. 131 examples of gestures that can be detected by the electronic device according to one embodiment of the invention.
- Fig. 14 a schematic view of an electronic device according to one embodiment of the invention in which a user interface is selected as a function of the distance between the object and the detection surface to be displayed on the screen of the electronic device .
- Fig. 15 a representation of the second spreading function of the point which made it possible to obtain the deconvolution D2 of Figure 6.
- photodetector any type of structural means making it possible to detect a light intensity and to generate a signal as a function of said detected intensity.
- photoemitter we mean any type of means capable of emitting light radiation when activated, for example by applying a current or a voltage.
- unit we mean any type of software and/or hardware means allowing the execution of a method or algorithm.
- plane of the detection surface is meant the plane formed by the detection surface.
- the plane of the detection surface must be understood as the tangent at a point of said detection surface.
- an object located in front of the detection surface we mean an object located in the area adjacent to the detection surface illuminated by the photodetectors when the latter are turned on. We can also simply hear an object in the light beam generated by the photoemitters of the detection surface when they are turned on or activated.
- luminous we mean any signal in the visible range, in the infrared (near or far) or ultraviolet.
- the invention relates to an electronic device comprising a near field detection surface.
- An embodiment of such a device is shown in Figure 1.
- Such an electronic device 1 comprises a detection surface 2.
- the detection surface 2 can extend over one face of the electronic device 1.
- Detection surface 2 designates a flat or curved surface making it possible to detect an object in a volume extending in the direction normal to said detection surface 2.
- the detection surface 2 preferably designates a substrate whose first two dimensions (length and width) are significantly larger, for example at least 3 times larger than the third dimension (thickness) or preferably 5 times larger or 10 times bigger.
- the detection surface 2 comprises at least one substrate 32 on which a plurality of photodetectors and photoemitters are arranged.
- the photodetectors 33 and the photoemitters 31 can be arranged on the same side of the substrate 32.
- the photodetectors 33 and the photoemitters 31 can be arranged so as to emit or detect a light beam from the same side of the substrate 32.
- the substrate comprises at least two layers.
- a first layer comprising the photoemitters 31 and a second layer comprising photodetectors 33 or vice versa.
- Each photodetector 33 of the second layer is preferably arranged between two photoemitters 31 of the first layer or vice versa.
- the matrix of the first layer is transparent to the radiation emitted by the photoemitters 33.
- the light rays emitted by the photoemitters can, after reflection, pass through the first layer to be detected by the photodetectors.
- the first layer includes openings allowing the passage of radiation to the photodetectors of the second layer.
- the detection surface 2 comprises a first portion on which the photodetectors are arranged and a second portion, framing the first portion on which the photoemitters are arranged.
- the photoemitters 31 are designed to emit photons by electroluminescence effect.
- the photoemitters 31 are preferably designed to emit light rays in a range of predefined wavelengths.
- the photoemitters 31 are designed to emit infrared light radiation.
- the photodetectors 33 are designed to detect a light ray emitted by the plurality of photoemitters 31.
- the photodetectors 33 are designed to transform the light absorbed in a range of wavelengths into a measurable quantity such as an electric current or an electric voltage .
- the photodetectors include, for example, optical fiber sensors or preferably photodiodes.
- the photodetectors 33 may include infrared light photodetectors or infrared light phototransistors.
- the photoemitters are designed so that their cone of diffusion of emitted light is as weak as possible.
- each photoemitter is arranged on the substrate 32 so as to emit a diffusion cone whose axis is perpendicular or substantially perpendicular to the detection surface 2.
- the photodetectors are designed to have the lowest possible detection cone.
- the angle formed by the diffusion cone of one or more photoemitters may be different from the angle of the detection cone of one or more photodetectors. In one mode, the angle formed by the diffusion cone of one or more photoemitters is greater than the angle of the detection cone of one or more photodetectors.
- angle formed by the diffusion cone we mean the angular distribution function of the light intensity of diffusion of light radiation.
- detection cone means the relative radial sensitivity of a detector, that is to say the difference in intensity received by a detector as a function of the angular position of the source.
- the device comprises means allowing the activation and extinction of each photoemitter 31 individually.
- Each photoemitter 31 can therefore be activated (to emit light radiation) or turned off independently of the activation of the other photoemitters 31.
- the electronic device 1 further comprises means for measuring the signal emitted by each photodetector.
- the photodetectors and the photoemitters are regularly distributed along the two directions of space (x,y) of the detection surface 2.
- Said two directions of space relate to the detection surface 2, particularly in the case of a non-planar detection surface, for example having a curvature.
- Each photodetector is preferably arranged between at least two photoemitters in the two directions of space.
- the photodetectors and the photoemitters are regularly distributed in two orthogonal directions of the plane of the detection surface 2.
- the detection surface 2 preferably comprises a plate or a transparent layer arranged to cover the plurality of photoemitters 31 and photodetectors.
- transparent we mean transparent to the light rays emitted by the photoemitters.
- the covering layer is transparent to infrared rays.
- the covering layer is transparent to light rays emitted by the photoemitters and to rays in the visible range such as a quartz plate.
- the detection surface 2 comprises a display screen 3.
- the display screen 3 comprises a plurality of light sources arranged on the substrate.
- the light sources preferentially form pixels to form the display screen.
- Each pixel preferably includes RGB light sources.
- the light sources are preferably RGB light-emitting diodes.
- the photoemitters and/or photodetectors are arranged, preferably regularly arranged, between the pixels of the detection surface.
- each pixel includes a photodetector and a photoemitter.
- each pixel comprises a photodetector or a photoemitter.
- the photoemitters and photodetectors are arranged so as to have a photoemitter every two pixels.
- An advantage of integrating photoemitters 31 and photodetectors within or between the pixels of a display screen is to take advantage of the connection tracks of the light sources of the screen to connect the photoemitters and photodetectors. Thus, manufacturing costs are reduced and it is not necessary to increase the size of the device to add peripheral detection elements.
- the photoemitters and the photodetectors are distributed regularly on the substrate, for example by forming a matrix.
- the photoemitters and the photodetectors are distributed on the substrate randomly. This may in particular be the case when the photoemitters and/or photodetectors are designed by printing an ink forming organic photodiodes on said substrate. In this case, it remains important to know the spatial coordinates of each photodetector 33 in the plane of the detection surface 2.
- the photoemitters emit light rays in a range of wavelengths distinct from the range of wavelengths of the light rays emitted by the light sources of the screen.
- An advantage is to be able to carry out light intensity maps as described below without having pollution from the RGB light sources of the screen 3.
- at least one of the light sources RGB light can be the photoemitter 31, in this case, the photodetector 33 is designed to detect a light intensity emitted by said photoemitter 31.
- the device according to the invention also comprises software and/or hardware means for implementing the method(s) according to the invention described below.
- These hardware means may include calculation units, processors, memories and are described in more detail in the present description.
- the invention relates to a method 200 for determining the distance between an object 10 placed in front of the detection surface 2 and said detection surface 2.
- Said method 200 can be implemented by the electronic device 1 according to the 'invention.
- object we mean one or more objects of a scene defined in a volume extending from the detection surface in a direction normal to said detection surface 2.
- an “object” preferably comprises a or more hands of a user.
- the term “object” designates a scene comprising a plurality of objects in said volume extending from the detection surface in a direction perpendicular to said detection surface.
- the method comprises a step MOT1 of emitting light 22 from the photoemitters 31 of the detection surface 2.
- emission is meant that at least part of the photoemitters 31 emits light or light rays 22.
- This Emission is produced by the activation of the photoemitters 31.
- This activation can be caused by means of controlling the photoemitters 31.
- control means advantageously make it possible to remotely activate all or part of the plurality of photoemitters 31, for example by applying a signal to the terminals of said photoemitters 31.
- this emission step MOT1 comprises the activation of all the photoemitters of the plurality of photoemitters of the detection surface 2.
- the plurality of photoemitters thus emits light rays 22 which can be schematized by a diffusion cone whose axis has a direction normal or substantially normal (or perpendicular) to the plane of the detection surface 2.
- all the photoemitters are turned on at the same time during this step, very preferably at the same intensity.
- this object 10 When an object 10 is present in a volume extending from the detection surface in a direction normal to said detection surface, this object 10 is illuminated by the rays emitted 22 by the photoemitters. The object 10 then reflects part of these emitted rays 22.
- the reflected rays 21 are returned towards the detection surface 2.
- the reflected rays 21 will illuminate the detection surface 2 and the photodetectors.
- the ACQU1 acquisition step is carried out by measuring the light intensity received by each photodetector 33 of the detection surface 2.
- said measurement is carried out at the same time as the emission step M0T1 or at the same time. time as the emission of the rays 22 by the photoemitters 31.
- the measurement carried out by the acquisition step comprises the detection of the light intensity reflected 21 by an object 10 placed in front of the detection surface 2.
- the measurement by each photodetector 33 of the light intensity received makes it possible to construct a light intensity map 4.
- An example of such a map 4 is illustrated in Figure 5.
- a light intensity map comprises a two-dimensional representation representing the intensity of the light detected by each photodetector 33 as a function of its position on the detection surface 2.
- the color at a given coordinate of said light intensity map is a function of the light intensity measured by a photodetector arranged at a coordinate on the detection surface 2 representative of the given coordinate.
- Said image is constructed according to the light intensity received by each photodetector and according to its position on the detection surface.
- the color of a pixel of said mapping (for example a position on a gray scale) is a function of the intensity received by the photodetector whose position on the detection surface corresponds to the position of the pixel on the mapping.
- Such acquisition includes the generation of a first pattern by controlling the ignition of the photoemitters.
- the point spread function (also called “point spread function” in English or “PSF”) is a mathematical function describing the response of an imaging system to a point source of light. This function is representative of the spreading of a light point. To simplify, the projection on a wall of a light source appears blurry and more diffuse than the source itself. This is due to this natural spreading of light.
- the object 10 when illuminated by the light rays 22 emitted by the photoemitters, can be considered as a light source emitting the reflected light rays 21.
- the acquired light intensity mapping 4 due to the point spreading function appears blurry and diffuse. There deduction of the shape of the object is difficult or even impossible to achieve from this acquired light intensity mapping 4.
- the point spread function can be known. It is notably a function of properties and photodetectors, for example the angle of the cone and detection.
- the point spread function is also a function of the height of the light source. In other words, the point spread function is different depending on the height of the object position.
- height of the object we will mean in the remainder of the description the distance between the object 10 and the detection surface 2.
- a deconvolution operation makes it possible to reverse the process to find, from the light intensity mapping 4, an image representative of the light source and therefore of the object 10 to detect.
- the method therefore comprises a selection SEL1 of at least two, preferably a plurality of spreading functions of the point PSF1, PSF2, PSF3.
- Each selected point spreading function is characteristic of a predetermined height of the object 10 with the detection surface 2.
- a first spreading function of the point PSF1 can be characteristic of a height (distance between the object 10 and the detection surface 2) of 5 cm.
- a DEC1 deconvolution of the light intensity map 4 is carried out with respect to each spreading function of the selected point PSF1, PSF2, PSF3.
- Each deconvolved image (also called deconvolution) is therefore a representation of the light source assuming that its distance from the detection surface 2 is the height characterizing the point spreading function used to obtain said deconvolution.
- a step of calculating CALC1 of a coherence score C1, C2, C3 is then carried out.
- this coherence score is representative of the coherence of the deconvolved image.
- the method includes the DET1 determination of the best of the calculated scores.
- the characteristic height of the point spread function used to generate the best-scoring deconvolved image is selected as the distance Z1 between the object 10 and the detection surface 2.
- the distance Z1 is determined from the predetermined height of the spreading function of the point which made it possible to obtain the deconvolution having obtained the best coherence score.
- the distance Z1 can be determined between two characteristic heights of the two deconvolutions having reached the two best scores.
- a continuous coherence score profile can be generated from the coherence scores of each deconvolution and the characteristic height of the point spread functions used for that deconvolution. The distance Z1 can then be determined from the local extremum of said coherence score profile.
- the second image D2 is the most coherent. Indeed, sharp edges are more coherent than a diffuse object.
- the shape of the object 10 is substantially similar to that of the light spot of the second image D2 and/or that the object 10 is at a distance from the detection surface equal to the second height (characteristic of the second spreading function of point PSF2).
- the calculation of the coherence score includes a calculation depending on the sharpness of the edges of the light spot obtained on the deconvolved image D1, D2, D3.
- the consistency score includes the calculation of a variance or any other statistical calculation method.
- the variance score can be an indicator of image quality.
- the quality indicator can, for example, be generated by a classifier.
- the classifier is configured to receive a deconvolved image as input and to generate a quality indicator as output.
- said generated quality indicator is associated with said deconvolved image.
- the classifier can be implemented by a neural network trained from light intensity maps and/or deconvolved images, each associated with a quality indicator. Examples of neural network implementations are indicated later in the description.
- the consistency score and/or the quality indicator is representative of a probability that the deconvolved image may be similar to a light intensity map.
- the CALC1 calculation step of a coherence score for each deconvolved image comprises the TRF application of a Fourier transform.
- the coherence score C1, C2, C3, for each deconvolution is then calculated from the Fourier transform T1, T2, T3 of each deconvolution.
- Such a Fourier transform of a point spread function is also called an “optical transfer function”. It makes it possible to determine the distribution of light energy in image space and/or to determine the distribution of light energy in a space of spatial frequencies.
- the deconvolution step DEC1 comprises the TRF application of a Fourier transform of the light intensity mapping 4. Each deconvolution is then carried out from the Fourier transform of the said light intensity mapping.
- the application of a Fourier transform advantageously simplifies the calculations of the coherence score. Indeed, the spectral domain of an image highlights changes in light intensities.
- the amplitude of the optical transfer function also called “modulation transfer function” advantageously makes it possible to characterize the fineness of the details of the light spot of the object.
- the optical transfer function advantageously makes it possible to highlight the spatial frequency distribution in the deconvolved image. Thus, the wider the spatial frequency distribution, the more sharp edges the corresponding deconvolved image includes.
- a Fourier transform of a deconvolved image can take the appearance of a 2D map whose intensities are a function of the frequency distribution or can take the appearance of a graph comprising 2 abscissa axes representing the two x axes, y of the space of the light intensity mapping and frequencies on the ordinate.
- the coherence score is calculated from a Fourier transform peak width at a predetermined peak height (e.g. peak width at half height or peak width at base) or a combination of several peak widths at different heights predetermined.
- the coherence score can be calculated from the Fourier transform amplitudes.
- Laplace transform can be used to calculate the consistency score.
- another type of function can be used in place of the point spread function.
- the coherence score is calculated directly from the selected function and the light intensity mapping.
- the height determination is calculated directly from the acquired light intensity mapping.
- determining the distance of said object with the detection surface includes calculating a gradient map from the acquired light intensity map.
- the calculation of a gradient map may include, for each pixel of the acquired light intensity map, the calculation of a spatial gradient value.
- the calculation of said spatial gradient of a pixel is a function of a differential between the value of the intensity of said pixel with the values of the intensity of successive neighboring pixels of said pixel.
- the value of the gradient of said pixel is a function of a sum between the absolute value of a differential between said pixel and its two closest neighbors along a first axis and the absolute value of a differential between said pixel and its two nearest neighbors along a second axis perpendicular to the first axis.
- the value of said gradient is thus calculated for each pixel of the light intensity mapping, thus defining a gradient mapping. It is understood that the example described involves the calculation of a gradient value for each pixel but may alternatively include the calculation of a gradient value for each unit of the light intensity mapping. Said unit comprising a pixel grouping. An advantage is to allow greater speed of calculation at the expense of the definition of the gradient mapping.
- an extremum is determined, for example by applying a filter or an extremum search function.
- the extremum may include the pixel of the gradient map for which the calculated gradient value is the highest.
- the distance Z1 of the object 10 with the detection surface is determined from the extremum of the gradient mapping and/or from a function taking into account the value of the gradient for each pixel and the position of said pixels on the detection surface.
- the spatial coordinates in the plane of the detection surface are determined from the coordinates of the extremum determined on the gradient mapping.
- the deconvolution having obtained the best score it is possible to determine from said image, certain additional information on the object 10 to be detected.
- the shape of the object and/or its spatial coordinates in the plane of the detection surface can be estimated from the deconvolution having obtained the best score (in particular from respectively the shape and/or spatial coordinates of the light spot).
- the first method according to the invention thus makes it possible, from a detection surface as described above, to determine the height (and optionally the shape and/or spatial position) of an object 10 placed in front of said detection surface 2.
- the electronic device 1 comprises software and/or hardware means for implementing the method according to the invention.
- the software resources may include processors, calculation units, memories (in particular non-transitory memories). Presence of two objects
- the method includes detecting a second object placed in front of the detection surface.
- the method can include the detection on the acquired light intensity map of a second object, for example by the detection of several local extrema.
- the method may include a segmentation of the acquired light intensity mapping and for each segmentation, the generation of a distance Z1 for each object as described previously.
- the invention relates to a second method 300 for generating a point cloud NP1 representing an object 10 located in front of the detection surface 2 of the device 1 according to the invention.
- the second method 300 comprises the generation of a first emission pattern P1, in particular by controlling the ignition of a first set of photoemitters of the detection surface.
- the first set of photoemitters includes a selection of photoemitters.
- the first set of photoemitters may include the photoemitters located in a portion of the predefined detection surface.
- the emission pattern P1 comprises the activation of a set 34 of photoemitters forming approximately half of the detection surface 2.
- the emission pattern P1 comprises the activation of a set of photodetectors 31 forming a plurality of zones 35, 36 separated from each other. Said zones can be separated from each other by zones whose photoemitters are not activated. Said zones are preferably separated from each other by a distance substantially equal to one of the dimensions of said zone. Preferably, said zones form geometric shapes such as polygons or quadrilaterals.
- An advantage of such patterns is to allow the object 10 to be illuminated in different ways. In particular, object 10 will be more or less illuminated on its different portions, thus increasing the information on object 10 in the light intensity maps.
- the photoemitters of the detection surface 2 other than those of the first set defined by the emission pattern are not activated or remain off during the generation of the first emission pattern P1 or during the ignition of the set of photoemitters according to the first emission pattern.
- an emission pattern may include turning off all photoemitters. Such an emission pattern advantageously makes it possible to measure the surrounding noise detectable by the photodetectors.
- the light intensity map obtained is used as a filter for processing the light intensity maps subsequently obtained. Such filtering advantageously makes it possible to obtain a better signal-to-noise ratio.
- the electronic device 1 comprises a memory, preferably a non-transient memory.
- a library or a database comprising a plurality of different patterns P1, P2 is recorded on said memory.
- the memory is connected to a processor and/or to means for controlling the activation of the photoemitters.
- the means for controlling the activation (or ignition) of the photoemitters is configured to activate the photoemitters according to the selected emission pattern.
- the second method includes an acquisition ACQU1 of a light intensity map similar to that of the first method 200.
- the acquisition is carried out simultaneously with the switching on of the photoemitters 31 according to the first emission pattern P1.
- the acquired light intensity map 41 is associated with a label comprising indications making it possible to identify the first emission pattern P1 generated to acquire said light intensity map 41.
- the second method 300 further comprises the generation of a point cloud NP1 of the object 10 located in front of the detection surface 2.
- Said point cloud is generated from said acquired light intensity mapping 41 and from the first emission pattern P1 implemented for the acquisition of said mapping 41.
- the generated point cloud NP1 is a representation of said object 10 placed in front of the detection surface.
- the second method 300 further comprises the generation of at least one point of the object 10 located in front of the detection surface 2.
- Said at least one point is generated from said acquired light intensity mapping 41 and from the first emission pattern P1 implemented for the acquisition of said mapping 41.
- the at least one point generated, in particular its coordinates is a representation of the position of said object 10 placed in front the detection surface in space.
- This step of generating a cloud of points NP1 or at least one point is implemented by a construction function FCT1.
- the FCT1 function is designed to receive as input at least one light intensity map 41 and an emission pattern P1 associated with said map 41.
- the FCT1 function is designed to, at output, generate a cloud of points NP1 representing the object 10 placed in front of the detection surface 2 during the acquisition step ACQU1 or at least one point representative of the position of the object 10 placed in front of the detection surface 2 during the acquisition step ACQU1.
- the construction function generates a cloud of points NP1 or at least one point of the object 10 in a reference frame comprising the detection surface 2.
- the construction function FCT1 is preferably implemented by a computer of the electronic device 1 according to the invention.
- a memory connected to said computer, may include code information to execute said construction function FCT1 when it is implemented by the computer or by the electronic device 1.
- the construction function generates a cloud of points NP1 for each set of light intensity maps acquired, preferably in real time.
- the second method 300 comprises the acquisition ACQU2 of a second light intensity map 42 by the same detection surface as that used for the acquisition of the first light intensity map, more particularly by the same photodetectors as those used for the acquisition of the first light intensity map.
- the second method then comprises an MOT2 generation of a second emission pattern P2 by controlling the ignition of a second set of photoemitters different from the first set of the first emission pattern.
- the acquisition ACQU2 of the second light intensity map 42 is carried out simultaneously with the generation of the second emission pattern MOT2 to make it possible to acquire the light intensity emitted by the second pattern P2 and reflected by the object 10 for which we wish to generate a cloud of points NP1.
- Said second light intensity mapping 42 can be associated with the second emission pattern P2 different from the first pattern P1.
- the second light intensity map 42 is associated with a label comprising identification data of the second emission pattern P2.
- the method comprises the acquisition of a plurality of light intensity maps, each carried out simultaneously with the generation of an emission pattern by controlling the ignition of a set of photoemitters of the detection surface different from the sets characterizing the other emission patterns.
- Said second acquisition ACQU2 is carried out within a very short period of time from the first acquisition ACQU1.
- the second acquisition ACQU2 and the first acquisition ACQU1 are both carried out in a time period of less than 5 ms, very preferably less than 500 ps.
- the plurality of acquired light intensity maps forming a set of light intensity maps are all acquired in a time period of less than 10 ms, very preferably less than 4 ms.
- the advantage is to obtain two light intensity maps or a set of light intensity maps of the same object 10 which has not had time to move.
- the invention advantageously makes it possible to generate a plurality of point clouds NP1 of the object over time.
- the comparison of successive point clouds makes it possible to follow the movement of said object as explained below.
- a set of light intensity maps comprises two or a plurality of light intensity maps acquired in a very short time interval (less than 10 ms or less than 4 ms) and from different emission patterns P1, P2 .
- This set of light intensity maps advantageously allows the construction function FCT1 described below to generate a cloud of points NP1 of the object 10 in a more reliable and more precise manner.
- the construction function generates a cloud of NP1 points for each set of light intensity maps acquired, preferably in real time.
- the first construction function FCT1 comprises the determination of a cloud of points NP1 by a function for minimizing images obtained from the simulation of the light rays reflected by the object 10.
- the first construction function then includes the selection of a first candidate point cloud NPO.
- This first candidate point cloud can represent a first estimate of the object 10.
- This first NPO candidate point cloud is used to carry out an acquisition simulation of a light intensity map.
- a simulation of emission of light rays by the first set of photodetectors of the first emission pattern P1 is carried out.
- the candidate point cloud NPO is used to simulate a candidate virtual object.
- the SIM1 simulation thus comprises the simulation of the light emitted by a detection surface according to the first emission pattern and reflected by a surface formed by said cloud of NPO candidate points.
- the simulation finally includes the determination of the light intensity detected by each photodetector, in particular the light intensity resulting from the rays reflected by the object 10.
- a first image 411 is then produced.
- the first image is preferably produced as a function of the position and the light intensity received by each photodetector during the simulation of a first emission pattern.
- the simulation includes simulating a virtual environment including a virtual sensing surface similar to the sensing surface of the electronic device.
- the virtual detection surface reproduces the arrangement of the photoemitters and photodetectors of the detection surface of the electronic device 1.
- Each photoemitter and each photodetector of the detection surface of the electronic device 1 has an equivalent on the virtual detection surface.
- the optical properties and the detection properties of the photoemitters and photodetectors of the detection surface of the electronic device 1 are reproduced by the virtual detection surface.
- the production of the first image 411 is therefore, in other words, a simulation of a light map which would have been generated if the first candidate point cloud NPO is a faithful reproduction of the object 10 to be detected.
- the SIM1 simulation therefore preferably includes a simulation of light emission by the photodetectors of the first set, the reflection of these light rays on the first candidate point cloud NPO, and the GEN1 generation of the first image 411 from the reflected light rays simulated and the simulation of their detection by the photodetectors.
- a second image 421 is generated in the same way on the basis of a SIM2 simulation from said second emission pattern P2 and the same first candidate point cloud.
- a plurality of light intensity maps are generated based on a plurality of light patterns
- a plurality of images are generated, each of these images is generated in the same manner based on a simulation from a different emission pattern.
- the first construction function FCT1 optionally includes a comparison step.
- the COMP1 comparison includes the comparison of the generated image 411 with the acquired light intensity map 41.
- the comparison COMP1 includes the comparison of the image generated 411 from the first emission pattern P1 used to acquire the first light intensity map 421.
- the comparison COMP1 comprises the generation of a comparison indicator V1.
- the comparison indicator V1 is generated according to said comparison operation.
- the comparison comprises the comparison of the intensities of each pixel of the generated image 421 with that of the corresponding pixels of the acquired light intensity map 41.
- a second comparison COMP2 is carried out between said second light intensity map 42 and the second image generated from the second emission pattern P2.
- a second comparison indicator V2 is thus generated.
- a single comparison indicator V0 is generated as a function of the first V1 and the second comparison V2.
- the first construction function FCT1 may include a plurality of comparisons. Each comparison comprises the comparison of an acquired light intensity map with an image generated from the same emission pattern as that used for the acquisition of said light intensity map.
- the result V1, V2 of the comparison step(s) is then used to carry out a step of minimizing said result.
- Said result may include the comparison indicator(s).
- the generated image(s) 422, 421 are considered sufficiently close to the acquired light intensity maps and the candidate point cloud is considered as being sufficiently close to reality.
- the construction function FCT1 generates a point cloud NP1 of said object 10 equal to the candidate point cloud NPO.
- the generated point cloud NP1 is a function of the candidate point cloud NPO and the result of the comparison V1.
- a step of minimizing the result V1 of the comparison is preferably carried out.
- the minimization includes the selection of a new candidate point cloud Anp.
- a new SIM11 simulation step and GEN11 generation of an image 412 are carried out in the same way as described previously, this time on the basis of the new candidate point cloud Anp.
- a new comparison step COMP11 is then carried out by comparing said new image 412 generated and the light intensity map 41 acquired with the same emission pattern P1.
- a new result of the comparison V11 is generated from the new comparison step COMP11.
- a new loop selection of a new candidate point cloud, simulation, generation of a new image, comparison between the new image and the mapping of acquired light intensity
- the selection of a new candidate point cloud Anp depends on the result of the previous comparison.
- the step of minimizing the comparison result is carried out by varying the candidate point cloud NPO, Anp.
- the minimization step includes a gradient descent step.
- the selection of a new candidate point cloud Anp can be carried out in such a way that the variation between the new candidate point cloud Anp and the previous candidate point cloud NPO is a function of the difference between the result of the comparison and the predetermined target value.
- the gradient descent method therefore iteratively generates new candidate point clouds Anp to minimize the result of the comparison function between the image generated from a candidate point cloud and the light intensity mapping acquired.
- the gradient descent method therefore iteratively generates new candidate point clouds Anp to minimize the result of the comparison function between each generated image and the light intensity mapping acquired from the same emission pattern.
- the point cloud NP1 of the object 10 is generated according to the candidate point cloud for which the comparison function has respectively reached the target value or said extremum.
- the first NPO candidate point cloud is selected from a pre-recorded point cloud.
- the first predetermined point cloud is generated from a (preferably the last) point cloud NP1 of the object generated by the second method or by the construction function FCT1 previously, preferably during the period of previous time. Indeed, if the object 10 has moved only slightly between the two successive acquisitions or between two successive periods of time, we can consider that the last cloud of points NP1 can serve as a basis for the generation of the new cloud of points NP2 .
- the first cloud of candidate points NPO is generated according to the shape of the object 10 and/or its spatial coordinates determined by the first method according to the invention.
- second construction function in which said second construction function is a learning function or is implemented by means of such a learning function.
- the learning function is preferentially trained by a series of light intensity maps.
- the learning function was configured from learning comprising the submission of a plurality of light intensity maps (optionally acquired by a device similar to the electronic device according to the invention), each intensity map light being associated with a first label representing a cloud of points representing the object 10 having made it possible to obtain said light intensity mapping.
- the label may also include information characteristic of the acquisition method which made it possible to obtain the associated light intensity mapping.
- the first label may include information representing the emission pattern used for the acquisition of said light intensity map. This information can alternatively be included in a second label associated with each light intensity map.
- the step of generating a point cloud NP1 of the object 10 comprises the generation of a correspondence score for a plurality of candidate point clouds.
- the match score may include a probability that the candidate point cloud is compatible with the acquired light intensity mapping.
- the execution of the second construction function then includes the selection of the candidate point cloud for which the correspondence score is the best.
- the learning function generates a cloud of points NP1 for each set of light intensity maps acquired, preferably in real time.
- the second construction function is implemented by means of a neural network trained by a series of sets of labeled light intensity maps.
- the advantage of such a second construction function is that it allows the generation of a cloud of NP1 points of the object from training using labeled light intensity maps.
- the neural network is a convolutional neural network, called CNN or Convet.
- the configuration of the CNN neural network may include:
- the configuration of the CNN neural network includes as input(s) light intensity maps acquired or received or stored in a memory.
- each light intensity map acquired or received is associated with the emission pattern used for its acquisition.
- the CNN neural network can include convolutions in its first layers and then layers of fully connected neurons, called “fully connected layers” at the end of the model. In the latter case, these are neurons connected to all the neurons of the previous layer and connected to all those of the next layer.
- the convolution layers may include a scan of an input matrix producing a series of matrix calculations.
- the other layers of the neural network generally include matrix calculations based on the size of the input matrix.
- each convolution includes a matrix product between an input matrix and a weight matrix and the consideration of an additional bias.
- Applying layered processing within the CNN neural network involves applying a series of matrix multiplications which are followed by a non-linear function to produce an output of said layer.
- the succession of these operations defines the depth of the neural network.
- the neural network is a multi-layer perceptron, known by the acronym MLP and in English terminology by “multi-layers perceptron”.
- the neural network may be a network equivalent to the MLP.
- the neural network is a recurrent neural network.
- the architecture of the neural network is a long-short-term memory (known by the acronym “LSTM” for “Long Short-Therm Memory” in English). This type of architecture has feedback connections.
- An LSTM unit may include a cell, an input gate, an output gate, and a forget gate. The three gates regulate the flow of information into and out of said cell.
- the neural network can be an equivalent to LSTM.
- the neural network is a convolutional neural network of the “U-NET” type, that is to say a network based on an entirely conventional architecture.
- This type of neural network is particularly advantageous for performing precise image segmentation and for operating with less training data.
- a cell of the neural network receives first input data and generates first output data.
- the first input and output data are then recorded in a memory (preferably a non-transient memory).
- a memory preferably a non-transient memory.
- new output data is generated.
- This new output data can be generated by function of the new input data and the data recorded in the memory (i.e. the first input data and previous output data).
- cell we also mean a layer or a block of a neural network.
- each time output data is generated said output data and the input data used to generate them are time-stamped before being recorded in the memory.
- the recurrent neural network upon receiving new input data, generates new output data based on the new input data and based on the recorded data and its timestamp.
- An advantage is to improve the speed and precision of the output data (for example, of the generated NP1 point cloud). Indeed, when generating a point cloud in real time, we can assume that the shape and position of object 10 are very close to those of the previous iteration. Such a neural network advantageously improves the calculation speed and the precision of the generated point cloud NP1.
- each acquired light intensity map is time-stamped.
- the timestamp can be used by the build function to generate an NP1 point cloud with a generated point cloud whose timestamp is closest to the timestamp of the acquired light intensity mapping.
- the third construction function includes the use of a database of acquired light intensity maps.
- said database is recorded on a computer-readable medium such as a memory, preferably a non-transient memory.
- each light intensity map in the database is associated with a label comprising a candidate point cloud having been used for the acquisition of said associated light intensity map.
- each light intensity map in the database is associated with a second label comprising information representing the emission pattern used for the acquisition of said associated light intensity map.
- the implementation of the third construction function includes receiving the acquired light intensity map 41 and its associated emission pattern P1 and/or receiving the set of acquired light intensity maps.
- the implementation of the third function may include a comparison of the acquired light intensity mapping with the light intensity maps of the database associated with the same emission pattern as the acquired light intensity mapping.
- a match score can be calculated for each comparison made and the light intensity map from the database with the best match score can be selected.
- the point cloud NP1 can then be generated according to the candidate point cloud associated with said light intensity mapping of the selected database.
- the light intensity maps acquired from the database are grouped into groups of light intensity maps.
- each group includes light intensity maps sharing the same candidate point cloud.
- each acquired light intensity map is compared with the light intensity map of the group in the database associated with the same emission pattern as the acquired light intensity map.
- a correspondence score is calculated for each light intensity mapping group in the database.
- the correspondence score can be a function of the comparison of each acquired light intensity map.
- the group of light intensity maps from the database can then be selected.
- the point cloud NP1 can then be generated according to the candidate point cloud associated with the group of light intensity maps of the selected database. It is understood that each mode of the construction function described above can be adapted to generate at least one point representative of the position of the object 10.
- the invention relates to a method for tracking the movement of an object 10 placed in front of the detection surface 2.
- Said tracking method comprises a first generation of a cloud of points NP1 of said object 10 in front of the detection surface 2.
- a cloud of points NP1 of said object 10 in front of the detection surface 2.
- at least one of the methods described above is used for the acquisition of such a cloud of points NP1 .
- the method comprises a second generation of a second cloud of points NP2 of said object 10.
- at least one of the methods described above is used for the acquisition of such a cloud of points NP2.
- the first point cloud NP1 is preferably generated from at least one light intensity map acquired on the first date.
- the second point cloud NP2 is preferably generated from at least one light intensity map acquired on a second date different from the first date, preferably later than the first date.
- each point cloud NP1, NP2 is generated from a set of at least two light maps, each acquired from a different emission pattern.
- the method comprises the acquisition of light intensity maps continuously and the generation of point clouds NP1, NP2 in real time from said acquired light intensity maps.
- the method comprises the acquisition of a light intensity map or a set of light intensity maps as described above at a frequency greater than or equal to 100 per second.
- Point cloud processing
- a movement parameter IC can be generated.
- a calculator of the electronic device 1 comprises software means for implementing a point cloud processing step NP1, NP2 of the object 10.
- a calculator of the electronic device makes it possible to detect simple movements and/or simple positions and/or speeds of movement of the hand. This is the case for simple movements, for example of an arm going from left to right or up and down in relation to detection surface 2.
- the calculator of the electronic device is configured to detect hand postures, finger movements or complex gestures comprising a sequence of linked movements.
- the enriched embodiment may also include detection according to the simplified mode. The two embodiments can be combined.
- the processing of the generated point cloud NP1, NP2 results in the generation of an image comprising at least points of interest of the user.
- the electronic device comprises a module for processing the generated point clouds.
- the processing module generates at least a second image or a second point cloud comprising points of interest or regions of interest extracted from the generated point cloud. This could be, for example, the end of a limb such as the ends of the fingers, points of articulation, shape contours, etc.
- a movement parameter can be generated 400.
- the determination of a movement parameter IC comprises the detection of at least one type of movement of a user from the point clouds NP1, NP2 of the object 10 generated.
- the detection of a type of movement of a user comprises a detection of a movement of the hand of a user.
- the detection of a movement is carried out from the point clouds NP1, NP2 of the object 10 generated by the electronic device 1.
- NP1, NP2 of the object 10 By “from the generated point clouds NP1, NP2 of the object 10", we include here the raw point clouds NP1, NP2 as they were generated by the electronic device 1 as well as 3D images generated by the processing of these point clouds, for example from the generation of points of interest. We also include any two-dimensional image or depth map.
- the different types of movement are listed in a library.
- the computer can then carry out a fitting operation or an analytical regression operation to determine a particular type of movement from the captured images.
- Figures 13A to 131 illustrate examples of types of hand movements. These types of movements are recognizable by a computer.
- the calculator generates a movement parameter IC from the type of movement detected.
- Examples of types of hand movement may include a closed fist wrist rotation movement (Figure 13B), a rotation of the hand along a longitudinal axis of the forearm (Figure 13E), along an axis a perpendicular to the longitudinal axis of the forearm ( Figure 13D and Figure 13F).
- Another example of a type of movement may include a transverse movement of the hand ( Figures 131, 13H and 13G) relative to the detection surface 2, that is to say a movement having a non-zero component in a parallel direction at the plane of the detection surface 2.
- the type of movement may also depend on the position and/or movement of the finger joints. For example, the type of movement may be different if the wrist rotation gesture is performed with an open hand or a closed hand. Certain types of movements can be associated with known gestures of personalities in the musical world or in the audiovisual world. Another example of the type of movement illustrated in Figure 13A may include closing the fingers of the hand with the fingers extended. Another example type of movement may include an oscillation of the hand so as to reproduce the movement of a wave, as shown in Figure 13C.
- the type of movement can also depend on the direction of the gesture.
- a translation movement gesture of the hand can be discriminated as a function of the plane and/or the direction of translation.
- the translation is carried out along the axis perpendicular to the palm of the hand.
- Figure 13H and Figure 131 illustrate a translation movement of the hand in the same plane parallel to the plane of the detection surface.
- wrist rotation can be detected in-plane.
- the movement parameter IC also includes the determination of the speed and/or amplitude of the movement.
- the movement parameter IC is determined at least from the difference between two clouds of points acquired successively. In another embodiment, the movement parameter IC is determined at least from the difference between points of interest and/or regions of interest between at least two point clouds generated successively.
- the movement parameter IC is calculated from the coordinates of the object 10 calculated by the method according to the first aspect of the invention, that is to say from its spatial coordinates X1 , Y1, Z1 relative to the detection surface 2.
- the movement parameter IC is calculated from the variation of the spatial coordinates X1, Y1, Z1 of the object 10 between at least two acquisitions.
- the movement parameter IC is calculated from a single point cloud NP1.
- the movement parameter is calculated from the overall shape of said cloud of points. For example, a particular predetermined arrangement of the fingers relative to the palm of the hand can be detected from the points of the point cloud NP1 and the movement parameter is then calculated based on the detected arrangement.
- the movement parameter IC is calculated directly from the estimate of the shape of the object 10 determined.
- the shape of the object 10 can be determined from at least one acquired light intensity map.
- light intensity mapping segmentation is implemented to identify the overall shape of the object.
- the segmentation of the acquired light intensity mapping generates the position of at least a first finger in relation to the palm of the hand or in relation to a second finger.
- the movement parameter IC is then generated as a function of said generated relative position.
- the electronic device may include a display screen.
- a movement parameter IC can control the display of said screen.
- the screen display includes the display of a pointer and the movement of said pointer is controlled from the detected movement parameters.
- the device can be configured so that the detection of a type of predetermined movement of the hand causes a movement of the pointer or the selection of a digital object on which the pointer is positioned.
- the electronic device can be configured so that the detection of a predetermined movement parameter triggers the control of an enlargement (“zoom”) or shrinkage (“zoom out”) function of a digital object. displayed on the screen.
- An advantage is to allow control of the screen display interface through hand movements without the need to touch the screen, thus providing a real alternative to traditional touch screens.
- the electronic device can be configured to display on a screen 3 a user interface S3, S2, S1.
- a user interface may include control areas 140 (such as virtual buttons) which, if selected, activate the launch of a pre-recorded program (launching an application, turning off the device, increasing the volume , ... ).
- control areas 140 such as virtual buttons
- a plurality of user interfaces S1, S2, S3 are pre-recorded in a memory of the electronic device 1.
- a user interface S2 is selected to be displayed on the screen 3 of the electronic device.
- each pre-recorded user interface S1, S2, S3 is associated with a predetermined distance M1, M2, M3.
- the determined distance Z1 between the detection surface 2 and the object 10 is compared to said predetermined distances M1, M2, M3. For example, a user interface whose associated predetermined distance is closest to distance Z1 is selected. Once selected, the S2 user interface is displayed on screen 3 of the electronic device.
- each user interface is associated with a predetermined distance and a predetermined movement parameter.
- the selection of an interface is carried out as a function of the determined distance Z1 between the detection surface 2 and the object 10 and as a function of the movement parameter generated by the method according to the invention described previously.
- a first advantage is to allow control of the screen display interface by hand movements without the need to touch the screen, thus providing a real alternative to traditional touch screens.
- a second advantage is to allow the user to navigate more quickly and easily between different user interfaces by simply varying the distance between their finger and the detection surface.
- the invention relates to a method of displaying a user interface on the screen of an electronic device according to the invention.
- Said method comprises determining a distance Z1 between the detection surface 2 of the electronic device and an object 10; providing a database in which a plurality of different user interfaces are recorded, each user interface being associated with a predetermined distance different from the others.
- the user interface to be displayed is selected by comparison between the determined distance Z1 and the predetermined distances associated with the user interfaces pre-recorded.
- the method finally includes displaying the selected user interface.
- the method further comprises determining a movement parameter IC and each pre-recorded user interface is associated with a combination of a predetermined distance and a movement parameter.
- the user interface to be displayed is selected by comparison between the determined distance Z1 and the movement parameter IC generated according to the invention and the combination associated with each pre-recorded user interface.
- the movement parameter may be replaced by a pose parameter.
- the pose parameter can be determined from a generated NP1 point cloud.
- the pose parameter can be generated from the shape of the NP1 point cloud and/or its orientation.
- the device according to the invention comprises at least one calculation unit.
- the at least one calculation unit 11, 12, 13, 14 is in communication with the photodetectors 31 and/or with the photoemitters. This communication advantageously allows the calculation unit to process the signals generated by the photodetectors 33 to process the measurements made by these photodetectors. This communication also advantageously makes it possible to control the activation of the photoemitters 31. By activation is meant the switching on or off of a photoemitter, that is to say the emission or not of light by the photodetector.
- at least one calculation unit 11, 12, 13, 14 is connected to the means for controlling the photoemitters and/or is connected to means for recording the signals generated by the photodetectors.
- each calculation unit includes a calculator.
- the electronic device comprises one or more computers comprising the calculation units 11, 12, 13, 14.
- the electronic device 1 may include a calculation system 100, an example of which is illustrated in Figure 12.
- the calculation system may include the different units 11, 12, 13, 14 described.
- the calculation system may comprise one or more computers 11, 12, 13, 14 interacting with a computer program product, in particular to implement any of the methods according to the invention described above.
- the system 100 is a computer, for example, a microcomputer, a computer network, an electronic component, a tablet, a smartphone or a personal digital assistant (PDA).
- a computer for example, a microcomputer, a computer network, an electronic component, a tablet, a smartphone or a personal digital assistant (PDA).
- PDA personal digital assistant
- the system 100 comprises a calculation module 110.
- This calculation module 110 comprises, for example, one or more processors capable of interpreting instructions in the form of a computer program, a programmable logic circuit, such as an application-specific integrated circuit (ASIC ), an in situ programmable gate array (FPGA), a programmable logic device (PLD) and/or programmable logic arrays (PLA), a system on chip (SOC), an electronic card in which steps of the method according to The invention is implemented in hardware elements.
- ASIC application-specific integrated circuit
- FPGA in situ programmable gate array
- PLD programmable logic device
- PDA programmable logic arrays
- SOC system on chip
- the processing may be executed by a processor, simultaneously or sequentially, or by another method, by one or more processors.
- the calculation module 110 comprises a data processing module 111 for carrying out calculations, a memory 112, operationally coupled to the data processing circuit 111, a computer-readable medium 114 and possibly a reader 113 adapted to read the computer-readable medium. computer 114.
- the system 100 also includes an input device, an output device, and a communication device.
- Each function of the system 100 is executed by causing the data processing module 111 to read a predetermined program on hardware such as the memory 112 such that the data processing module 111 executes calculations, controls communications carried out by the electronic device 1 and reading and/or writing data in the memory 112 and the computer readable medium 114.
- a predetermined program on hardware such as the memory 112 such that the data processing module 111 executes calculations, controls communications carried out by the electronic device 1 and reading and/or writing data in the memory 112 and the computer readable medium 114.
- the method(s) according to the invention are executed on a single computer or on a system distributed between several computers (in particular via the use of cloud computing).
- the memory 112 is a computer-readable recording medium, and can be configured with, for example, at least one of the following elements: a read-only memory (ROM), a read-only memory erasable and programmable (EPROM, from English Erasable Programmable Read-Only Memory), a programmable and electrically erasable read-only memory (EEPROM, from English Electrically Erasable Programmable Read-Only Memory), a random access memory (RAM, from English Random Access Memory) and another suitable storage medium.
- ROM read-only memory
- EPROM read-only memory erasable and programmable
- EEPROM programmable and electrically erasable read-only memory
- RAM random access memory
- Memory 112 can include an operating system and load programs according to the invention. It includes registers suitable for recording parameter variables created and modified during the execution of the aforementioned programs.
- the program product may include computer readable recording media 114 which is a tangible device, not being a transient signal per se, may be configured with, for example, at least one of the following: removable media, such as for example, in a non-limiting manner, a magneto-optical disc (for example, a read-only compact disc (CD-ROM, from English Compact Disc Read-Only Memory), a versatile digital disc or DVD (from English Digital Versatile Disc), a removable disk, a hard disk drive, a smart card, a flash memory device (e.g., a card, a key), a magnetic tape, a database, a server, and another suitable storage medium.
- removable media such as for example, in a non-limiting manner, a magneto-optical disc (for example, a read-only compact disc (CD-ROM, from English Compact Disc Read-Only Memory), a versatile digital disc or DVD (from English Digital Versatile Disc), a removable disk, a hard disk drive, a smart card, a flash
- program instructions are taken from an external source and downloaded over a network.
- the computer program product comprises a computer-readable data carrier on which the program instructions are stored or a data carrier signal on which the program instructions are encoded.
- a computer program product includes computer readable media 114 containing instructions which, when executed by circuit 110, cause the device electronic 1 to implement the steps of one or more methods according to the invention.
- the form of the program instructions is, for example, a source code form, a computer executable form or any intermediate form between a source code and a computer executable form, such as the form resulting from the conversion of the source code via a interpreter, assembler, compiler, linker or locator.
- the program instructions are microcode, firmware instructions, state definition data, integrated circuit configuration data (e.g. VHDL), or object code.
- Program instructions are written in any combination of one or more programming languages, for example, object-oriented programming language (C++, JAVA, Python), procedural programming language (C language for example).
- the system 100 further comprises a user interface 120 comprising an input device 121 and an output device 122.
- the user interface 120 includes an input device 121 to allow the user to enter data or commands so as to be able to interact with the programs according to the invention.
- the input device 121 includes, for example, a keyboard or a pointing interface, such as a mouse, an optical pencil, a touchpad, a remote control, a voice recognition device, a haptic device.
- the output device 122 is designed to return information to a user, sensory or electrical, such as, for example, visually or audibly.
- the output device 122 may include the screen of the electronic device 1.
- the output interface 122 includes, for example, a graphical interface.
- the output interface 122 can be the input device, for example, in the case of a touchscreen tablet.
- the set of at least one communication device allows communication between the elements of the system 100 and possibly between at least one element of the system and a device external to the system 100.
- This communication device can establish a physical link between elements of the system. system 100 and/or between an element of the system 100 and a device external to the system 100 and/or a remote (wireless) communication link between elements of the system 100 and/or between an element of the system and a device external to the system 100.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
The invention relates to an electronic device (1) comprising a detection surface, in particular for detecting an object (10) in the near field (2), comprising: a substrate; a plurality of photoemitters separated from one another on the substrate; a plurality of photodetectors, at least some of these photodetectors being disposed between the photoemitters on the substrate and computation means for determining the distance between the object and the detection surface.
Description
Description Titre : DISPOSITIF ET PROCEDE DE DETECTION D’UN OBJET AU- DESSUS D’UNE SURFACE DE DETECTION Description Title: DEVICE AND METHOD FOR DETECTING AN OBJECT ABOVE A DETECTION SURFACE
Domaine de l’invention Field of the invention
L’invention concerne un dispositif électronique pour la détection d’un objet en champ proche devant une surface de détection. L’invention concerne également une méthode pour la détection d’un tel objet. The invention relates to an electronic device for detecting an object in the near field in front of a detection surface. The invention also relates to a method for detecting such an object.
État de la technique State of the art
Il existe aujourd’hui des dispositifs de détection d’un objet ou plusieurs objets basés sur l’utilisation d’optiques. Today there are devices for detecting an object or several objects based on the use of optics.
Par exemple, le document FR3103341 décrit l’utilisation d’un appareil tel qu’une caméra ou une caméra de profondeur pour détecter une main d’un utilisateur ou la reconnaissance d’un geste de la main. For example, document FR3103341 describes the use of a device such as a camera or depth camera to detect a user's hand or the recognition of a hand gesture.
Un inconvénient de ce genre de dispositif est que le cône de détection ou d’un champ de vue d’une telle caméra est étroit et défini par sa lentille optique. Par conséquent, ce type de dispositif n’est pas adapté pour la détection d’un objet en champ proche, c’est-à-dire à une hauteur presque nulle par rapport au dispositif de détection. A disadvantage of this type of device is that the detection cone or field of view of such a camera is narrow and defined by its optical lens. Consequently, this type of device is not suitable for detecting an object in the near field, that is to say at almost zero height relative to the detection device.
Pour résoudre cet inconvénient, le document EP2843509 décrit un dispositif comprenant une bordure périphérique d’un écran permettant d’estimer les coordonnées d’un objet au-dessus de l’écran. To resolve this drawback, document EP2843509 describes a device comprising a peripheral border of a screen making it possible to estimate the coordinates of an object above the screen.
Cependant, un inconvénient de ce dispositif est qu’il n’est pas assez précis pour déterminer avec précision la coordonnée de hauteur de l’objet à détecter (ou sa distance par rapport à l’écran). However, a drawback of this device is that it is not precise enough to accurately determine the height coordinate of the object to be detected (or its distance from the screen).
Un autre inconvénient est que ce dispositif, par l’emplacement des photodétecteurs en périphérie et leur faible angle de détection, ne permet pas de détecter un objet proche du centre de l’écran. Another disadvantage is that this device, due to the location of the photodetectors on the periphery and their low detection angle, does not make it possible to detect an object close to the center of the screen.
L’objet de l’invention est donc de proposer un dispositif et une méthode permettant de détecter avec précision des objets en champ proches d’une surface de détection. The object of the invention is therefore to propose a device and a method making it possible to precisely detect objects in the field close to a detection surface.
Résumé de l’invention
Selon un premier aspect, l’invention concerne un dispositif électronique comprenant : Summary of the invention According to a first aspect, the invention relates to an electronic device comprising:
■ une surface de détection, notamment de détection de champ proche comprenant : o optionnellement un substrat ; o une pluralité de photoémetteurs, les photoémetteurs étant séparée les uns des autres, par exemple sur ledit substrat ; o une pluralité de photodétecteurs, au moins une partie de ces photodétecteurs étant disposés chacun entre deux photoémetteurs, par exemple sur le substrat ; ■ a detection surface, in particular near field detection comprising: o optionally a substrate; o a plurality of photoemitters, the photoemitters being separated from each other, for example on said substrate; o a plurality of photodetectors, at least part of these photodetectors each being arranged between two photoemitters, for example on the substrate;
■ une première unité d’acquisition connectée à la pluralité de photodétecteurs et à la pluralité de photoémetteurs comprenant des moyens adaptés pour l’exécution des étapes suivantes : o la génération d’une émission par la commande de l’allumage des photoémetteurs ; o l’acquisition d’une cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur ; ■ a first acquisition unit connected to the plurality of photodetectors and to the plurality of photoemitters comprising means adapted for carrying out the following steps: o generating an emission by controlling the ignition of the photoemitters; o the acquisition of a light intensity map according to the position and the light intensity received by each photodetector;
■ une seconde unité de détection d’un objet placé devant la surface de détection comprenant des moyens adaptés pour la détermination d’une distance entre ledit objet et ladite surface de détection. ■ a second unit for detecting an object placed in front of the detection surface comprising means adapted for determining a distance between said object and said detection surface.
Dans un mode de réalisation, la seconde unité de détection comprend des moyens adaptés pour la détermination d’une distance entre ledit objet et ladite surface de détection par l’exécution des étapes suivantes : In one embodiment, the second detection unit comprises means adapted for determining a distance between said object and said detection surface by executing the following steps:
■ la sélection d’une pluralité de fonction d’étalement du point, chaque fonction d’étalement du point étant caractéristique d’une hauteur prédéterminée ; ■ selecting a plurality of point spread functions, each point spread function being characteristic of a predetermined height;
■ la réalisation d’une déconvolution de la cartographie d’intensité lumineuse acquise par chaque fonction d’étalement du point sélectionnée ; ■ carrying out a deconvolution of the light intensity mapping acquired by each selected point spreading function;
■ pour chaque déconvolution, le calcul d’un score de cohérence ; ■ for each deconvolution, the calculation of a coherence score;
■ la détermination de la distance dudit objet avec la surface de détection à partir de la hauteur prédéterminée de la fonction
d’étalement du point ayant permis d’obtenir la déconvolution ayant obtenu le meilleur score de cohérence. ■ determining the distance of said object with the detection surface from the predetermined height of the function spreading of the point which made it possible to obtain the deconvolution having obtained the best coherence score.
Dans un mode de réalisation, la seconde unité de détection comprend des moyens adaptés pour la détermination d’une distance entre ledit objet et ladite surface de détection par l’exécution des étapes suivantes : In one embodiment, the second detection unit comprises means adapted for determining a distance between said object and said detection surface by executing the following steps:
■ la sélection d’une pluralité de fonctions d’étalement du point, chaque fonction étant caractéristique d’une hauteur prédéterminée ; ■ the selection of a plurality of point spread functions, each function being characteristic of a predetermined height;
■ pour chaque fonction de la pluralité de fonctions, le calcul d’un score de cohérence à partir de la cartographie d’intensité lumineuse, ■ for each function of the plurality of functions, calculating a coherence score from the light intensity mapping,
■ la détermination de la distance dudit objet avec la surface de détection à partir de la hauteur prédéterminée de la fonction ayant permis d’obtenir le meilleur score de cohérence. ■ determining the distance of said object with the detection surface from the predetermined height of the function having made it possible to obtain the best coherence score.
Dans un mode de réalisation, le calcul du score de cohérence comprend : In one embodiment, the calculation of the consistency score includes:
■ la réalisation d’une déconvolution de la cartographie d’intensité lumineuse acquise par chaque fonction sélectionnée ; ■ carrying out a deconvolution of the light intensity mapping acquired by each selected function;
■ pour chaque déconvolution, le calcul d’un score de cohérence. ■ for each deconvolution, the calculation of a coherence score.
Un avantage d’un tel dispositif électronique est d’autoriser la détection d’un objet, sans être freiné par l’angle de détection. Il est par conséquent possible de détecter un objet en champ proche ou à courte distance d’une surface étendue, ce qui n’est pas possible avec une optique ou une caméra de profondeur traditionnelle. An advantage of such an electronic device is to allow the detection of an object, without being hampered by the detection angle. It is therefore possible to detect an object in the near field or at short distance from a large surface, which is not possible with traditional optics or depth cameras.
Dans un mode de réalisation, le calcul d’un score de cohérence comprend l’application d’une transformée de la déconvolution de la cartographie d’intensité lumineuse acquise et/ou de la cartographie d’intensité lumineuse acquise. La seconde unité peut comprendre des moyens adaptés pour l’application d’une telle transformée. Dans un mode de réalisation, l’application d’une transformée comprend l’application d’une transformée de Fourier ou d’une transformée de Laplace. In one embodiment, calculating a coherence score includes applying a transform of the deconvolution of the acquired light intensity map and/or the acquired light intensity map. The second unit may include means adapted for the application of such a transform. In one embodiment, applying a transform includes applying a Fourier transform or a Laplace transform.
Dans un mode de réalisation, la seconde unité comprend également des moyens pour exécuter une étape d’estimation de la forme de l’objet dans un plan parallèle au plan de la surface de détection à partir de la
cartographie d’intensité lumineuse acquise et/ou à partir de la déconvolution ayant obtenu le meilleur score. In one embodiment, the second unit also comprises means for executing a step of estimating the shape of the object in a plane parallel to the plane of the detection surface from the light intensity mapping acquired and/or from the deconvolution having obtained the best score.
Dans un mode de réalisation, la seconde unité comprend également des moyens pour exécuter une étape de détermination des coordonnées spatiales de l’objet dans un plan parallèle au plan de la surface de détection, par exemple à partir de la déconvolution ayant obtenu le meilleur score. In one embodiment, the second unit also comprises means for executing a step of determining the spatial coordinates of the object in a plane parallel to the plane of the detection surface, for example from the deconvolution having obtained the best score .
Dans un mode de réalisation, la surface de détection comprend un écran d’affichage. Préférentiellement, l’écran d’affichage est formé par la pluralité de pixels et les photoémetteurs et photodétecteurs sont distribués entre lesdits pixels. Dans un mode de réalisation, les pixels de la pluralité de pixels comprennent chacun au moins une source de lumière visible, préférentiellement des sources de lumière RGB, et dans lequel les photoémetteurs sont conçus pour émettre une lumière infrarouge et les photodétecteurs sont conçus pour détecter une intensité lumineuse dans le domaine de l’infrarouge. In one embodiment, the detection surface includes a display screen. Preferably, the display screen is formed by the plurality of pixels and the photoemitters and photodetectors are distributed between said pixels. In one embodiment, the pixels of the plurality of pixels each comprise at least one visible light source, preferably RGB light sources, and in which the photoemitters are designed to emit infrared light and the photodetectors are designed to detect an infrared light. light intensity in the infrared region.
Dans un mode de réalisation, la première unité comprend des moyens pour exécuter l’étape d’acquisition d’une cartographie d’intensité lumineuse de manière à ce que ladite étape d’acquisition comprend une étape de mesure, par chaque photodétecteur, de l’intensité lumineuse émise par les photoémetteurs et réfléchie par au moins un objet placé devant la surface de détection. In one embodiment, the first unit comprises means for executing the step of acquiring a light intensity map so that said acquisition step includes a step of measuring, by each photodetector, the light intensity emitted by the photoemitters and reflected by at least one object placed in front of the detection surface.
Dans un mode de réalisation, le dispositif électronique comprend une couche de recouvrement recouvrant la pluralité de photoémetteurs et la pluralité de photodétecteurs, ladite couche de recouvrement étant transparente aux rayons émis par les photoémetteurs. In one embodiment, the electronic device comprises a covering layer covering the plurality of photoemitters and the plurality of photodetectors, said covering layer being transparent to the rays emitted by the photoemitters.
Dans un mode de réalisation, le score de cohérence est calculé en fonction d’un critère de netteté de l’image obtenue par la déconvolution de la cartographie d’intensité lumineuse acquise. In one embodiment, the coherence score is calculated based on a sharpness criterion of the image obtained by the deconvolution of the acquired light intensity mapping.
L’invention concerne également une méthode d’utilisation d’un dispositif électronique comprenant les étapes suivantes : The invention also relates to a method of using an electronic device comprising the following steps:
■ la génération d’une émission par la commande de l’allumage des photoémetteurs ;
■ l’acquisition d’une cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur ; ■ generating an emission by controlling the ignition of the photoemitters; ■ the acquisition of a light intensity map as a function of the position and the light intensity received by each photodetector;
■ la sélection d’une pluralité de fonction d’étalement du point, chaque fonction d’étalement du point étant caractéristique d’une hauteur prédéterminée ; ■ selecting a plurality of point spread functions, each point spread function being characteristic of a predetermined height;
■ la réalisation d’une déconvolution de la cartographie d’intensité lumineuse acquise par chaque fonction d’étalement du point sélectionnée ; ■ carrying out a deconvolution of the light intensity mapping acquired by each selected point spreading function;
■ pour chaque déconvolution, le calcul d’un score de cohérence ; ■ for each deconvolution, the calculation of a coherence score;
■ la détermination de la distance dudit objet avec la surface de détection à partir de la hauteur prédéterminée de la fonction d’étalement du point ayant permis d’obtenir la déconvolution ayant obtenu le meilleur score de cohérence. ■ determining the distance of said object with the detection surface from the predetermined height of the point spreading function which made it possible to obtain the deconvolution having obtained the best coherence score.
Selon un second aspect, l’invention concerne un dispositif électronique comprenant : According to a second aspect, the invention relates to an electronic device comprising:
■ une surface de détection, notamment pour la détection d’un objet en champ proche comprenant : o optionnellement un substrat ; o une pluralité de photoémetteurs séparés les uns des autres, par exemple sur ledit substrat ; o une pluralité de photodétecteurs, au moins une partie de ces photodétecteurs étant disposés entre lesdits photoémetteurs, par exemple sur le substrat ; ■ a detection surface, in particular for the detection of an object in the near field comprising: o optionally a substrate; o a plurality of photoemitters separated from each other, for example on said substrate; o a plurality of photodetectors, at least part of these photodetectors being arranged between said photoemitters, for example on the substrate;
■ une première unité d’acquisition d’une cartographie d’intensité lumineuse connectée à la pluralité de photoémetteurs et à la pluralité de photodétecteurs comprenant des moyens adaptés pour exécuter les étapes suivantes : o la génération d’un premier motif d’émission par la commande de l’allumage d’un premier ensemble de photoémetteurs de la surface de détection ; o l’acquisition d’une première cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur lors de la génération du premier motif d’émission.
Dans un mode de réalisation, le dispositif comprend une seconde unité de génération d’un nuage de point dudit objet placé devant la surface de détection comprenant des moyens pour l’exécution d’une fonction de construction permettant de générer un nuage de point final dudit objet à partir du premier motif d’émission et de la première cartographie d’intensité lumineuse acquise. ■ a first unit for acquiring a light intensity map connected to the plurality of photoemitters and to the plurality of photodetectors comprising means adapted to execute the following steps: o generating a first emission pattern by the controlling the ignition of a first set of photoemitters of the detection surface; o the acquisition of a first light intensity map as a function of the position and the light intensity received by each photodetector during the generation of the first emission pattern. In one embodiment, the device comprises a second unit for generating a point cloud of said object placed in front of the detection surface comprising means for executing a construction function making it possible to generate a final point cloud of said object from the first emission pattern and the first acquired light intensity mapping.
Dans un mode de réalisation, le dispositif comprend une seconde unité de génération d’au moins un point dudit objet placé devant la surface de détection comprenant des moyens pour l’exécution d’une fonction de construction permettant de générer au moins un point final dudit objet à partir du premier motif d’émission et de la première cartographie d’intensité lumineuse acquise. In one embodiment, the device comprises a second unit for generating at least one point of said object placed in front of the detection surface comprising means for executing a construction function making it possible to generate at least one end point of said object from the first emission pattern and the first acquired light intensity mapping.
Dans un mode de réalisation, la première unité et/ou la seconde unité comprend des moyens pour l’exécution des étapes suivantes : In one embodiment, the first unit and/or the second unit comprises means for carrying out the following steps:
• la génération d’un second motif d’émission par la commande de l’allumage d’un second ensemble de photoémetteurs différent du premier ensemble ; • the generation of a second emission pattern by controlling the ignition of a second set of photoemitters different from the first set;
• l’acquisition d’une seconde cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur de la surface de détection lors de la génération du second motif d’émission ; • the acquisition of a second light intensity map as a function of the position and the light intensity received by each photodetector of the detection surface during the generation of the second emission pattern;
Dans un mode de réalisation, la génération du au moins un point final dudit objet est réalisée à partir du premier motif d’émission, de la première cartographie d’intensité lumineuse acquise, du second motif d’émission et de la seconde cartographie d’intensité lumineuse. In one embodiment, the generation of at least one end point of said object is carried out from the first emission pattern, the first acquired light intensity mapping, the second emission pattern and the second light intensity mapping. light intensity.
Dans un mode de réalisation, le au moins un point comprend un nuage de points, et le au moins un point final comprend un nuage de points final. In one embodiment, the at least one point comprises a point cloud, and the at least one end point comprises a end point cloud.
L’invention concerne aussi un procédé mis en œuvre par un ordinateur de génération d’un nuage de point d’un objet placé devant la surface de détection d’un dispositif électronique selon l’invention comprenant les étapes suivantes : The invention also relates to a method implemented by a computer for generating a point cloud of an object placed in front of the detection surface of an electronic device according to the invention comprising the following steps:
■ la génération d’un premier motif d’émission par la commande de l’allumage d’un premier ensemble de photoémetteurs de la surface de détection ;
■ l’acquisition d’une première cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur lors de la génération du premier motif d’émission ; ■ generating a first emission pattern by controlling the ignition of a first set of photoemitters of the detection surface; ■ the acquisition of a first light intensity map as a function of the position and the light intensity received by each photodetector during the generation of the first emission pattern;
■ l’exécution d’une fonction de construction permettant de générer un nuage de point final dudit objet à partir du premier motif d’émission et de la première cartographie d’intensité lumineuse acquise. ■ the execution of a construction function making it possible to generate a final point cloud of said object from the first emission pattern and the first acquired light intensity map.
Un avantage d’un tel dispositif électronique et d’un tel procédé est d’autoriser la détection et la reconstruction d’un nuage de points d’un objet, sans être freiné par l’angle de détection. Il est par conséquent possible de détecter un objet en champ proche ou à courte distance d’une surface étendue ce qui n’est pas possible avec une optique ou une caméra de profondeur traditionnelle. An advantage of such an electronic device and such a method is to authorize the detection and reconstruction of a cloud of points of an object, without being hampered by the detection angle. It is therefore possible to detect an object in the near field or at short distance from a large surface, which is not possible with traditional optics or depth cameras.
Dans un mode de réalisation, l’exécution de la fonction de construction comprend l’exécution des étapes suivantes : In one embodiment, the execution of the construction function comprises the execution of the following steps:
■ la génération d’une première image en réalisant une simulation de rayons lumineux émis par les photoémetteurs du premier ensemble et réfléchis par un objet défini par un nuage de points candidat ; ■ generating a first image by carrying out a simulation of light rays emitted by the photoemitters of the first set and reflected by an object defined by a cloud of candidate points;
■ une première comparaison de la première cartographie d’intensité lumineuse acquise avec la première image générée ; ■ a first comparison of the first light intensity map acquired with the first image generated;
■ une minimisation du résultat de la première comparaison en faisant varier le nuage de points candidat ; ■ minimization of the result of the first comparison by varying the candidate point cloud;
■ la détermination d’un nuage de points représentatif dudit objet en fonction de la minimisation. ■ determining a cloud of points representative of said object based on the minimization.
Dans un mode de réalisation, la génération du nuage de point final comprend : In one embodiment, the generation of the end point cloud comprises:
■ la génération d’un second motif d’émission par la commande de l’allumage d’un second ensemble de photoémetteurs différent du premier ensemble ; ■ the generation of a second emission pattern by controlling the ignition of a second set of photoemitters different from the first set;
■ l’acquisition d’une seconde cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur lors de la génération du second motif d’émission.
Dans un mode de réalisation, la génération du nuage de point dudit objet est réalisée à partir du premier motif d’émission et de la première cartographie d’intensité lumineuse acquise ainsi que du second motif d’émission et de la seconde cartographie d’intensité lumineuse. ■ the acquisition of a second light intensity map as a function of the position and the light intensity received by each photodetector during the generation of the second emission pattern. In one embodiment, the generation of the point cloud of said object is carried out from the first emission pattern and the first acquired light intensity mapping as well as the second emission pattern and the second intensity mapping bright.
Dans un mode de réalisation, la mise en œuvre de la fonction de construction comprend : In one embodiment, the implementation of the construction function comprises:
■ la génération d’une seconde image en réalisant une simulation de rayons lumineux émis par les photodétecteurs du second ensemble et réfléchis par un objet défini par le nuage de points candidat ; ■ generating a second image by carrying out a simulation of light rays emitted by the photodetectors of the second set and reflected by an object defined by the cloud of candidate points;
■ une seconde comparaison de la seconde cartographie d’intensité lumineuse acquise avec la seconde image générée.■ a second comparison of the second light intensity map acquired with the second image generated.
Dans un mode de réalisation, l’étape de minimisation comprend une minimisation du résultat de la seconde comparaison et de la première comparaison en faisant varier le nuage de points candidat dudit objet. In one embodiment, the minimization step comprises minimization of the result of the second comparison and the first comparison by varying the candidate point cloud of said object.
Dans un mode de réalisation, l’étape de minimisation est mise en œuvre par une méthode de descente de gradient. In one embodiment, the minimization step is implemented by a gradient descent method.
Dans un mode de réalisation, l’étape de génération d’une image comprend la génération d’un objet virtuel défini par un nuage de point candidat dans un environnement virtuel comprenant une simulation d’une surface similaire à la surface de détection. In one embodiment, the step of generating an image comprises generating a virtual object defined by a candidate point cloud in a virtual environment comprising a simulation of a surface similar to the detection surface.
Dans un mode de réalisation, la fonction de construction est une fonction apprenante, mise en œuvre par un réseau de neurones entraîné pour générer un nuage de point d’un objet à partir d’une ou plusieurs paires de motifs et de cartographies d’intensité lumineuse acquises. In one embodiment, the construction function is a learning function, implemented by a neural network trained to generate a point cloud of an object from one or more pairs of patterns and intensity maps light acquired.
Dans un mode de réalisation, le dispositif électronique comprend une mémoire comprenant une bibliothèque (ou une base de données) de cartographies d’intensité lumineuse acquises, chacune associée à un motif d’émission et à un nuage de point d’un objet, la fonction de construction étant capable de générer ledit nuage de point par comparaison avec les cartographies de ladite bibliothèque. In one embodiment, the electronic device comprises a memory comprising a library (or a database) of acquired light intensity maps, each associated with an emission pattern and a point cloud of an object, the construction function being capable of generating said point cloud by comparison with the maps of said library.
Dans un mode de réalisation, la seconde unité comprend des moyens pour recevoir au moins une information de distance entre ledit objet et la surface de détection et dans lequel le nuage de point est généré par la fonction de construction à partir de ladite information de distance.
Dans un mode de réalisation, le premier ensemble de photodétecteurs comprend au moins une première zone du substrat dans laquelle tous les photodétecteurs sont allumés. In one embodiment, the second unit comprises means for receiving at least one distance information between said object and the detection surface and in which the point cloud is generated by the construction function from said distance information. In one embodiment, the first set of photodetectors comprises at least a first zone of the substrate in which all the photodetectors are turned on.
Dans un mode de réalisation, le second ensemble du second motif est sélectionné en fonction du résultat de la première comparaison. In one embodiment, the second set of the second pattern is selected based on the result of the first comparison.
Dans un mode de réalisation, la surface de détection comprend un écran d’affichage formé par une pluralité de pixels et dans lequel la pluralité de photoémetteurs et de photodétecteurs sont dispersés entre et/ou dans lesdits pixels. In one embodiment, the detection surface comprises a display screen formed by a plurality of pixels and in which the plurality of photoemitters and photodetectors are dispersed between and/or in said pixels.
Dans un mode de réalisation, le dispositif comprend des moyens pour mettre en œuvre le procédé selon le premier aspect de l’invention. In one embodiment, the device comprises means for implementing the method according to the first aspect of the invention.
Selon un troisième aspect, l’invention concerne un système de reconnaissance de mouvement comprenant un dispositif électronique selon l’invention comprenant une unité de reconnaissance de mouvement comprenant des moyens pour l’exécution de l’acquisition d’une pluralité de points finaux et/ou de nuages de point de l’objet placé devant la surface de détection en fonction du temps et la détermination d’au moins un paramètre de mouvement à partir d’une rotation de l’objet et/ou d’une direction de translation de l’objet détecté à partir des points finaux et/ou des nuages de points acquis en fonction du temps. According to a third aspect, the invention relates to a movement recognition system comprising an electronic device according to the invention comprising a movement recognition unit comprising means for executing the acquisition of a plurality of end points and/or or point clouds of the object placed in front of the detection surface as a function of time and the determination of at least one movement parameter from a rotation of the object and/or a direction of translation of the object detected from the end points and/or point clouds acquired as a function of time.
Selon un autre aspect, l’invention concerne un procédé d’affichage d’une interface utilisateur sur l’écran d’un dispositif électronique. Ledit procédé comprend la détermination d’une distance entre la surface de détection 2 du dispositif électronique et un objet ; la fourniture d’une base de données dans laquelle est enregistrée une pluralité d’interfaces utilisateur différentes, chaque interface utilisateur étant associée à une distance prédéterminée différente des autres. L’interface utilisateur à afficher est sélectionnée par comparaison entre la distance déterminée et les distances prédéterminées associées aux interfaces utilisateur préenregistrées. Le procédé comprend enfin l’affichage de l’interface utilisateur sélectionnée. According to another aspect, the invention relates to a method of displaying a user interface on the screen of an electronic device. Said method comprises determining a distance between the detection surface 2 of the electronic device and an object; providing a database in which a plurality of different user interfaces are recorded, each user interface being associated with a predetermined distance different from the others. The user interface to be displayed is selected by comparison between the determined distance and the predetermined distances associated with the pre-recorded user interfaces. The method finally includes displaying the selected user interface.
L’invention concerne également un produit programme d’ordinateur comprenant des instructions qui conduisent le dispositif électronique selon l’invention à exécuter les étapes d’une méthode ou des méthodes selon l’invention. L’invention concerne un support lisible par ordinateur, sur lequel est enregistré le programme d’ordinateur selon l’invention.
Brève description des figures The invention also relates to a computer program product comprising instructions which cause the electronic device according to the invention to execute the steps of a method or methods according to the invention. The invention relates to a computer-readable medium on which the computer program according to the invention is recorded. Brief description of the figures
D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description détaillée qui suit, en référence aux figures annexées, qui illustrent : Other characteristics and advantages of the invention will emerge on reading the detailed description which follows, with reference to the appended figures, which illustrate:
Fig. 1 : une vue schématique d’un dispositif électronique selon un mode de réalisation de l’invention comprenant une surface de détection dont les rayons lumineux émis par les photoémetteurs sont réfléchis par la main d’un utilisateur vers ladite surface de détection. Fig. 1: a schematic view of an electronic device according to one embodiment of the invention comprising a detection surface whose light rays emitted by the photoemitters are reflected by the hand of a user towards said detection surface.
Fig. 2 : une vue schématique en coupe de la surface de détection comprenant une pluralité de photoémetteurs émettant des rayons lumineux et des photodétecteurs pour détecter les rayons réfléchis par l’objet au-dessus de la surface de détection. Fig. 2: a schematic sectional view of the detection surface comprising a plurality of photoemitters emitting light rays and photodetectors for detecting the rays reflected by the object above the detection surface.
Fig. 3 : un exemple d’un réseau de pixels de la surface de détection selon un mode de réalisation dans lequel chaque pixel comprend des sources de lumière rouge, bleu, verte ainsi qu’un photoémetteur et un photodétecteur capable de détecter les rayons émis par le photoémetteur. Fig. 3: an example of an array of pixels of the detection surface according to an embodiment in which each pixel comprises sources of red, blue, green light as well as a photoemitter and a photodetector capable of detecting the rays emitted by the photoemitter.
Fig. 4 : un exemple d’un réseau de pixels de la surface de détection selon un mode de réalisation dans lequel chaque pixel comprend des sources de lumière rouge, bleu, verte ainsi qu’un photoémetteur ou un photodétecteur.Fig. 4: an example of an array of pixels of the detection surface according to an embodiment in which each pixel comprises red, blue, green light sources as well as a photoemitter or a photodetector.
Fig. 5 : une représentation d’une cartographie d’intensité lumineuse acquise par le réseau de photodétecteur selon un mode de réalisation de l’invention.Fig. 5: a representation of a light intensity map acquired by the photodetector network according to one embodiment of the invention.
Fig. 6 : un exemple de déconvolution de la cartographie d’intensité lumineuse selon la figure 5 à partir de différentes fonctions d’étalement du point. Chaque fonction d’étalement du point étant caractéristique d’une hauteur de l’objet prédéterminée et différente des autres fonctions d’étalement du point. Fig. 6: an example of deconvolution of the light intensity mapping according to Figure 5 from different point spread functions. Each point spreading function being characteristic of a predetermined height of the object and different from the other point spreading functions.
Fig. 7 : un logigramme représentant une méthode détermination de la distance entre un objet situé en face de la surface de détection et ladite surface de détection selon un mode de réalisation de l’invention. Fig. 7: a flowchart representing a method for determining the distance between an object located in front of the detection surface and said detection surface according to one embodiment of the invention.
Fig. 8A : un logigramme représentant une méthode génération d’un nuage de point représentant un objet détecté en face de la surface de détection selon un mode de réalisation de l’invention. Fig. 8A: a flowchart representing a method for generating a point cloud representing an object detected in front of the detection surface according to one embodiment of the invention.
Fig. 8B : un logigramme représentant une méthode génération d’un nuage de point représentant un objet détecté en face de la surface de détection selon un mode de réalisation de l’invention dans lequel plusieurs acquisitions de
cartographies d’intensité lumineuse sont réalisées en modifiant le motif d’émission. Fig. 8B: a flowchart representing a method for generating a point cloud representing an object detected in front of the detection surface according to an embodiment of the invention in which several acquisitions of Light intensity maps are made by modifying the emission pattern.
Fig. 9 : un logigramme représentant un exemple de réalisation de l’étape de minimisation de la méthode selon la figure 8B. Fig. 9: a flowchart representing an example of carrying out the minimization step of the method according to Figure 8B.
Fig. 10 : un logigramme représentant une méthode génération d’un paramètre de mouvement d’un objet détecté par la surface de détection selon un mode de réalisation de l’invention. Fig. 10: a flowchart representing a method for generating a movement parameter of an object detected by the detection surface according to one embodiment of the invention.
Fig. 11 : une représentation de plusieurs motifs d’émission par l’activation d’un ensemble de photoémetteurs. Fig. 11: a representation of several emission patterns by the activation of a set of photoemitters.
Fig. 12 : une représentation schématique d’un système de calcul du dispositif électronique selon un mode de réalisation de l’invention. Fig. 12: a schematic representation of a calculation system of the electronic device according to one embodiment of the invention.
Fig. 13A à Fig. 131 : des exemples de gestes pouvant être détectés par le dispositif électronique selon un mode de réalisation de l’invention. Fig. 13A to Fig. 131: examples of gestures that can be detected by the electronic device according to one embodiment of the invention.
Fig. 14 : une vue schématique d’un dispositif électronique selon un mode de réalisation de l’invention dans lequel une interface utilisateur est sélectionnée en fonction de la distance entre l’objet et la surface de détection pour être affichée sur l’écran du dispositif électronique. Fig. 14: a schematic view of an electronic device according to one embodiment of the invention in which a user interface is selected as a function of the distance between the object and the detection surface to be displayed on the screen of the electronic device .
Fig. 15 : une représentation de la seconde fonction d’étalement du point ayant permis d’obtenir la déconvolution D2 de la figure 6. Fig. 15: a representation of the second spreading function of the point which made it possible to obtain the deconvolution D2 of Figure 6.
Définitions Definitions
Par « photodétecteur », on entend tout type de moyen structurel permettant de détecter une intensité lumineuse et de générer un signal en fonction de ladite intensité détectée. By “photodetector” is meant any type of structural means making it possible to detect a light intensity and to generate a signal as a function of said detected intensity.
Par « photoémetteur », on entend tout type de moyen capable d’émettre un rayonnement lumineux lorsqu’il est activé, par exemple par application d’un courant ou d’une tension. By “photoemitter” we mean any type of means capable of emitting light radiation when activated, for example by applying a current or a voltage.
Par « unité », on entend tout type de moyen logiciel et/ou matériel permettant l’exécution d’une méthode ou d’un algorithme. By “unit”, we mean any type of software and/or hardware means allowing the execution of a method or algorithm.
Par « sensiblement » suivi d’une valeur numérique désigne ladite valeur numérique +/- 5% ou 10%. Lorsque le terme « sensiblement » désigne un angle, ce terme doit être compris comme à plus ou moins 1 °, 5° ou 10°. Les termes « normales », « parallèles » et « perpendiculaire » désignent implicitement des angles de respectivement 90°, 0° et 90°. By “substantially” followed by a numerical value means said numerical value +/- 5% or 10%. When the term “substantially” designates an angle, this term must be understood as plus or minus 1°, 5° or 10°. The terms “normal”, “parallel” and “perpendicular” implicitly designate angles of 90°, 0° and 90° respectively.
Par « plan de la surface de détection », on entend le plan formé par la surface de détection. Lorsque la surface de détection est courbée, le plan
de la surface de détection doit être compris comme la tangente en un point de ladite surface de détection. By “plane of the detection surface” is meant the plane formed by the detection surface. When the detection surface is curved, the plane of the detection surface must be understood as the tangent at a point of said detection surface.
Par « un objet situé devant la surface de détection », on entend un objet situé dans la zone adjacente à la surface de détection illuminée par les photodétecteurs lorsque ces derniers sont allumés. On peut aussi simplement entendre un objet dans le faisceau lumineux généré par les photoémetteurs de la surface de détection quand ces derniers sont allumés ou activés. By “an object located in front of the detection surface”, we mean an object located in the area adjacent to the detection surface illuminated by the photodetectors when the latter are turned on. We can also simply hear an object in the light beam generated by the photoemitters of the detection surface when they are turned on or activated.
Par « lumineux », on entend tout signal dans le domaine du visible, dans l’infrarouge (proche ou lointain) ou ultra-violet. By “luminous”, we mean any signal in the visible range, in the infrared (near or far) or ultraviolet.
Description de l’invention Description of the invention
Surface de détection Detection surface
Selon un premier aspect, l’invention concerne un dispositif électronique comprenant une surface de détection de champ proche. Un mode de réalisation d’un tel dispositif est représenté sur la figure 1 . According to a first aspect, the invention relates to an electronic device comprising a near field detection surface. An embodiment of such a device is shown in Figure 1.
Un tel dispositif électronique 1 comprend une surface de détection 2. La surface de détection 2 peut s’étendre sur une face du dispositif électronique 1 . Such an electronic device 1 comprises a detection surface 2. The detection surface 2 can extend over one face of the electronic device 1.
La surface de détection 2 désigne une surface plane ou courbe permettant de détecter un objet dans un volume s’étendant dans la direction normale à ladite surface de détection 2. Detection surface 2 designates a flat or curved surface making it possible to detect an object in a volume extending in the direction normal to said detection surface 2.
La surface de détection 2 désigne préférentiellement un substrat dont les deux premières dimensions (la longueur et la largeur) sont sensiblement plus grandes, par exemple au moins 3 fois plus grand que la troisième dimension (l’épaisseur) ou préférentiellement 5 fois plus grand ou 10 fois plus grand. The detection surface 2 preferably designates a substrate whose first two dimensions (length and width) are significantly larger, for example at least 3 times larger than the third dimension (thickness) or preferably 5 times larger or 10 times bigger.
La surface de détection 2 comprend au moins un substrat 32 sur lequel une pluralité de photodétecteurs et de photoémetteurs sont agencés. The detection surface 2 comprises at least one substrate 32 on which a plurality of photodetectors and photoemitters are arranged.
Les photodétecteurs 33 et les photoémetteurs 31 peuvent être agencés du même côté du substrat 32. Les photodétecteurs 33 et les photoémetteurs 31 peuvent être agencés de manière à émettre ou détecter un faisceau lumineux depuis un même côté du substrat 32. The photodetectors 33 and the photoemitters 31 can be arranged on the same side of the substrate 32. The photodetectors 33 and the photoemitters 31 can be arranged so as to emit or detect a light beam from the same side of the substrate 32.
Dans un mode de réalisation non représenté, le substrat comprend au moins deux couches. Une première couche comprenant les
photoémetteurs 31 et une seconde couche comprenant les photodétecteurs 33 ou inversement. In an embodiment not shown, the substrate comprises at least two layers. A first layer comprising the photoemitters 31 and a second layer comprising photodetectors 33 or vice versa.
Chaque photodétecteurs 33 de la seconde couche sont préférentiellement agencés entre deux photoémetteurs 31 de la première couche ou inversement. Each photodetector 33 of the second layer is preferably arranged between two photoemitters 31 of the first layer or vice versa.
Préférentiellement, la matrice de la première couche est transparente aux rayonnements émis par les photoémetteurs 33. Ainsi, les rayons lumineux émis par les photoémetteurs peuvent, après réflexion, traverser la première couche pour être détectés par les photodétecteurs. Dans un autre exemple, la première couche comprend des orifices débouchant permettant le passage des rayonnement vers les photodétecteurs de la seconde couche. Preferably, the matrix of the first layer is transparent to the radiation emitted by the photoemitters 33. Thus, the light rays emitted by the photoemitters can, after reflection, pass through the first layer to be detected by the photodetectors. In another example, the first layer includes openings allowing the passage of radiation to the photodetectors of the second layer.
Dans un autre mode de réalisation alternatif non-représenté, la surface de détection 2 comprend une première portion sur laquelle sont agencés les photodétecteurs et une seconde portion, encadrant la première portion sur laquelle sont agencés les photoémetteurs. In another alternative embodiment not shown, the detection surface 2 comprises a first portion on which the photodetectors are arranged and a second portion, framing the first portion on which the photoemitters are arranged.
Les photoémetteurs 31 sont conçus pour émettre des photons par effet d’électroluminescence. Les photoémetteurs 31 sont préférentiellement conçus pour émettre des rayons lumineux dans une gamme de longueurs d’onde prédéfinies. The photoemitters 31 are designed to emit photons by electroluminescence effect. The photoemitters 31 are preferably designed to emit light rays in a range of predefined wavelengths.
Préférentiellement, les photoémetteurs 31 sont conçus pour émettre un rayonnement lumineux infrarouge. Preferably, the photoemitters 31 are designed to emit infrared light radiation.
Les photodétecteurs 33 sont conçus pour détecter un rayon lumineux émis par la pluralité de photoémetteurs 31. Les photodétecteurs 33 sont conçus pour transformer la lumière absorbée dans une gamme de longueurs d’onde en une grandeur mesurable telle qu’un courant électrique ou une tension électrique. The photodetectors 33 are designed to detect a light ray emitted by the plurality of photoemitters 31. The photodetectors 33 are designed to transform the light absorbed in a range of wavelengths into a measurable quantity such as an electric current or an electric voltage .
Les photodétecteurs comprennent par exemple des capteurs à fibre optique ou préférentiellement des photodiodes. Les photodétecteurs 33 peuvent comprendre des photodétecteurs à lumière infrarouge ou des phototransistors à lumière infrarouge. The photodetectors include, for example, optical fiber sensors or preferably photodiodes. The photodetectors 33 may include infrared light photodetectors or infrared light phototransistors.
Préférentiellement, les photoémetteurs sont conçus de manière à ce que leur cône de diffusion de lumière émise soit le plus faible possible. De même, chaque photoémetteur est agencé sur le substrat 32 de manière à émettre un cône de diffusion dont l’axe est perpendiculaire ou sensiblement
perpendiculaire à la surface de détection 2. Un avantage est d’obtenir une pluralité de rayons lumineux parallèles et dont la surface de la zone d’étalement sur un objet 10 est la plus faible possible. Preferably, the photoemitters are designed so that their cone of diffusion of emitted light is as weak as possible. Likewise, each photoemitter is arranged on the substrate 32 so as to emit a diffusion cone whose axis is perpendicular or substantially perpendicular to the detection surface 2. An advantage is to obtain a plurality of parallel light rays and whose surface area of the spreading zone on an object 10 is as small as possible.
Dans un mode de réalisation, les photodétecteurs sont conçus de manière à avoir un cône de détection le plus faible possible. In one embodiment, the photodetectors are designed to have the lowest possible detection cone.
L’angle formé par le cône de diffusion d’un ou des photoémetteurs peut être différent de l’angle du cône de détection d’un ou des photodétecteurs. Dans un mode, l’angle formé par le cône de diffusion d’un ou des photoémetteurs est supérieur à l’angle du cône de détection d’un ou des photodétecteurs. Par « angle formé par le cône de diffusion », on entend la fonction de distribution angulaire de l’intensité lumineuse de diffusion des rayonnement lumineux. The angle formed by the diffusion cone of one or more photoemitters may be different from the angle of the detection cone of one or more photodetectors. In one mode, the angle formed by the diffusion cone of one or more photoemitters is greater than the angle of the detection cone of one or more photodetectors. By “angle formed by the diffusion cone”, we mean the angular distribution function of the light intensity of diffusion of light radiation.
De même, on entend par « cône de détection » la sensibilité relative radiale d’un détecteur, c’est-à-dire la différence d’intensité reçue par un détecteur en fonction de la position angulaire de la source. Likewise, the term “detection cone” means the relative radial sensitivity of a detector, that is to say the difference in intensity received by a detector as a function of the angular position of the source.
Dans un mode de réalisation, le dispositif comprend des moyens permettant l’activation et l’extinction de chaque photoémetteur 31 de manière individuelle. Chaque photoémetteur 31 peut donc être activé (pour émettre un rayonnement lumineux) ou éteint indépendamment de l’activation des autres photoémetteurs 31 . In one embodiment, the device comprises means allowing the activation and extinction of each photoemitter 31 individually. Each photoemitter 31 can therefore be activated (to emit light radiation) or turned off independently of the activation of the other photoemitters 31.
Le dispositif électronique 1 comprend en outre des moyens de mesure du signal émis par chaque photodétecteur. The electronic device 1 further comprises means for measuring the signal emitted by each photodetector.
Préférentiellement, les photodétecteurs et les photoémetteurs sont régulièrement répartis selon les deux directions de l’espace (x,y) de la surface de détection 2. Preferably, the photodetectors and the photoemitters are regularly distributed along the two directions of space (x,y) of the detection surface 2.
Lesdites deux directions de l’espace sont relatives à la surface de détection 2, notamment dans le cas d’une surface de détection non plane, par exemple présentant une courbure. Said two directions of space relate to the detection surface 2, particularly in the case of a non-planar detection surface, for example having a curvature.
Chaque photodétecteur est préférentiellement agencé entre au moins deux photoémetteurs dans les deux directions de l’espace. Dans un exemple, les photodétecteurs et les photoémetteurs sont régulièrement répartis selon deux directions orthogonales du plan de la surface de détection 2. Each photodetector is preferably arranged between at least two photoemitters in the two directions of space. In one example, the photodetectors and the photoemitters are regularly distributed in two orthogonal directions of the plane of the detection surface 2.
La surface de détection 2 comprend préférentiellement une plaque ou une couche transparente agencée pour recouvrir la pluralité de
photoémetteurs 31 et de photodétecteurs. Par « transparente », on entend transparente aux rayons lumineux émis par les photoémetteurs. Une telle plaque permet avantageusement de protéger l’intégrité physique des composants de la surface de détection 2 tout en laissant passer les rayons lumineux sortants et entrants. Dans un exemple, la couche de recouvrement est transparente aux rayons infrarouges. Dans un exemple, la couche de recouvrement est transparente aux rayons lumineux émis par les photoémetteurs et aux rayons dans le domaine du visible tel qu’une plaque en quartz. The detection surface 2 preferably comprises a plate or a transparent layer arranged to cover the plurality of photoemitters 31 and photodetectors. By “transparent” we mean transparent to the light rays emitted by the photoemitters. Such a plate advantageously makes it possible to protect the physical integrity of the components of the detection surface 2 while allowing outgoing and incoming light rays to pass. In one example, the covering layer is transparent to infrared rays. In one example, the covering layer is transparent to light rays emitted by the photoemitters and to rays in the visible range such as a quartz plate.
Écran d’affichacie Display screen
Dans un mode de réalisation, la surface de détection 2 comprend un écran d’affichage 3. L’écran d’affichage 3 comprend une pluralité de sources de lumière disposées sur le substrat. In one embodiment, the detection surface 2 comprises a display screen 3. The display screen 3 comprises a plurality of light sources arranged on the substrate.
Les sources de lumière forment préférentiellement des pixels pour former l’écran d’affichage. Chaque pixel comprend préférentiellement des sources de lumière RGB. Les sources de lumière sont préférentiellement des diodes électroluminescentes RGB. The light sources preferentially form pixels to form the display screen. Each pixel preferably includes RGB light sources. The light sources are preferably RGB light-emitting diodes.
Dans un mode de réalisation, les photoémetteurs et/ou les photodétecteurs sont agencés, préférentiellement régulièrement agencés, entre les pixels de la surface de détection. Dans un exemple illustré sur la figure 3, chaque pixel comprend un photodétecteur et un photoémetteur. Dans un autre exemple illustré sur la figure 4, chaque pixel comprend un photodétecteur ou un photoémetteur. Les photoémetteurs et les photodétecteurs sont agencés de manière à avoir un photoémetteur tous les deux pixels. In one embodiment, the photoemitters and/or photodetectors are arranged, preferably regularly arranged, between the pixels of the detection surface. In an example illustrated in Figure 3, each pixel includes a photodetector and a photoemitter. In another example illustrated in Figure 4, each pixel comprises a photodetector or a photoemitter. The photoemitters and photodetectors are arranged so as to have a photoemitter every two pixels.
Un avantage de l’intégration des photoémetteurs 31 et des photodétecteurs au sein ou entre les pixels d’un écran d’affichage est de profiter des pistes de connexions des sources de lumière de l’écran pour connecter les photoémetteurs et photodétecteurs. Ainsi, les coûts de fabrication sont réduits et il n’est pas nécessaire d’augmenter la taille du dispositif pour ajouter des éléments périphériques de détection. An advantage of integrating photoemitters 31 and photodetectors within or between the pixels of a display screen is to take advantage of the connection tracks of the light sources of the screen to connect the photoemitters and photodetectors. Thus, manufacturing costs are reduced and it is not necessary to increase the size of the device to add peripheral detection elements.
Dans un premier exemple, les photoémetteurs et les photodétecteurs sont distribués régulièrement sur le substrat, par exemple en formant une matrice.
Dans un second exemple, les photoémetteurs et les photodétecteurs sont distribués sur le substrat de manière aléatoire. Ceci peut être notamment le cas lorsque les photoémetteurs et/ou les photodétecteurs sont conçus par impression d’une encre formant des photodiodes organiques sur ledit substrat. Dans ce cas, il reste important de connaître les coordonnées spatiales de chaque photodétecteur 33 dans le plan de la surface de détection 2. In a first example, the photoemitters and the photodetectors are distributed regularly on the substrate, for example by forming a matrix. In a second example, the photoemitters and the photodetectors are distributed on the substrate randomly. This may in particular be the case when the photoemitters and/or photodetectors are designed by printing an ink forming organic photodiodes on said substrate. In this case, it remains important to know the spatial coordinates of each photodetector 33 in the plane of the detection surface 2.
Il est évident que d’autres modes de distribution peuvent être imaginés par l’homme du métier et que la portée de protection ne se limite pas aux exemples cités dans la présente demande. It is obvious that other methods of distribution can be imagined by those skilled in the art and that the scope of protection is not limited to the examples cited in this application.
Dans un mode de réalisation préférentiel, les photoémetteurs émettent des rayons lumineux dans une gamme de longueurs d’onde distincte de la gamme de longueurs d’onde des rayons lumineux émis par les sources de lumière de l’écran. Un avantage est de pouvoir réaliser des cartographies d’intensité lumineuse comme il est décrit ci-après sans avoir de pollution de la part des sources de lumière RGB de l’écran 3. Dans un mode de réalisation alternatif, au moins une des sources de lumière RGB peut être le photoémetteur 31 , dans ce cas, le photodétecteur 33 est conçu pour détecter une intensité lumineuse émise par ledit photoémetteur 31 . In a preferred embodiment, the photoemitters emit light rays in a range of wavelengths distinct from the range of wavelengths of the light rays emitted by the light sources of the screen. An advantage is to be able to carry out light intensity maps as described below without having pollution from the RGB light sources of the screen 3. In an alternative embodiment, at least one of the light sources RGB light can be the photoemitter 31, in this case, the photodetector 33 is designed to detect a light intensity emitted by said photoemitter 31.
Moyens logiciels Software means
Le dispositif selon l’invention comprend également des moyens logiciels et/ou matériels pour mettre en œuvre le ou les méthodes selon l’invention décrite ci-après. Ces moyens matériels peuvent comprendre des unités de calculs, des processeurs, des mémoires et sont décrits plus en détail dans la présente description. The device according to the invention also comprises software and/or hardware means for implementing the method(s) according to the invention described below. These hardware means may include calculation units, processors, memories and are described in more detail in the present description.
Acquisition d’une cartographie d’intensité lumineuse Acquisition of a light intensity map
Selon un premier aspect, l’invention concerne une méthode 200 de détermination de la distance entre un objet 10 placé devant la surface de détection 2 et ladite surface de détection 2. Ladite méthode 200 peut être mise en œuvre par le dispositif électronique 1 selon l’invention. According to a first aspect, the invention relates to a method 200 for determining the distance between an object 10 placed in front of the detection surface 2 and said detection surface 2. Said method 200 can be implemented by the electronic device 1 according to the 'invention.
Par « objet », on entend un ou plusieurs objets d’une scène définie dans un volume s’étendant depuis la surface de détection dans une direction normale à ladite surface de détection 2. Comme expliqué plus loin, un « objet » comprend préférentiellement une ou plusieurs mains d’un utilisateur. Dans un
mode de réalisation, le terme « objet » désigne une scène comprenant une pluralité d’objet dans ledit volume s’étendant depuis la surface de détection selon une direction perpendiculaire à ladite surface de détection. By “object”, we mean one or more objects of a scene defined in a volume extending from the detection surface in a direction normal to said detection surface 2. As explained below, an “object” preferably comprises a or more hands of a user. In a embodiment, the term “object” designates a scene comprising a plurality of objects in said volume extending from the detection surface in a direction perpendicular to said detection surface.
La méthode comprend une étape d’émission MOT1 d’une lumière 22 des photoémetteurs 31 de la surface de détection 2. Par « émission », on entend qu’au moins une partie des photoémetteurs 31 émette une lumière ou des rayons lumineux 22. Cette émission est produite par l’activation des photoémetteurs 31 . Cette activation peut être provoquée par des moyens de contrôle des photoémetteurs 31. Ces moyens de contrôle permettent avantageusement d’activer à distance tout ou partie de la pluralité de photoémetteurs 31 , par exemple en appliquant un signal aux bornes desdits photoémetteurs 31 . The method comprises a step MOT1 of emitting light 22 from the photoemitters 31 of the detection surface 2. By "emission" is meant that at least part of the photoemitters 31 emits light or light rays 22. This Emission is produced by the activation of the photoemitters 31. This activation can be caused by means of controlling the photoemitters 31. These control means advantageously make it possible to remotely activate all or part of the plurality of photoemitters 31, for example by applying a signal to the terminals of said photoemitters 31.
Préférentiellement, cette étape d’émission MOT1 comprend l’activation de tous les photoémetteurs de la pluralité de photoémetteurs de la surface de détection 2. La pluralité de photoémetteurs émet ainsi des rayons lumineux 22 pouvant être schématisés par un cône de diffusion dont l’axe présente une direction normale ou sensiblement normale (ou perpendiculaire) au plan de la surface de détection 2. Préférentiellement, tous les photoémetteurs sont allumés en même temps lors de cette étape, très préférentiellement à la même intensité. Preferably, this emission step MOT1 comprises the activation of all the photoemitters of the plurality of photoemitters of the detection surface 2. The plurality of photoemitters thus emits light rays 22 which can be schematized by a diffusion cone whose axis has a direction normal or substantially normal (or perpendicular) to the plane of the detection surface 2. Preferably, all the photoemitters are turned on at the same time during this step, very preferably at the same intensity.
Lorsqu’un objet 10 est présent dans un volume s’étendant depuis la surface de détection dans une direction normale à ladite surface de détection, cet objet 10 est illuminé par les rayons émis 22 par les photoémetteurs. L’objet 10 réfléchit alors une partie de ces rayons émis 22. When an object 10 is present in a volume extending from the detection surface in a direction normal to said detection surface, this object 10 is illuminated by the rays emitted 22 by the photoemitters. The object 10 then reflects part of these emitted rays 22.
Les rayons réfléchis 21 sont renvoyés en direction de la surface de détection 2. The reflected rays 21 are returned towards the detection surface 2.
Les rayons réfléchis 21 vont venir illuminer la surface de détection 2 et les photodétecteurs. The reflected rays 21 will illuminate the detection surface 2 and the photodetectors.
L’étape d’acquisition de ACQU1 est réalisée par la mesure de l’intensité lumineuse reçue par chaque photodétecteur 33 de la surface de détection 2. Avantageusement, ladite mesure est réalisée en même temps que l’étape d’émission M0T1 ou en même temps que l’émission des rayons 22 par les photoémetteurs 31. Ainsi, la mesure réalisée par l’étape d’acquisition comprend la détection de l’intensité lumineuse réfléchie 21 par un objet 10 placé devant la surface de détection 2.
La mesure par chaque photodétecteur 33 de l’intensité lumineuse reçue permet de construire une cartographie d’intensité lumineuse 4. Un exemple d’une telle cartographie 4 est illustré sur la figure 5. Dans un mode de réalisation, une cartographie d’intensité lumineuse comprend une représentation en deux dimensions représentant l’intensité de la lumière détectée par chaque photodétecteur 33 en fonction de sa position sur la surface de détection 2. The ACQU1 acquisition step is carried out by measuring the light intensity received by each photodetector 33 of the detection surface 2. Advantageously, said measurement is carried out at the same time as the emission step M0T1 or at the same time. time as the emission of the rays 22 by the photoemitters 31. Thus, the measurement carried out by the acquisition step comprises the detection of the light intensity reflected 21 by an object 10 placed in front of the detection surface 2. The measurement by each photodetector 33 of the light intensity received makes it possible to construct a light intensity map 4. An example of such a map 4 is illustrated in Figure 5. In one embodiment, a light intensity map comprises a two-dimensional representation representing the intensity of the light detected by each photodetector 33 as a function of its position on the detection surface 2.
Préférentiellement, la couleur à une coordonnée donnée de ladite cartographie d’intensité lumineuse est fonction de l’intensité lumineuse mesurée par un photodétecteur agencé à une coordonnée sur la surface de détection 2 représentative de la coordonnée donnée. Preferably, the color at a given coordinate of said light intensity map is a function of the light intensity measured by a photodetector arranged at a coordinate on the detection surface 2 representative of the given coordinate.
Ladite image est construite en fonction de l’intensité lumineuse reçue par chaque photodétecteur et en fonction de sa position sur la surface de détection. Notamment, la couleur d’un pixel de ladite cartographie (par exemple une position sur une échelle de gris) est fonction de l’intensité reçue par le photodétecteur dont la position sur la surface de détection correspond à la position du pixel sur la cartographie. Said image is constructed according to the light intensity received by each photodetector and according to its position on the detection surface. In particular, the color of a pixel of said mapping (for example a position on a gray scale) is a function of the intensity received by the photodetector whose position on the detection surface corresponds to the position of the pixel on the mapping.
Un exemple d’une telle cartographie d’intensité lumineuse acquise est représenté sur la figure 5. An example of such acquired light intensity mapping is shown in Figure 5.
Une telle acquisition comprend la génération d’un premier motif par la commande de l’allumage des photoémetteurs. Such acquisition includes the generation of a first pattern by controlling the ignition of the photoemitters.
Fonction d’étalement du point Stitch spread function
La fonction d’étalement du point (aussi appelée « point spread function » en anglais ou « PSF ») est une fonction mathématique décrivant la réponse d’un système d’imagerie à une source ponctuelle de lumière. Cette fonction est représentative de l’étalement d’un point lumineux. Pour simplifier, la projection sur une paroi d’une source de lumière apparaît floue et plus diffuse que la source elle-même. Cela est dû à cet étalement naturel de la lumière. The point spread function (also called “point spread function” in English or “PSF”) is a mathematical function describing the response of an imaging system to a point source of light. This function is representative of the spreading of a light point. To simplify, the projection on a wall of a light source appears blurry and more diffuse than the source itself. This is due to this natural spreading of light.
Dans notre exemple, l’objet 10, lorsqu’il est illuminé par les rayons lumineux 22 émis par les photoémetteurs, peut être considéré comme une source de lumière émettant les rayons lumineux réfléchis 21 . In our example, the object 10, when illuminated by the light rays 22 emitted by the photoemitters, can be considered as a light source emitting the reflected light rays 21.
Comme illustré sur la figure 5, la cartographie d’intensité lumineuse acquise 4, due à la fonction d’étalement du point apparaît floue et diffuse. La
déduction de la forme de l’objet est difficile voire impossible à réaliser à partir de cette cartographie d’intensité lumineuse acquise 4. As illustrated in Figure 5, the acquired light intensity mapping 4, due to the point spreading function appears blurry and diffuse. There deduction of the shape of the object is difficult or even impossible to achieve from this acquired light intensity mapping 4.
Or, la fonction d’étalement du point peut être connue. Elle est notamment fonction de propriétés et des photodétecteurs, par exemple de l’angle du cône et de détection. Now, the point spread function can be known. It is notably a function of properties and photodetectors, for example the angle of the cone and detection.
La fonction d’étalement du point est également fonction de la hauteur de la source de lumière. En d’autres termes, la fonction d’étalement du point est différente selon la hauteur de la position de l’objet. Par « hauteur de l’objet », on entendra dans la suite de la description la distance entre l’objet 10 et la surface de détection 2. The point spread function is also a function of the height of the light source. In other words, the point spread function is different depending on the height of the object position. By “height of the object”, we will mean in the remainder of the description the distance between the object 10 and the detection surface 2.
La fonction d’étalement du point à une hauteur donnée étant connue, une opération de déconvolution permet de renverser le processus pour retrouver, à partir de la cartographie d’intensité lumineuse 4, une image représentative de la source de lumière et donc de l’objet 10 à détecter. The spreading function of the point at a given height being known, a deconvolution operation makes it possible to reverse the process to find, from the light intensity mapping 4, an image representative of the light source and therefore of the object 10 to detect.
Sélection de fonctions d’étalement du point Selecting point spread functions
La méthode comprend donc une sélection SEL1 d’au moins deux, de préférence d’une pluralité de fonctions d’étalement du point PSF1 , PSF2, PSF3. Chaque fonction d’étalement du point sélectionnée est caractéristique d’une hauteur prédéterminée de l’objet 10 avec la surface de détection 2. The method therefore comprises a selection SEL1 of at least two, preferably a plurality of spreading functions of the point PSF1, PSF2, PSF3. Each selected point spreading function is characteristic of a predetermined height of the object 10 with the detection surface 2.
Par exemple, une première fonction d’étalement du point PSF1 peut être caractéristique d’une hauteur (distance entre l’objet 10 et la surface de détection 2) de 5 cm. For example, a first spreading function of the point PSF1 can be characteristic of a height (distance between the object 10 and the detection surface 2) of 5 cm.
Déconvoi utions de la cartographie d’intensité lumineuseDeconvoi utions of light intensity mapping
Dans une étape, une déconvolution DEC1 de la cartographie d’intensité lumineuse 4 est effectuée par rapport à chaque fonction d’étalement du point sélectionné PSF1 , PSF2, PSF3. In one step, a DEC1 deconvolution of the light intensity map 4 is carried out with respect to each spreading function of the selected point PSF1, PSF2, PSF3.
Il est donc généré une pluralité d’images déconvoluées D1 , D2, D3. Chaque image déconvoluée (appelée aussi déconvolution) est donc une représentation de la source de lumière en admettant que sa distance avec la surface de détection 2 soit la hauteur caractérisant la fonction d’étalement du point utilisée pour l’obtention de ladite déconvolution. A plurality of deconvolved images D1, D2, D3 are therefore generated. Each deconvolved image (also called deconvolution) is therefore a representation of the light source assuming that its distance from the detection surface 2 is the height characterizing the point spreading function used to obtain said deconvolution.
Un exemple de déconvolutions D1 , D2, D3 obtenues sont illustrés sur la figure 6.
Score de cohérence An example of deconvolutions D1, D2, D3 obtained are illustrated in Figure 6. Consistency score
Une étape de calcul CALC1 d'un score de cohérence C1 , C2, C3 est ensuite effectuée. A step of calculating CALC1 of a coherence score C1, C2, C3 is then carried out.
Pour chaque image déconvoluée D1 , D2, D3, un calcul d'un score de cohérence est effectué. Préférentiellement, ce score de cohérence est représentatif de la cohérence de l’image déconvoluée. En évaluant la cohérence de chaque image déconvoluée et en sélectionnant l’image la plus cohérente, on peut en déduire quelle fonction d’étalement du point est probablement la plus juste et par conséquent, à quelle distance de la surface de détection 2 se trouve le plus probablement l’objet 10. For each deconvolved image D1, D2, D3, a calculation of a coherence score is carried out. Preferably, this coherence score is representative of the coherence of the deconvolved image. By evaluating the coherence of each deconvolved image and selecting the most coherent image, we can deduce which point spread function is probably the fairest and therefore, at what distance from the detection surface 2 is the more likely object 10.
Une fois les scores C1 , C2, C3 calculés, la méthode comprend la détermination DET1 du meilleur des scores calculés. Once the scores C1, C2, C3 have been calculated, the method includes the DET1 determination of the best of the calculated scores.
Dans un mode d’exécution, la hauteur caractéristique de la fonction d’étalement du point utilisée pour générer l’image déconvoluée ayant obtenu le meilleur score est sélectionnée comme la distance Z1 entre l’objet 10 et la surface de détection 2. In one embodiment, the characteristic height of the point spread function used to generate the best-scoring deconvolved image is selected as the distance Z1 between the object 10 and the detection surface 2.
Dans un mode d’exécution, la distance Z1 est déterminée à partir de la hauteur prédéterminée de la fonction d’étalement du point ayant permis d’obtenir la déconvolution ayant obtenu le meilleur score de cohérence. Par exemple, la distance Z1 peut être déterminée entre deux hauteurs caractéristiques des deux déconvolutions ayant atteint les deux meilleurs scores. In one mode of execution, the distance Z1 is determined from the predetermined height of the spreading function of the point which made it possible to obtain the deconvolution having obtained the best coherence score. For example, the distance Z1 can be determined between two characteristic heights of the two deconvolutions having reached the two best scores.
Dans un autre exemple, un profil continu de score de cohérence peut être généré à partir des scores de cohérence de chaque déconvolution et de la hauteur caractéristique des fonctions d’étalement du point utilisé pour cette déconvolution. La distance Z1 peut alors être déterminée à partir de l’extremum local dudit profil de score de cohérence. In another example, a continuous coherence score profile can be generated from the coherence scores of each deconvolution and the characteristic height of the point spread functions used for that deconvolution. The distance Z1 can then be determined from the local extremum of said coherence score profile.
Dans un exemple simplifié, l’image de la cartographie d’intensité lumineuse illustrée sur la figure 5 est déconvoluée : In a simplified example, the image of the light intensity mapping illustrated in Figure 5 is deconvolved:
- par une première fonction PSF1 , caractéristique d’une première hauteur pour obtenir la première image déconvoluée D1 illustrée sur la figure 6 ; - by a first function PSF1, characteristic of a first height to obtain the first deconvolved image D1 illustrated in Figure 6;
- par une deuxième fonction PSF2, caractéristique d’une deuxième hauteur pour obtenir la deuxième image déconvoluée D2 illustrée sur la figure 6 ;
- par une troisième fonction PSF3, caractéristique d’une troisième hauteur pour obtenir la troisième image déconvoluée D3 illustrée sur la figure 6. - by a second function PSF2, characteristic of a second height to obtain the second deconvolved image D2 illustrated in Figure 6; - by a third function PSF3, characteristic of a third height to obtain the third deconvolved image D3 illustrated in Figure 6.
Parmi ces trois images déconvoluées D1 , D2, D3, la deuxième image D2 est la plus cohérente. En effet, les bords nets sont plus cohérents qu’un objet diffus. On peut donc en déduire que la forme de l’objet 10 est sensiblement similaire à celui de la tache lumineuse de la seconde image D2 et/ou que l’objet 10 se trouve à une distance de la surface de détection égale à la seconde hauteur (caractéristique de la seconde fonction d’étalement du point PSF2). Among these three deconvolved images D1, D2, D3, the second image D2 is the most coherent. Indeed, sharp edges are more coherent than a diffuse object. We can therefore deduce that the shape of the object 10 is substantially similar to that of the light spot of the second image D2 and/or that the object 10 is at a distance from the detection surface equal to the second height (characteristic of the second spreading function of point PSF2).
La seconde fonction d’étalement du point PSF2 est illustrée sur la figure 15. The second spreading function of the point PSF2 is illustrated in Figure 15.
Critères utilisés pour le calcul du score de cohérenceCriteria used for calculating the consistency score
Différents critères peuvent être utilisés pour le calcul dudit score de cohérence. Different criteria can be used to calculate said consistency score.
Dans un mode de réalisation, le calcul du score de cohérence comprend un calcul dépendant de la netteté des bords de la tache lumineuse obtenue sur l’image déconvoluée D1 , D2, D3. Dans un mode de réalisation, le score de cohérence comprend le calcul d’une variance ou toute autre méthode de calcul statistique. In one embodiment, the calculation of the coherence score includes a calculation depending on the sharpness of the edges of the light spot obtained on the deconvolved image D1, D2, D3. In one embodiment, the consistency score includes the calculation of a variance or any other statistical calculation method.
Dans un mode de réalisation, toute autre méthode de calcul d’un score de cohérence peut être imaginée. Le score de variance peut être un indicateur de qualité de l’image. L’indicateur de qualité peut, par exemple, être généré par un classifieur. Le classifieur est configuré pour recevoir en entrée une image déconvoluée et pour générer en sortie un indicateur de qualité. Préférentiellement, ledit indicateur de qualité généré est associé à ladite image déconvoluée. Le classifieur peut être mis en œuvre par un réseau de neurones entrainé à partir de cartographies d’intensité lumineuse et/ou d’images déconvoluées, chacune associée à un indicateur de qualité. Des exemples de réalisations de réseaux de neurones sont indiqués plus loin dans la description. In one embodiment, any other method of calculating a coherence score can be imagined. The variance score can be an indicator of image quality. The quality indicator can, for example, be generated by a classifier. The classifier is configured to receive a deconvolved image as input and to generate a quality indicator as output. Preferably, said generated quality indicator is associated with said deconvolved image. The classifier can be implemented by a neural network trained from light intensity maps and/or deconvolved images, each associated with a quality indicator. Examples of neural network implementations are indicated later in the description.
Le score de cohérence et/ou l’indicateur de qualité est représentatif d’une probabilité que l’image déconvoluée puisse être similaire à une cartographie d’intensité lumineuse.
Utilisation de transformée de Fourier The consistency score and/or the quality indicator is representative of a probability that the deconvolved image may be similar to a light intensity map. Using Fourier Transform
Selon un mode de réalisation, l’étape de calcul CALC1 d’un score de cohérence pour chaque image déconvoluée comprend l’application TRF d’une transformée de Fourier. According to one embodiment, the CALC1 calculation step of a coherence score for each deconvolved image comprises the TRF application of a Fourier transform.
Le score de cohérence C1 , C2, C3, pour chaque déconvolution est alors calculé à partir de la transformée de Fourier T1 , T2, T3 de chaque déconvolution. Une telle transformée de Fourier d’une fonction d’étalement du point est aussi appelée « fonction de transfert optique ». Elle permet de déterminer la distribution de l'énergie lumineuse dans l'espace image et/ou de déterminer la distribution de l’énergie lumineuse dans un espace des fréquences spatiales. The coherence score C1, C2, C3, for each deconvolution is then calculated from the Fourier transform T1, T2, T3 of each deconvolution. Such a Fourier transform of a point spread function is also called an “optical transfer function”. It makes it possible to determine the distribution of light energy in image space and/or to determine the distribution of light energy in a space of spatial frequencies.
Dans un autre mode de réalisation alternatif ou cumulatif, l’étape de déconvolution DEC1 comprend l’application TRF d’une transformée de Fourier de la cartographie d’intensité lumineuse 4. Chaque déconvolution est alors réalisée à partir de la transformée de Fourier de la ladite cartographie d’intensité lumineuse. In another alternative or cumulative embodiment, the deconvolution step DEC1 comprises the TRF application of a Fourier transform of the light intensity mapping 4. Each deconvolution is then carried out from the Fourier transform of the said light intensity mapping.
L’application d’une transformée de Fourier permet avantageusement de simplifier les calculs du score de cohérence. En effet, le domaine spectral d’une image met en évidence les changements d’intensités lumineuses. Notamment, l’amplitude de la fonction de transfert optique (aussi appelée « fonction de transfert de modulation » permet avantageusement de caractériser la finesse des détails de la tache lumineuse de l’objet. La fonction de transfert optique permet avantageusement de mettre en évidence la distribution des fréquences spatiales dans l’image déconvoluée. Ainsi, plus la distribution spatiale des fréquences est large, plus l’image déconvoluée correspondante comprend des bords nets. The application of a Fourier transform advantageously simplifies the calculations of the coherence score. Indeed, the spectral domain of an image highlights changes in light intensities. In particular, the amplitude of the optical transfer function (also called "modulation transfer function" advantageously makes it possible to characterize the fineness of the details of the light spot of the object. The optical transfer function advantageously makes it possible to highlight the spatial frequency distribution in the deconvolved image. Thus, the wider the spatial frequency distribution, the more sharp edges the corresponding deconvolved image includes.
Une transformée de Fourier d’une image déconvoluée peut prendre l’apparence d’un carte 2D dont les intensités sont fonction de la distribution des fréquence ou peut prendre l’apparence d’un graphique comprenant 2 axes en abscisses représentant les deux axes x,y de l’espace de la cartographie d’intensité lumineuse et les fréquences en ordonnées. A Fourier transform of a deconvolved image can take the appearance of a 2D map whose intensities are a function of the frequency distribution or can take the appearance of a graph comprising 2 abscissa axes representing the two x axes, y of the space of the light intensity mapping and frequencies on the ordinate.
Dans un exemple, le score de cohérence est calculé à partir d’une largeur de pic de la transformée de Fourier à une hauteur de pic prédéterminée (par exemple la largeur de pic à mi-hauteur ou la largeur du pic à la base) ou d’une combinaison de plusieurs largeurs du pic à différentes hauteurs
prédéterminées. Dans un autre exemple, le score de cohérence peut être calculé à partir des amplitudes de la transformée de Fourier. In one example, the coherence score is calculated from a Fourier transform peak width at a predetermined peak height (e.g. peak width at half height or peak width at base) or a combination of several peak widths at different heights predetermined. In another example, the coherence score can be calculated from the Fourier transform amplitudes.
D’autres types de transformées peuvent être utilisées en remplacement de la transformée de Fourier pour le calcul du score de cohérence. Par exemple, la transformée de Laplace peut être utilisée pour le calcul du score de cohérence. Other types of transforms can be used to replace the Fourier transform for calculating the consistency score. For example, the Laplace transform can be used to calculate the consistency score.
Alternatives pour la détermination de la hauteur de l’objetAlternatives for determining object height
Dans un mode de réalisation, un autre type de fonction peut être utilisée à la place de la fonction d’étalement du point. In one embodiment, another type of function can be used in place of the point spread function.
Dans un autre mode de réalisation à la place de l’étape de réalisation d’une déconvolution de la cartographie d’intensité lumineuse acquise, le score de cohérence est calculé directement à partir de la fonction sélectionnée et de la cartographie d’intensité lumineuse. In another embodiment, instead of the step of carrying out a deconvolution of the acquired light intensity mapping, the coherence score is calculated directly from the selected function and the light intensity mapping.
Dans un autre mode de réalisation, la détermination de la hauteur est calculée directement à partir de la cartographie d’intensité lumineuse acquise. In another embodiment, the height determination is calculated directly from the acquired light intensity mapping.
Par exemple, la détermination de la distance dudit objet avec la surface de détection comprend le calcul d’une cartographie de gradient à partir de la cartographie d’intensité lumineuse acquise. For example, determining the distance of said object with the detection surface includes calculating a gradient map from the acquired light intensity map.
Le calcul d’une cartographie de gradient peut comprendre, pour chaque pixel de la cartographie d’intensité lumineuse acquise, le calcul d’une valeur de gradient spatiale. Préférentiellement, le calcul dudit gradient spatial d’un pixel est fonction d’un différentiel entre la valeur de l’intensité dudit pixel avec les valeurs de l’intensité des pixels voisins successifs dudit pixel. The calculation of a gradient map may include, for each pixel of the acquired light intensity map, the calculation of a spatial gradient value. Preferably, the calculation of said spatial gradient of a pixel is a function of a differential between the value of the intensity of said pixel with the values of the intensity of successive neighboring pixels of said pixel.
Dans un exemple, la valeur du gradient dudit pixel est fonction d’une somme entre la valeur absolue d’un différentiel entre ledit pixel et ses deux plus proches voisins selon un premier axe et la valeur absolue d’un différentiel entre ledit pixel et ses deux plus proches voisins selon un second axe perpendiculaire au premier axe. In one example, the value of the gradient of said pixel is a function of a sum between the absolute value of a differential between said pixel and its two closest neighbors along a first axis and the absolute value of a differential between said pixel and its two nearest neighbors along a second axis perpendicular to the first axis.
La valeur dudit gradient est ainsi calculée pour chaque pixel de la cartographie d’intensité lumineuse, définissant ainsi une cartographie de gradient. Il est entendu que l’exemple décrit implique le calcul d’une valeur de gradient pour chaque pixel mais peut comprendre de manière alternative le calcul d’une valeur de gradient pour chaque unité de la cartographie d’intensité lumineuse. Ladite unité comprenant un groupement de pixel. Un avantage est
de permettre une plus grande rapidité de calcul au détriment de la définition de la cartographie de gradient. The value of said gradient is thus calculated for each pixel of the light intensity mapping, thus defining a gradient mapping. It is understood that the example described involves the calculation of a gradient value for each pixel but may alternatively include the calculation of a gradient value for each unit of the light intensity mapping. Said unit comprising a pixel grouping. An advantage is to allow greater speed of calculation at the expense of the definition of the gradient mapping.
À partir de la cartographie de gradient, un extremum est déterminé, par exemple par l’application d’un filtre ou d’une fonction de recherche d’extremum. From the gradient mapping, an extremum is determined, for example by applying a filter or an extremum search function.
Dans un exemple, l’extremum peut comprendre le pixel de la cartographie de gradient pour lequel la valeur du gradient calculé est la plus élevée. In one example, the extremum may include the pixel of the gradient map for which the calculated gradient value is the highest.
Dans un mode de réalisation, la distance Z1 de l’objet 10 avec la surface de détection est déterminée à partir de l’extrémum de la cartographie de gradient et/ou à partir d’une fonction prenant en compte la valeur du gradient pour chaque pixel et la position desdits pixels sur la surface de détection. In one embodiment, the distance Z1 of the object 10 with the detection surface is determined from the extremum of the gradient mapping and/or from a function taking into account the value of the gradient for each pixel and the position of said pixels on the detection surface.
Préférentiellement, les coordonnées spatiales dans le plan de la surface de détection sont déterminées à partir des coordonnées de l’extremum déterminée sur la cartographie de gradients. Preferably, the spatial coordinates in the plane of the detection surface are determined from the coordinates of the extremum determined on the gradient mapping.
Détermination de la forme et des coordonnées de l’objet dans le plan de la surface de détection Determining the shape and coordinates of the object in the plane of the detection surface
Une fois que la déconvolution ayant obtenu le meilleur score a été identifiée, il est possible de déterminer à partir de ladite image, certaines informations supplémentaires sur l’objet 10 à détecter. Par exemple, la forme de l’objet et/ou ses coordonnées spatiales dans le plan de la surface de détection peuvent être estimées à partir de la déconvolution ayant obtenu le meilleur score (notamment à partir de respectivement la forme et/ou des coordonnées spatiales de la tache lumineuse). Once the deconvolution having obtained the best score has been identified, it is possible to determine from said image, certain additional information on the object 10 to be detected. For example, the shape of the object and/or its spatial coordinates in the plane of the detection surface can be estimated from the deconvolution having obtained the best score (in particular from respectively the shape and/or spatial coordinates of the light spot).
La première méthode selon l’invention permet ainsi, à partir d’une surface de détection telle que décrite ci-avant, permet de déterminer la hauteur (et optionnellement la forme et/ou la positon spatiale) d’un objet 10 placé devant ladite surface de détection 2. The first method according to the invention thus makes it possible, from a detection surface as described above, to determine the height (and optionally the shape and/or spatial position) of an object 10 placed in front of said detection surface 2.
Le dispositif électronique 1 selon l’invention comprend des moyens logiciels et/ou matériels pour mettre en œuvre la méthode selon l’invention. Les moyens logiciels peuvent comprendre des processeurs, des unités de calculs, des mémoires (notamment des mémoires non transitoires).
Présence de deux objets The electronic device 1 according to the invention comprises software and/or hardware means for implementing the method according to the invention. The software resources may include processors, calculation units, memories (in particular non-transitory memories). Presence of two objects
Dans un mode de réalisation, la méthode comprend la détection d’un second objet placé devant la surface de détection. In one embodiment, the method includes detecting a second object placed in front of the detection surface.
À cet effet, la méthode peut comprendre la détection sur la cartographie d’intensité lumineuse acquise d’un second objet, par exemple par la détection de plusieurs extrémum locaux. La méthode peut comprendre une segmentation de la cartographie d’intensité lumineuse acquise et pour chaque segmentation, la génération d’une distance Z1 pour chaque objet tel que décrit précédemment. To this end, the method can include the detection on the acquired light intensity map of a second object, for example by the detection of several local extrema. The method may include a segmentation of the acquired light intensity mapping and for each segmentation, the generation of a distance Z1 for each object as described previously.
Méthode de génération d’un nuage de points de l’objetMethod for generating a point cloud of the object
Selon un second aspect, l’invention concerne une seconde méthode 300 de génération d’un nuage de point NP1 représentant un objet 10 situé devant la surface de détection 2 du dispositif 1 selon l’invention. According to a second aspect, the invention relates to a second method 300 for generating a point cloud NP1 representing an object 10 located in front of the detection surface 2 of the device 1 according to the invention.
Motifs d’émission et acguisition d’une cartographie d’intensité lumineuse Emission patterns and acquisition of a light intensity map
La seconde méthode 300 comprend la génération d’un premier motif d’émission P1 , notamment par la commande de l’allumage d’un premier ensemble de photoémetteurs de la surface de détection. The second method 300 comprises the generation of a first emission pattern P1, in particular by controlling the ignition of a first set of photoemitters of the detection surface.
Des exemples de plusieurs ensembles de photoémetteurs 31 sont illustrés sur la figure 11 . Examples of several sets of photoemitters 31 are illustrated on the figure 11.
Le premier ensemble de photoémetteurs comprend une sélection de photoémetteurs. Le premier ensemble de photoémetteurs peut comprendre les photoémetteurs situés dans une portion de la surface de détection prédéfinie. Dans un premier exemple, le motif d’émission P1 comprend l’activation d’un ensemble 34 de photoémetteurs formant environ une moitié de la surface de détection 2. Dans un second exemple, le motif d’émission P1 comprend l’activation d’un ensemble de photodétecteurs 31 formant une pluralité de zones 35, 36 séparées les unes des autres. Lesdites zones peuvent être séparées les unes des autres par des zones dont les photoémetteurs ne sont pas activés. Lesdites zones sont préférentiellement séparées les unes des autres par une distance sensiblement égale à une des dimensions de ladite zone. Préférentiellement, lesdites zones forment des formes géométriques telles que des polygones ou des quadrilatères.
Un avantage de tels motifs est de permettre l’illumination de l’objet 10 selon différentes manières. Notamment, l’objet 10 sera plus ou moins illuminé sur ses différentes portions, augmentant ainsi les informations sur l’objet 10 dans les cartographies d’intensité lumineuse. The first set of photoemitters includes a selection of photoemitters. The first set of photoemitters may include the photoemitters located in a portion of the predefined detection surface. In a first example, the emission pattern P1 comprises the activation of a set 34 of photoemitters forming approximately half of the detection surface 2. In a second example, the emission pattern P1 comprises the activation of a set of photodetectors 31 forming a plurality of zones 35, 36 separated from each other. Said zones can be separated from each other by zones whose photoemitters are not activated. Said zones are preferably separated from each other by a distance substantially equal to one of the dimensions of said zone. Preferably, said zones form geometric shapes such as polygons or quadrilaterals. An advantage of such patterns is to allow the object 10 to be illuminated in different ways. In particular, object 10 will be more or less illuminated on its different portions, thus increasing the information on object 10 in the light intensity maps.
Préférentiellement, les photoémetteurs de la surface de détection 2 autres que ceux du premier ensemble défini par le motif d’émission ne sont pas activés ou restent éteints lors de la génération du premier motif d’émission P1 ou lors de l’allumage de l’ensemble de photoémetteurs selon le premier motif d’émission. Preferably, the photoemitters of the detection surface 2 other than those of the first set defined by the emission pattern are not activated or remain off during the generation of the first emission pattern P1 or during the ignition of the set of photoemitters according to the first emission pattern.
Dans un mode de réalisation, un motif d’émission peut comprendre l’extinction de tous les photoémetteurs. Un tel motif d’émission permet avantageusement de mesurer le bruit environnant détectable par les photodétecteurs. Dans un mode de réalisation, la cartographie d’intensité lumineuse obtenue est utilisée comme filtre pour le traitement des cartographies d’intensité lumineuse obtenues ultérieurement. Un tel filtrage permet avantageusement d’obtenir un meilleur rapport signal sur bruit. In one embodiment, an emission pattern may include turning off all photoemitters. Such an emission pattern advantageously makes it possible to measure the surrounding noise detectable by the photodetectors. In one embodiment, the light intensity map obtained is used as a filter for processing the light intensity maps subsequently obtained. Such filtering advantageously makes it possible to obtain a better signal-to-noise ratio.
Dans un mode de réalisation, le dispositif électronique 1 comprend une mémoire, préférentiellement une mémoire non-transitoire. Une bibliothèque ou une base de données comprenant une pluralité de motifs P1 , P2 différents est enregistrée sur ladite mémoire. In one embodiment, the electronic device 1 comprises a memory, preferably a non-transient memory. A library or a database comprising a plurality of different patterns P1, P2 is recorded on said memory.
Dans un mode de réalisation, la mémoire est connectée à un processeur et/ou aux moyens de contrôle de l’activation des photoémetteurs. Les moyens de contrôle de l’activation (ou l’allumage) des photoémetteurs est configuré pour activer les photoémetteurs en fonction du motif d’émission sélectionné. In one embodiment, the memory is connected to a processor and/or to means for controlling the activation of the photoemitters. The means for controlling the activation (or ignition) of the photoemitters is configured to activate the photoemitters according to the selected emission pattern.
La seconde méthode comprend une acquisition ACQU1 d’une cartographie d’intensité lumineuse similaire à celle de la première méthode 200. Préférentiellement, l’acquisition est réalisée simultanément à l’allumage des photoémetteurs 31 selon le premier motif d’émission P1. The second method includes an acquisition ACQU1 of a light intensity map similar to that of the first method 200. Preferably, the acquisition is carried out simultaneously with the switching on of the photoemitters 31 according to the first emission pattern P1.
Préférentiellement, la cartographie d’intensité lumineuse acquise 41 est associée à un label comprenant des indications permettant d’identifier le premier motif d’émission P1 généré pour acquérir ladite cartographie d’intensité lumineuse 41 .
Fonction de construction Preferably, the acquired light intensity map 41 is associated with a label comprising indications making it possible to identify the first emission pattern P1 generated to acquire said light intensity map 41. Building function
Dans un premier mode, la seconde méthode 300 comprend en outre la génération d’un nuage de point NP1 de l’objet 10 situé devant la surface de détection 2. Ledit nuage de point est généré à partir de ladite cartographie d’intensité lumineuse acquise 41 et à partir du premier motif d’émission P1 mise en œuvre pour l’acquisition de ladite cartographie 41. Le nuage de point généré NP1 est une représentation dudit objet 10 placé devant la surface de détection. In a first mode, the second method 300 further comprises the generation of a point cloud NP1 of the object 10 located in front of the detection surface 2. Said point cloud is generated from said acquired light intensity mapping 41 and from the first emission pattern P1 implemented for the acquisition of said mapping 41. The generated point cloud NP1 is a representation of said object 10 placed in front of the detection surface.
Dans un second mode cumulatif ou alternatif au premier mode, la seconde méthode 300 comprend en outre la génération d’au moins un point de l’objet 10 situé devant la surface de détection 2. Ledit au moins un point est généré à partir de ladite cartographie d’intensité lumineuse acquise 41 et à partir du premier motif d’émission P1 mise en œuvre pour l’acquisition de ladite cartographie 41. Le au moins un point généré, notamment ses coordonnées est une représentation de la position dudit objet 10 placé devant la surface de détection dans l’espace. In a second cumulative mode or alternative to the first mode, the second method 300 further comprises the generation of at least one point of the object 10 located in front of the detection surface 2. Said at least one point is generated from said acquired light intensity mapping 41 and from the first emission pattern P1 implemented for the acquisition of said mapping 41. The at least one point generated, in particular its coordinates is a representation of the position of said object 10 placed in front the detection surface in space.
Cette étape de génération d’un nuage de points NP1 ou d’au moins un point est mise en œuvre par une fonction de construction FCT1 . La fonction FCT1 est conçue pour recevoir en entrée au moins une cartographie d’intensité lumineuse 41 et un motif d’émission P1 associé à ladite cartographie 41. La fonction FCT1 est conçue pour, en sortie, générer un nuage de points NP1 représentant l’objet 10 placé devant la surface de détection 2 pendant l’étape d’acquisition ACQU1 ou au moins un point représentatif de la position de l’objet 10 placé devant la surface de détection 2 pendant l’étape d’acquisition ACQU1. Préférentiellement, la fonction de construction génère un nuage de points NP1 ou au moins un point de l’objet 10 dans un référentiel comprenant la surface de détection 2. Un avantage est de reproduire un nuage de points représentatif de l’objet 10 ou au moins un point représentatif de la position de l’objet 10 et comprenant des informations de distance et d’orientation par rapport au plan de détection. This step of generating a cloud of points NP1 or at least one point is implemented by a construction function FCT1. The FCT1 function is designed to receive as input at least one light intensity map 41 and an emission pattern P1 associated with said map 41. The FCT1 function is designed to, at output, generate a cloud of points NP1 representing the object 10 placed in front of the detection surface 2 during the acquisition step ACQU1 or at least one point representative of the position of the object 10 placed in front of the detection surface 2 during the acquisition step ACQU1. Preferably, the construction function generates a cloud of points NP1 or at least one point of the object 10 in a reference frame comprising the detection surface 2. An advantage is to reproduce a cloud of points representative of the object 10 or at least a point representative of the position of the object 10 and comprising distance and orientation information relative to the detection plane.
La fonction de construction FCT1 est préférentiellement mise en œuvre par un calculateur du dispositif électronique 1 selon l’invention. Une mémoire, connectée audit calculateur, peut comprendre des informations de code pour exécuter ladite fonction de construction FCT1 lorsqu’elle est mise en œuvre par le calculateur ou par le dispositif électronique 1 .
Dans un mode de réalisation, la fonction de construction génère un nuage de points NP1 pour chaque jeu de cartographies d’intensité lumineuse acquises, préférentiellement en temps réel. The construction function FCT1 is preferably implemented by a computer of the electronic device 1 according to the invention. A memory, connected to said computer, may include code information to execute said construction function FCT1 when it is implemented by the computer or by the electronic device 1. In one embodiment, the construction function generates a cloud of points NP1 for each set of light intensity maps acquired, preferably in real time.
Pluralité de motifs d’émission Plurality of emission reasons
Selon un mode de réalisation, la seconde méthode 300 comprend l’acquisition ACQU2 d’une seconde cartographie d’intensité lumineuse 42 par la même surface de détection que celle utilisée pour l’acquisition de la première cartographie d’intensité lumineuse, plus particulièrement par les même photodétecteurs que ceux utilisés pour l’acquisition de la première cartographie d’intensité lumineuse. According to one embodiment, the second method 300 comprises the acquisition ACQU2 of a second light intensity map 42 by the same detection surface as that used for the acquisition of the first light intensity map, more particularly by the same photodetectors as those used for the acquisition of the first light intensity map.
La seconde méthode comprend alors une génération MOT2 d’un second motif d’émission P2 par la commande de l’allumage d’un second ensemble de photoémetteurs différent du premier ensemble du premier motif d’émission. The second method then comprises an MOT2 generation of a second emission pattern P2 by controlling the ignition of a second set of photoemitters different from the first set of the first emission pattern.
L’acquisition ACQU2 de la seconde cartographie d’intensité lumineuse 42 est réalisée simultanément à la génération du second motif MOT2 d’émission pour permettre d’acquérir l’intensité lumineuse émise par le second motif P2 et réfléchie par l’objet 10 pour lequel on souhaite générer un nuage de points NP1 . The acquisition ACQU2 of the second light intensity map 42 is carried out simultaneously with the generation of the second emission pattern MOT2 to make it possible to acquire the light intensity emitted by the second pattern P2 and reflected by the object 10 for which we wish to generate a cloud of points NP1.
Ladite seconde cartographie d’intensité lumineuse 42 peut être associée au second motif d’émission P2 différent du premier motif P1. Alternativement, la seconde cartographie d’intensité lumineuse 42 est associée à un label comprenant des données d’identification du second motif d’émission P2. Said second light intensity mapping 42 can be associated with the second emission pattern P2 different from the first pattern P1. Alternatively, the second light intensity map 42 is associated with a label comprising identification data of the second emission pattern P2.
Dans un mode de réalisation, la méthode comprend l’acquisition d’une pluralité de cartographies d’intensité lumineuse, chacune effectuée simultanément à la génération d’un motif d’émission par la commande de l’allumage d’un ensemble de photoémetteurs de la surface de détection différente des ensembles caractérisant les autres motifs d’émission. In one embodiment, the method comprises the acquisition of a plurality of light intensity maps, each carried out simultaneously with the generation of an emission pattern by controlling the ignition of a set of photoemitters of the detection surface different from the sets characterizing the other emission patterns.
Ladite seconde acquisition ACQU2 est réalisée dans un laps de temps très court de la première acquisition ACQU1 . Said second acquisition ACQU2 is carried out within a very short period of time from the first acquisition ACQU1.
Préférentiellement, la seconde acquisition ACQU2 et la première acquisition ACQU1 sont toutes deux réalisées dans une période de temps inférieure à 5 ms, très préférentiellement inférieure à 500 ps.
Préférentiellement, la pluralité de cartographies d’intensité lumineuse acquises formant un jeu de cartographies d’intensité lumineuse sont toutes acquises dans une période de temps inférieure à 10 ms, très préférentiellement inférieure à 4 ms. Preferably, the second acquisition ACQU2 and the first acquisition ACQU1 are both carried out in a time period of less than 5 ms, very preferably less than 500 ps. Preferably, the plurality of acquired light intensity maps forming a set of light intensity maps are all acquired in a time period of less than 10 ms, very preferably less than 4 ms.
L’avantage est d’obtenir deux cartographies d’intensité lumineuse ou un jeu de cartographies d’intensité lumineuse du même objet 10 n’ayant pas eu le temps de bouger. Ainsi, l’invention permet avantageusement de générer une pluralité de nuage de points NP1 de l’objet au cours du temps. La comparaison des nuages de points successifs permet de suivre le mouvement dudit objet comme expliqué plus loin. The advantage is to obtain two light intensity maps or a set of light intensity maps of the same object 10 which has not had time to move. Thus, the invention advantageously makes it possible to generate a plurality of point clouds NP1 of the object over time. The comparison of successive point clouds makes it possible to follow the movement of said object as explained below.
Ces cartographies d’intensité lumineuse en temps réel acquises selon différents motifs d’émissions peuvent être regroupées dans un jeu de cartographies d’intensité lumineuse. Un jeu de cartographies d’intensité lumineuse comprend deux ou une pluralité de cartographies d’intensité lumineuse acquises dans un intervalle de temps très court (inférieur à 10 ms ou inférieur à 4 ms) et à partir de différents motifs d’émission P1 , P2. Ce jeu de cartographies d’intensité lumineuse permet avantageusement à la fonction de construction FCT1 décrite ci-après de générer un nuage de points NP1 de l’objet 10 de manière plus fiable et plus précise. These real-time light intensity maps acquired according to different emission patterns can be grouped into a set of light intensity maps. A set of light intensity maps comprises two or a plurality of light intensity maps acquired in a very short time interval (less than 10 ms or less than 4 ms) and from different emission patterns P1, P2 . This set of light intensity maps advantageously allows the construction function FCT1 described below to generate a cloud of points NP1 of the object 10 in a more reliable and more precise manner.
En effet, la prise de plusieurs cartographies d’intensité lumineuse avec des motifs d’émission différents permet de fournir plus d’informations sur l’objet 10 à détecter. La résolution et la fiabilité du nuage de point NP1 généré s’en retrouvent par conséquent avantageusement amélioré. De même, il est ainsi possible, à partir de deux cartographies lumineuses acquises à partir de deux motifs d’émission différents, de déterminer par la fonction de construction au moins un point déterminant la position de l’objet dans l’espace par rapport à la surface de détection. Indeed, taking several light intensity maps with different emission patterns makes it possible to provide more information on the object 10 to be detected. The resolution and reliability of the generated NP1 point cloud are therefore advantageously improved. Likewise, it is thus possible, from two light maps acquired from two different emission patterns, to determine by the construction function at least one point determining the position of the object in space with respect to the detection surface.
Dans un mode de réalisation, la fonction de construction génère un nuage de points NP1 pour chaque jeu de cartographies d’intensité lumineuse acquises, préférentiellement en temps réel. In one embodiment, the construction function generates a cloud of NP1 points for each set of light intensity maps acquired, preferably in real time.
Simulation et génération d’une image Simulation and generation of an image
Maintenant sont décrits différents modes d’exécution de la fonction de construction FCT1. Dans un but de clarté, ces différents modes sont appelés première, deuxième et troisième fonction de construction FCT1 .
La première fonction de construction FCT1 comprend la détermination d’un nuage de points NP1 par une fonction de minimisation d’images obtenues à partir de la simulation des rayons lumineux réfléchis par l’objet 10. Different modes of execution of the construction function FCT1 are now described. For the sake of clarity, these different modes are called first, second and third FCT1 construction function. The first construction function FCT1 comprises the determination of a cloud of points NP1 by a function for minimizing images obtained from the simulation of the light rays reflected by the object 10.
La première fonction de construction comprend alors la sélection d’un premier nuage de point candidat NPO. Ce premier nuage de point candidat peut représenter une première estimation de l’objet 10. The first construction function then includes the selection of a first candidate point cloud NPO. This first candidate point cloud can represent a first estimate of the object 10.
Ce premier nuage de points candidat NPO est utilisé pour réaliser une simulation d’acquisition d’une cartographie d’intensité lumineuse. This first NPO candidate point cloud is used to carry out an acquisition simulation of a light intensity map.
Une simulation d’émission de rayons lumineux par le premier ensemble de photodétecteurs du premier motif d’émission P1 est réalisée. A simulation of emission of light rays by the first set of photodetectors of the first emission pattern P1 is carried out.
Le nuage de point candidat NPO est utilisé pour simuler un objet 10 virtuel candidat. La simulation SIM1 comprend ainsi la simulation de la lumière émise par une surface de détection selon le premier motif d’émission et réfléchie par une surface formée par ledit nuage de points candidats NPO. La simulation comprend enfin la détermination de l’intensité lumineuse détectée par chaque photodétecteur, notamment l’intensité lumineuse issue des rayons réfléchis par l’objet 10. The candidate point cloud NPO is used to simulate a candidate virtual object. The SIM1 simulation thus comprises the simulation of the light emitted by a detection surface according to the first emission pattern and reflected by a surface formed by said cloud of NPO candidate points. The simulation finally includes the determination of the light intensity detected by each photodetector, in particular the light intensity resulting from the rays reflected by the object 10.
Une première image 411 est alors réalisée. La première image est préférentiellement réalisée en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur lors de la simulation d’un premier motif d’émission. A first image 411 is then produced. The first image is preferably produced as a function of the position and the light intensity received by each photodetector during the simulation of a first emission pattern.
Dans un mode de réalisation, la simulation comprend la simulation d’un environnement virtuel comprenant une surface de détection virtuelle similaire à la surface de détection du dispositif électronique. Notamment, la surface de détection virtuelle reproduit l’agencement des photoémetteurs et des photodétecteurs de la surface de détection du dispositif électronique 1. Chaque photoémetteur et chaque photodétecteur de la surface de détection du dispositif électronique 1 a un équivalent sur la surface de détection virtuelle. In one embodiment, the simulation includes simulating a virtual environment including a virtual sensing surface similar to the sensing surface of the electronic device. In particular, the virtual detection surface reproduces the arrangement of the photoemitters and photodetectors of the detection surface of the electronic device 1. Each photoemitter and each photodetector of the detection surface of the electronic device 1 has an equivalent on the virtual detection surface.
Préférentiellement, les propriétés optiques et les propriétés de détection des photoémetteurs et des photodétecteurs de la surface de détection du dispositif électronique 1 sont reproduites par la surface de détection virtuelle. Preferably, the optical properties and the detection properties of the photoemitters and photodetectors of the detection surface of the electronic device 1 are reproduced by the virtual detection surface.
La réalisation de la première image 411 est donc, en d’autres termes, une simulation d’une cartographie lumineuse qui aurait été générée si
le premier nuage de points candidat NPO est une reproduction fidèle de l’objet 10 à détecter. The production of the first image 411 is therefore, in other words, a simulation of a light map which would have been generated if the first candidate point cloud NPO is a faithful reproduction of the object 10 to be detected.
La simulation SIM1 comprend donc préférentiellement une simulation d’émission de lumière par les photodétecteurs du premier ensemble, la réflexion de ces rayons lumineux sur le premier nuage de points candidat NPO, et la génération GEN1 de la première image 411 à partir des rayons lumineux réfléchis simulés et de la simulation de leur détection par les photodétecteurs. The SIM1 simulation therefore preferably includes a simulation of light emission by the photodetectors of the first set, the reflection of these light rays on the first candidate point cloud NPO, and the GEN1 generation of the first image 411 from the reflected light rays simulated and the simulation of their detection by the photodetectors.
Dans le mode de réalisation où une deuxième cartographie d’intensité lumineuse 42 est acquise à partir d’un deuxième motif d’émission P2, une seconde image 421 est générée de la même manière sur la base d’une simulation SIM2 à partir dudit second motif d’émission P2 et du même premier nuage de point candidat. In the embodiment where a second light intensity map 42 is acquired from a second emission pattern P2, a second image 421 is generated in the same way on the basis of a SIM2 simulation from said second emission pattern P2 and the same first candidate point cloud.
Dans le mode de réalisation où une pluralité de cartographies d’intensité lumineuses est générée sur la base d’une pluralité de motifs lumineux, une pluralité d’images est générée, chacune de ces images est générée de la même manière sur la base d’une simulation à partir d’un motif d’émission différent. In the embodiment where a plurality of light intensity maps are generated based on a plurality of light patterns, a plurality of images are generated, each of these images is generated in the same manner based on a simulation from a different emission pattern.
Comparaison de l’image générée et de la cartographieComparison of generated image and mapping
La première fonction de construction FCT1 comprend optionnellement une étape de comparaison. The first construction function FCT1 optionally includes a comparison step.
La comparaison COMP1 comprend la comparaison de l’image générée 411 avec la cartographie d’intensité lumineuse 41 acquise. Notamment, la comparaison COMP1 comprend la comparaison de l’image générée 411 à partir du premier motif d’émission P1 utilisé pour acquérir la première cartographie d’intensité lumineuse 421. The COMP1 comparison includes the comparison of the generated image 411 with the acquired light intensity map 41. In particular, the comparison COMP1 includes the comparison of the image generated 411 from the first emission pattern P1 used to acquire the first light intensity map 421.
Dans un mode de réalisation, la comparaison COMP1 comprend la génération d’un indicateur de comparaison V1. L’indicateur de comparaison V1 est généré en fonction de ladite opération de comparaison. Dans un mode de réalisation, la comparaison comprend la comparaison des intensités de chaque pixel de l’image générée 421 avec celle des pixels correspondants de la cartographie d’intensité lumineuse acquise 41. In one embodiment, the comparison COMP1 comprises the generation of a comparison indicator V1. The comparison indicator V1 is generated according to said comparison operation. In one embodiment, the comparison comprises the comparison of the intensities of each pixel of the generated image 421 with that of the corresponding pixels of the acquired light intensity map 41.
Dans le mode de réalisation où une seconde cartographie d’intensité lumineuse 42 est acquise, une seconde comparaison COMP2 est réalisée entre ladite seconde cartographie d’intensité lumineuse 42 et la
seconde image générée à partir du second motif d’émission P2. Un second indicateur de comparaison V2 est ainsi généré. De manière alternative, un unique indicateur de comparaison V0 est généré en fonction de la première V1 et de la seconde comparaison V2. In the embodiment where a second light intensity map 42 is acquired, a second comparison COMP2 is carried out between said second light intensity map 42 and the second image generated from the second emission pattern P2. A second comparison indicator V2 is thus generated. Alternatively, a single comparison indicator V0 is generated as a function of the first V1 and the second comparison V2.
Dans le cas où une pluralité de cartographies lumineuses est acquise dans la période de temps décrite ci-dessus, la première fonction de construction FCT1 peut comprendre une pluralité comparaisons. Chaque comparaison comprend la comparaison d’une cartographie d’intensité lumineuse acquise avec une image générée à partir du même motif d’émission que celui utilisé pour l’acquisition de ladite cartographie d’intensité lumineuse. In the case where a plurality of light maps is acquired in the time period described above, the first construction function FCT1 may include a plurality of comparisons. Each comparison comprises the comparison of an acquired light intensity map with an image generated from the same emission pattern as that used for the acquisition of said light intensity map.
Minimisation du résultat de la comparaison en faisant varier le nuage de point Minimization of the comparison result by varying the point cloud
Le résultat V1 , V2 de la ou des étapes de comparaison, est ensuite utilisé pour la réalisation d’une étape de minimisation dudit résultat. Ledit résultat peut comprendre le ou les indicateurs de comparaison. The result V1, V2 of the comparison step(s) is then used to carry out a step of minimizing said result. Said result may include the comparison indicator(s).
Lorsque que le résultat V1 de la comparaison est inférieur ou supérieur à une valeur cible prédéterminée, la ou les images générées 422, 421 sont considérées comme suffisamment proches de la ou des cartographies d’intensité lumineuse acquises et le nuage de points candidat est considéré comme étant suffisamment proche de la réalité. Dans ce cas, la fonction de construction FCT1 génère un nuage de point NP1 dudit objet 10 égal au nuage de points candidat NPO. Dans un mode alternatif, le nuage de points NP1 généré est fonction du nuage de points candidat NPO et du résultat de la comparaison V1 . When the result V1 of the comparison is less than or greater than a predetermined target value, the generated image(s) 422, 421 are considered sufficiently close to the acquired light intensity maps and the candidate point cloud is considered as being sufficiently close to reality. In this case, the construction function FCT1 generates a point cloud NP1 of said object 10 equal to the candidate point cloud NPO. In an alternative mode, the generated point cloud NP1 is a function of the candidate point cloud NPO and the result of the comparison V1.
Lorsque le résultat de la comparaison n’atteint pas une valeur cible prédéterminée, une étape de minimisation du résultat V1 de la comparaison est préférentiellement effectuée. When the result of the comparison does not reach a predetermined target value, a step of minimizing the result V1 of the comparison is preferably carried out.
Un mode d’exécution de l’étape de minimisation MIN1 est maintenant décrit. Dans ce mode, la minimisation comprend la sélection d’un nouveau nuage de points candidat Anp. Une nouvelle étape de simulation SIM11 et de génération GEN11 d’une image 412 sont effectuées de la même manière que décrit précédemment, cette fois sur la base du nouveau nuage de points candidat Anp.
Une nouvelle étape de comparaison COMP11 est ensuite effectuée en comparant ladite nouvelle image 412 générée et la cartographie d’intensité lumineuse 41 acquise avec le même motif d’émission P1 . A mode of execution of the minimization step MIN1 is now described. In this mode, the minimization includes the selection of a new candidate point cloud Anp. A new SIM11 simulation step and GEN11 generation of an image 412 are carried out in the same way as described previously, this time on the basis of the new candidate point cloud Anp. A new comparison step COMP11 is then carried out by comparing said new image 412 generated and the light intensity map 41 acquired with the same emission pattern P1.
Un nouveau résultat de la comparaison V11 est généré à partir de la nouvelle étape de comparaison COMP11 . A new result of the comparison V11 is generated from the new comparison step COMP11.
Si le nouveau résultat de la comparaison V11 n’atteint toujours pas la valeur cible prédéterminée, une nouvelle boucle (sélection d’un nouveau nuage de points candidat, simulation, génération d’une nouvelle image, comparaison entre la nouvelle image et la cartographie d’intensité lumineuse acquise) peut être générée. If the new result of the V11 comparison still does not reach the predetermined target value, a new loop (selection of a new candidate point cloud, simulation, generation of a new image, comparison between the new image and the mapping of acquired light intensity) can be generated.
Dans un mode d’exécution, la sélection d’un nouveau nuage de points candidat Anp est fonction du résultat de la comparaison précédente. In one execution mode, the selection of a new candidate point cloud Anp depends on the result of the previous comparison.
L’étape de minimisation du résultat de la comparaison s’effectue en faisant varier le nuage de points candidat NPO, Anp. The step of minimizing the comparison result is carried out by varying the candidate point cloud NPO, Anp.
Préférentiellement, l’étape de minimisation comprend une étape de descente en gradient. La sélection d’un nouveau nuage de points candidat Anp peut être réalisée de manière à ce que la variation entre le nouveau nuage de points candidat Anp et le précédent nuage de points candidats NPO soit fonction de l’écart entre le résultat de la comparaison et la valeur cible prédéterminée. Preferably, the minimization step includes a gradient descent step. The selection of a new candidate point cloud Anp can be carried out in such a way that the variation between the new candidate point cloud Anp and the previous candidate point cloud NPO is a function of the difference between the result of the comparison and the predetermined target value.
La méthode de descente de gradient effectue donc de manière itérative la génération de nouveaux nuages de points candidats Anp pour minimiser le résultat de la fonction de comparaison entre l’image générée à partir d’un nuage de points candidat et la cartographie d’intensité lumineuse acquise. The gradient descent method therefore iteratively generates new candidate point clouds Anp to minimize the result of the comparison function between the image generated from a candidate point cloud and the light intensity mapping acquired.
Dans le mode où deux ou plusieurs cartographies d’intensité lumineuse sont acquises, la méthode de descente de gradient effectue donc de manière itérative la génération de nouveaux nuages de points candidats Anp pour minimiser le résultat de la fonction de comparaison entre chaque image générée et la cartographie d’intensité lumineuse acquise à partir du même motif d’émission. In the mode where two or more light intensity maps are acquired, the gradient descent method therefore iteratively generates new candidate point clouds Anp to minimize the result of the comparison function between each generated image and the light intensity mapping acquired from the same emission pattern.
Une fois que le résultat de la fonction de comparaison atteint une valeur cible prédéterminée ou une fois que la fonction de comparaison atteint un extremum, le nuage de points NP1 de l’objet 10 est généré en fonction du
nuage de points candidat pour lequel la fonction de comparaison a atteint respectivement la valeur cible ou ledit extremum. Once the result of the comparison function reaches a predetermined target value or once the comparison function reaches an extremum, the point cloud NP1 of the object 10 is generated according to the candidate point cloud for which the comparison function has respectively reached the target value or said extremum.
Dans un mode d’exécution, le premier nuage de points candidat NPO est sélectionné parmi un nuage de points préenregistré. Selon un autre mode, le premier nuage de points prédéterminé est généré à partir d’un (préférentiellement le dernier) nuage de point NP1 de l’objet généré par la seconde méthode ou par la fonction de construction FCT1 antérieurement, préférentiellement lors de la période de temps précédente. En effet, si l’objet 10 n’a que peu bougé entre les deux acquisitions successives ou entre deux périodes de temps successives, on peut considérer que le dernier nuage de points NP1 peut servir de base pour la génération du nouveau nuage de points NP2. In one execution mode, the first NPO candidate point cloud is selected from a pre-recorded point cloud. According to another mode, the first predetermined point cloud is generated from a (preferably the last) point cloud NP1 of the object generated by the second method or by the construction function FCT1 previously, preferably during the period of previous time. Indeed, if the object 10 has moved only slightly between the two successive acquisitions or between two successive periods of time, we can consider that the last cloud of points NP1 can serve as a basis for the generation of the new cloud of points NP2 .
Dans un autre mode d’exécution, le premier nuage de points candidat NPO est généré en fonction de la forme de l’objet 10 et/ou ses coordonnées spatiales déterminées par la première méthode selon l’invention. In another mode of execution, the first cloud of candidate points NPO is generated according to the shape of the object 10 and/or its spatial coordinates determined by the first method according to the invention.
Réseau de neurones Neural network
Il est maintenant décrit un mode d’exécution alternatif de la fonction de construction FCT1 , appelé ici seconde fonction de construction dans lequel ladite seconde fonction de construction est une fonction apprenante ou est mise en œuvre au moyen d’une telle fonction apprenante. An alternative mode of execution of the construction function FCT1 is now described, here called second construction function in which said second construction function is a learning function or is implemented by means of such a learning function.
La fonction apprenante est préférentiellement entraînée par une série de cartographies d’intensité lumineuse. Dans un exemple, la fonction apprenante a été configurée à partir d’un apprentissage comprenant la soumission d’une pluralité de cartographies d’intensité lumineuse (optionnellement acquises par un dispositif similaire au dispositif électronique selon l’invention), chaque cartographie d’intensité lumineuse étant associée à un premier label représentant un nuage de points représentant l’objet 10 ayant permis d’obtenir ladite cartographie d’intensité lumineuse. Préférentiellement, le label peut comprendre également des informations caractéristiques de la prise méthode d’acquisition ayant permis d’obtenir la cartographie d’intensité lumineuse associée. Par exemple, le premier label peut comprendre une information représentant le motif d’émission utilisé pour l’acquisition de ladite cartographie d’intensité lumineuse. Cette information peut alternativement être comprise dans un second label associé à chaque cartographie d’intensité lumineuse.
Dans un mode de réalisation, l’étape de génération d’un nuage de point NP1 de l’objet 10 comprend la génération d’un score de correspondance pour une pluralité de nuages de points candidats. Le score de correspondance peut comprendre une probabilité que le nuage de points candidat soit compatible avec la cartographie d’intensité lumineuse acquise. L’exécution de la seconde fonction de construction comprend alors la sélection du nuage de points candidat pour lequel le score de correspondance est le meilleur. The learning function is preferentially trained by a series of light intensity maps. In one example, the learning function was configured from learning comprising the submission of a plurality of light intensity maps (optionally acquired by a device similar to the electronic device according to the invention), each intensity map light being associated with a first label representing a cloud of points representing the object 10 having made it possible to obtain said light intensity mapping. Preferably, the label may also include information characteristic of the acquisition method which made it possible to obtain the associated light intensity mapping. For example, the first label may include information representing the emission pattern used for the acquisition of said light intensity map. This information can alternatively be included in a second label associated with each light intensity map. In one embodiment, the step of generating a point cloud NP1 of the object 10 comprises the generation of a correspondence score for a plurality of candidate point clouds. The match score may include a probability that the candidate point cloud is compatible with the acquired light intensity mapping. The execution of the second construction function then includes the selection of the candidate point cloud for which the correspondence score is the best.
Dans un mode de réalisation, la fonction apprenante génère un nuage de points NP1 pour chaque jeu de cartographies d’intensité lumineuse acquises, préférentiellement en temps réel. In one embodiment, the learning function generates a cloud of points NP1 for each set of light intensity maps acquired, preferably in real time.
Dans un mode de réalisation, la seconde fonction de construction est mise en œuvre au moyen d’un réseau de neurones entraîné par une série de jeux de cartographies d’intensité lumineuse labellisées. L’avantage d’une telle seconde fonction de construction est qu’elle permet la génération d’un nuage de points NP1 de l’objet à partir d’un entraînement à partir de cartographies d’intensité lumineuse labellisées. In one embodiment, the second construction function is implemented by means of a neural network trained by a series of sets of labeled light intensity maps. The advantage of such a second construction function is that it allows the generation of a cloud of NP1 points of the object from training using labeled light intensity maps.
Dans un exemple, le réseau de neurones est un réseau neuronal convolutif, dit CNN ou Convet. In one example, the neural network is a convolutional neural network, called CNN or Convet.
Selon un mode de réalisation, la configuration du réseau de neurones CNN peut comprendre : According to one embodiment, the configuration of the CNN neural network may include:
■ Des convolutions ou des couches de réseau de neurones comportant une pluralité de multiplications de matrices comportant des coefficients de pondération obtenus à partir d’un procédé d’apprentissage ; ■ Convolutions or neural network layers comprising a plurality of multiplications of matrices comprising weighting coefficients obtained from a learning process;
■ des opérations non-linéaires. ■ non-linear operations.
Selon un mode de réalisation, la configuration du réseau de neurones CNN comprend en entrée(s) des cartographies d’intensité lumineuse acquises ou reçues ou stockées dans une mémoire. Préférentiellement, chaque cartographie d’intensité lumineuse acquise ou reçue est associée au motif d’émission utilisé pour son acquisition. According to one embodiment, the configuration of the CNN neural network includes as input(s) light intensity maps acquired or received or stored in a memory. Preferably, each light intensity map acquired or received is associated with the emission pattern used for its acquisition.
Le réseau de neurones CNN peut comprendre dans ses premières couches des convolutions puis des couches de neurones entièrement connectées, dites « fully connected layers » à la fin du modèle. Dans ce dernier cas, ce sont des neurones connectés à tous les neurones de la couche précédente et connectés à tous ceux de la couche suivante.
Les couches de convolutions peuvent comprendre un balayage d’une matrice d’entrée produisant une série de calculs matriciels. Les autres couches du réseau de neurones comprennent, elles, généralement, des calculs matriciels sur la taille de la matrice d’entrée. The CNN neural network can include convolutions in its first layers and then layers of fully connected neurons, called “fully connected layers” at the end of the model. In the latter case, these are neurons connected to all the neurons of the previous layer and connected to all those of the next layer. The convolution layers may include a scan of an input matrix producing a series of matrix calculations. The other layers of the neural network generally include matrix calculations based on the size of the input matrix.
Selon un exemple, chaque convolution comprend un produit de matrice entre une matrice d’entrées et une matrice de poids et la prise en compte d’un biais additionnel. According to one example, each convolution includes a matrix product between an input matrix and a weight matrix and the consideration of an additional bias.
L’application d’un traitement par couches successives au sein du réseau de neurones CNN comprend l’application d’une série de multiplications matricielles qui sont suivies d’une fonction non linéaire pour produire une sortie de ladite couche. La succession de ces opérations définit la profondeur du réseau de neurones. Applying layered processing within the CNN neural network involves applying a series of matrix multiplications which are followed by a non-linear function to produce an output of said layer. The succession of these operations defines the depth of the neural network.
Selon un exemple de réalisation, le réseau de neurones est un perceptron multicouche, connu sous l’acronyme MLP et dans la terminologie anglo-saxonne par « multi-layers perceptron ». Selon un exemple, le réseau de neurones peut être un réseau équivalent au MLP. According to an exemplary embodiment, the neural network is a multi-layer perceptron, known by the acronym MLP and in English terminology by “multi-layers perceptron”. According to one example, the neural network may be a network equivalent to the MLP.
Selon un autre exemple, le réseau de neurones est un réseau de neurones récurrent. Préférentiellement, l’architecture du réseau de neurones est une mémoire à long-court terme (connu sous l’acronyme « LSTM » pour « Long Short-Therm Memory » en anglais). Ce type d’architecture possède des connexions de rétroaction. Une unité LSTM peut comprendre une cellule, une porte entrée, une porte de sortie, et une porte d’oubli. Les trois portes régulent le flux d’informations entrant et sortant de ladite cellule. Selon un exemple, le réseau de neurones peut être un équivalent au LSTM. According to another example, the neural network is a recurrent neural network. Preferably, the architecture of the neural network is a long-short-term memory (known by the acronym “LSTM” for “Long Short-Therm Memory” in English). This type of architecture has feedback connections. An LSTM unit may include a cell, an input gate, an output gate, and a forget gate. The three gates regulate the flow of information into and out of said cell. According to one example, the neural network can be an equivalent to LSTM.
Selon un autre exemple, le réseau de neurones est un réseau neurones à convolution de type « U-NET » c’est-à-dire un réseau basé sur une architecture entièrement conventionnelle. Ce type de réseau de neurones et particulièrement avantageux pour effectuer une segmentation d’images précise et pour fonctionner avec moins de données d’entrainement. According to another example, the neural network is a convolutional neural network of the “U-NET” type, that is to say a network based on an entirely conventional architecture. This type of neural network is particularly advantageous for performing precise image segmentation and for operating with less training data.
Dans un mode de réalisation, une cellule du réseau de neurones reçoit des premières données d’entrées et génère des premières données de sorties. Les premières données d’entrées et de sorties sont alors enregistrées dans une mémoire (préférentiellement une mémoire non-transitoire). Lors de la réception de nouvelles données d’entrées, de nouvelles données de sorties sont générées. Ces nouvelles données de sorties peuvent être générées en
fonction des nouvelles données d’entrées et des données enregistrées dans la mémoire (c’est-à-dire des premières données d’entrées et de sorties précédentes). Par « cellule », on entend également une couche ou un bloc d’un réseau de neurones. In one embodiment, a cell of the neural network receives first input data and generates first output data. The first input and output data are then recorded in a memory (preferably a non-transient memory). When new input data is received, new output data is generated. This new output data can be generated by function of the new input data and the data recorded in the memory (i.e. the first input data and previous output data). By “cell” we also mean a layer or a block of a neural network.
Dans un mode de réalisation, à chaque génération de données de sorties, lesdites données de sorties et les données d’entrées utilisées pour les générer sont horodatées avant d’être enregistrées dans la mémoire. In one embodiment, each time output data is generated, said output data and the input data used to generate them are time-stamped before being recorded in the memory.
Le réseau de neurones récurrent, lors de la réception de nouvelles données d’entrées, génère de nouvelles données de sorties en fonction des nouvelles données d’entrées et en fonction des données enregistrées et de leur horodatage. The recurrent neural network, upon receiving new input data, generates new output data based on the new input data and based on the recorded data and its timestamp.
Un avantage est d’améliorer la vitesse et la précision des données de sorties (par exemple, du nuage de points NP1 généré). En effet, lors de la génération en temps réel d’un nuage de points, on peut prendre l’hypothèse que la forme et la position de l’objet 10 sont très proches de ceux de l’itération précédente. Un tel réseau de neurones améliore avantageusement la vitesse de calcul et la précision du nuage de points généré NP1. An advantage is to improve the speed and precision of the output data (for example, of the generated NP1 point cloud). Indeed, when generating a point cloud in real time, we can assume that the shape and position of object 10 are very close to those of the previous iteration. Such a neural network advantageously improves the calculation speed and the precision of the generated point cloud NP1.
Dans un mode de réalisation, chaque cartographie d’intensité lumineuse acquise est horodatée. L’horodatage peut être utilisé par la fonction de construction pour générer un nuage de points NP1 avec un nuage de points généré dont l’horodatage est le plus proche de l’horodatage de la cartographie d’intensité lumineuse acquise. In one embodiment, each acquired light intensity map is time-stamped. The timestamp can be used by the build function to generate an NP1 point cloud with a generated point cloud whose timestamp is closest to the timestamp of the acquired light intensity mapping.
Utilisation d’une bibliothèque Using a library
La troisième fonction de construction comprend l’utilisation d’une base de données de cartographies d’intensité lumineuse acquises. Préférentiellement, ladite base de données est enregistrée sur un support lisible pour ordinateur tel qu’une mémoire, préférentiellement une mémoire non-transitoire. Dans un mode de réalisation, chaque cartographie d’intensité lumineuse de la base de données est associée à un label comprenant un nuage de point candidat ayant été utilisé pour l’acquisition de ladite cartographie d’intensité lumineuse associée. Préférentiellement, chaque cartographie d’intensité lumineuse de la base de données est associée à un second label comportant des informations représentant le motif d’émission utilisé pour l’acquisition de ladite cartographie d’intensité lumineuse associée.
La mise en œuvre de la troisième fonction de construction comprend la réception de la cartographie d’intensité lumineuse acquise 41 et de son motif d’émission P1 associée et/ou la réception du jeu de cartographies d’intensité lumineuse acquises. The third construction function includes the use of a database of acquired light intensity maps. Preferably, said database is recorded on a computer-readable medium such as a memory, preferably a non-transient memory. In one embodiment, each light intensity map in the database is associated with a label comprising a candidate point cloud having been used for the acquisition of said associated light intensity map. Preferably, each light intensity map in the database is associated with a second label comprising information representing the emission pattern used for the acquisition of said associated light intensity map. The implementation of the third construction function includes receiving the acquired light intensity map 41 and its associated emission pattern P1 and/or receiving the set of acquired light intensity maps.
La mise en œuvre de la troisième fonction peut comprendre une comparaison de la cartographie d’intensité lumineuse acquise avec les cartographies d’intensité lumineuse de la base de données associées au même motif d’émission que la cartographie d’intensité lumineuse acquise. Un score de correspondance peut être calculé pour chaque comparaison effectuée et la cartographie d’intensité lumineuse de la base de données ayant obtenu le meilleur score de correspondance peut être sélectionnée. Le nuage de points NP1 peut alors être généré en fonction du nuage de points candidat associé à ladite cartographie d’intensité lumineuse de la base de données sélectionnée. The implementation of the third function may include a comparison of the acquired light intensity mapping with the light intensity maps of the database associated with the same emission pattern as the acquired light intensity mapping. A match score can be calculated for each comparison made and the light intensity map from the database with the best match score can be selected. The point cloud NP1 can then be generated according to the candidate point cloud associated with said light intensity mapping of the selected database.
Dans un mode de réalisation, les cartographies d’intensité lumineuse acquises de la base de données sont regroupées par groupes de cartographies d’intensité lumineuse. Préférentiellement, chaque groupe comprend des cartographies d’intensité lumineuse partageant le même nuage de point candidat. In one embodiment, the light intensity maps acquired from the database are grouped into groups of light intensity maps. Preferably, each group includes light intensity maps sharing the same candidate point cloud.
Lorsqu’un jeu de cartographie d’intensité lumineuse est acquis, ledit jeu peut être comparé avec des jeux de cartographies d’intensité lumineuse de la base de données. Préférentiellement, chaque cartographie d’intensité lumineuse acquise est comparée avec la cartographie d’intensité lumineuse du groupe de la base de données associée au même motif d’émission que la cartographie d’intensité lumineuse acquise. When a set of light intensity maps is acquired, said set can be compared with sets of light intensity maps in the database. Preferably, each acquired light intensity map is compared with the light intensity map of the group in the database associated with the same emission pattern as the acquired light intensity map.
Préférentiellement, un score de correspondance est calculé pour chaque groupe de cartographie d’intensité lumineuse de la base de données. Le score de correspondance peut être fonction de la comparaison de chaque cartographie d’intensité lumineuse acquise. Le groupe de cartographies d’intensité lumineuse de la base de données peut ensuite être sélectionné. Preferably, a correspondence score is calculated for each light intensity mapping group in the database. The correspondence score can be a function of the comparison of each acquired light intensity map. The group of light intensity maps from the database can then be selected.
Le nuage de points NP1 peut alors être généré en fonction du nuage de points candidat associé au groupe de cartographies d’intensité lumineuse de la base de données sélectionnée.
Il est entendu que chaque mode de la fonction de construction décrit ci-avant peut être adapté pour générer au moins un point représentatif de la position de l’objet 10. The point cloud NP1 can then be generated according to the candidate point cloud associated with the group of light intensity maps of the selected database. It is understood that each mode of the construction function described above can be adapted to generate at least one point representative of the position of the object 10.
Générations successives d’un nuage de point de l’objetSuccessive generations of a point cloud of the object
Selon un autre aspect, l’invention concerne une méthode de suivi du mouvement d’un objet 10 placé devant la surface de détection 2. According to another aspect, the invention relates to a method for tracking the movement of an object 10 placed in front of the detection surface 2.
Ladite méthode de suivi comprend une première génération d’un nuage de points NP1 dudit objet 10 devant la surface de détection 2. Préférentiellement, au moins une des méthodes décrites ci-avant est utilisée pour l’acquisition d’un tel nuage de points NP1 . Said tracking method comprises a first generation of a cloud of points NP1 of said object 10 in front of the detection surface 2. Preferably, at least one of the methods described above is used for the acquisition of such a cloud of points NP1 .
La méthode comprend une seconde génération d’un second nuage de points NP2 dudit objet 10. Préférentiellement, au moins une des méthodes décrites ci-avant est utilisée pour l’acquisition d’un tel nuage de points NP2. The method comprises a second generation of a second cloud of points NP2 of said object 10. Preferably, at least one of the methods described above is used for the acquisition of such a cloud of points NP2.
Le premier nuage de points NP1 est préférentiellement généré à partir d’au moins une cartographie d’intensité lumineuse acquise à première date. Le second nuage de points NP2 est préférentiellement généré à partir d’au moins une cartographie d’intensité lumineuse acquise à seconde date différente de la première date, préférentiellement postérieure à la première date. The first point cloud NP1 is preferably generated from at least one light intensity map acquired on the first date. The second point cloud NP2 is preferably generated from at least one light intensity map acquired on a second date different from the first date, preferably later than the first date.
Dans un exemple particulier, chaque nuage de points NP1 , NP2 est généré à partir d’un jeu d’au moins deux cartographies lumineuses, chacune acquise à partir d’un motif d’émission différent. In a particular example, each point cloud NP1, NP2 is generated from a set of at least two light maps, each acquired from a different emission pattern.
Préférentiellement, la méthode comprend l’acquisition de cartographies d’intensité lumineuse de manière continue et la génération de nuages de points NP1 , NP2 en temps réel à partir desdites cartographies d’intensité lumineuse acquises. Preferably, the method comprises the acquisition of light intensity maps continuously and the generation of point clouds NP1, NP2 in real time from said acquired light intensity maps.
Par « de manière continue », on entend que la fréquence d’acquisition et la fréquence de génération de nuage de points de l’objet 10 sont suffisamment élevées pour autoriser le suivi du mouvement dudit objet. Préférentiellement, la méthode comprend l’acquisition d’une cartographie d’intensité lumineuse ou d’un jeu de cartographies d’intensité lumineuse tel que décrit précédemment à une fréquence supérieure ou égale à 100 par seconde.
Traitement du nuage de points By “continuously” we mean that the acquisition frequency and the point cloud generation frequency of the object 10 are sufficiently high to authorize the tracking of the movement of said object. Preferably, the method comprises the acquisition of a light intensity map or a set of light intensity maps as described above at a frequency greater than or equal to 100 per second. Point cloud processing
À partir des au moins deux nuages de points générés de l’objet 10 ou à partir d’une pluralité de nuages de points successifs de l’objet, un paramètre de mouvement IC peut être généré. From the at least two generated point clouds of the object 10 or from a plurality of successive point clouds of the object, a movement parameter IC can be generated.
Dans un mode de réalisation, un calculateur du dispositif électronique 1 comprend des moyens logiciels pour la mise en œuvre d’une étape de traitement nuages de points NP1 , NP2 de l’objet 10. In one embodiment, a calculator of the electronic device 1 comprises software means for implementing a point cloud processing step NP1, NP2 of the object 10.
Dans un mode de réalisation simplifié de l’invention, un calculateur du dispositif électronique permet de détecter des mouvements simples et/ou des positions simples et/ou des vitesses de déplacement de la main. C’est le cas pour des mouvements simples par exemple d’un bras allant de la gauche vers la droite ou de haut en bas par rapport à la surface de détection 2. In a simplified embodiment of the invention, a calculator of the electronic device makes it possible to detect simple movements and/or simple positions and/or speeds of movement of the hand. This is the case for simple movements, for example of an arm going from left to right or up and down in relation to detection surface 2.
Dans un mode de réalisation enrichi de l’invention, le calculateur du dispositif électronique est configuré pour détecter des postures de la main, des mouvements des doigts ou des gestes complexes comportant une séquence de mouvements enchaînés. Le mode de réalisation enrichi peut comprendre également une détection selon le mode simplifié. Les deux modes de réalisation peuvent se combiner. In an enhanced embodiment of the invention, the calculator of the electronic device is configured to detect hand postures, finger movements or complex gestures comprising a sequence of linked movements. The enriched embodiment may also include detection according to the simplified mode. The two embodiments can be combined.
Selon un mode de réalisation, le traitement du nuage de points NP1 , NP2 généré permet d’aboutir à la génération d’une image comprenant au moins des points d’intérêt de l’utilisateur. According to one embodiment, the processing of the generated point cloud NP1, NP2 results in the generation of an image comprising at least points of interest of the user.
Dans un mode de réalisation, le dispositif électronique comprend un module de traitement des nuages de points générés. Le module de traitement génère au moins une deuxième image ou un deuxième nuage de points comprenant des points d’intérêts ou de régions d’intérêts extraits du nuage de points généré. Il peut s’agir par exemple d’extrémité d’un membre telles les extrémités des doigts, des points d’articulation, des contours de forme, etc. In one embodiment, the electronic device comprises a module for processing the generated point clouds. The processing module generates at least a second image or a second point cloud comprising points of interest or regions of interest extracted from the generated point cloud. This could be, for example, the end of a limb such as the ends of the fingers, points of articulation, shape contours, etc.
Génération d’un paramètre de mouvement Generating a movement parameter
À partir des au moins deux nuages de points générés de l’objet 10 ou à partir d’une pluralité de nuages de points successifs de l’objet, un paramètre de mouvement peut être généré 400. From the at least two generated point clouds of the object 10 or from a plurality of successive point clouds of the object, a movement parameter can be generated 400.
Dans un mode de réalisation, la détermination d’un paramètre de mouvement IC comprend la détection d’au moins un type de mouvement d’un utilisateur à partir des nuages de points NP1 , NP2 de l’objet 10 générés.
Préférentiellement, la détection d’un type de mouvement d’un utilisateur comprend une détection d’un mouvement de la main d’un utilisateur. La détection d’un mouvement est réalisée à partir des nuages de points NP1 , NP2 de l’objet 10 générés par le dispositif électronique 1. In one embodiment, the determination of a movement parameter IC comprises the detection of at least one type of movement of a user from the point clouds NP1, NP2 of the object 10 generated. Preferably, the detection of a type of movement of a user comprises a detection of a movement of the hand of a user. The detection of a movement is carried out from the point clouds NP1, NP2 of the object 10 generated by the electronic device 1.
Par « à partir des nuages de points NP1 , NP2 de l’objet 10 générés », on inclut ici les nuages de points NP1 , NP2 brutes telles qu’ils ont été générés par le dispositif électronique 1 ainsi que des images 3D générées par le traitement de ces nuages de points, par exemple à partir de la génération de point d’intérêts. On inclut également toute image en deux dimensions ou toute carte de profondeur. By "from the generated point clouds NP1, NP2 of the object 10", we include here the raw point clouds NP1, NP2 as they were generated by the electronic device 1 as well as 3D images generated by the processing of these point clouds, for example from the generation of points of interest. We also include any two-dimensional image or depth map.
Préférentiellement, les différents types de mouvement sont listés dans une bibliothèque. Le calculateur peut alors opérer une opération de fitting ou une opération de régression analytique pour déterminer un type de mouvement particulier à partir des images capturées. Preferably, the different types of movement are listed in a library. The computer can then carry out a fitting operation or an analytical regression operation to determine a particular type of movement from the captured images.
Les figures 13A à 131 illustrent des exemples de types de mouvement de la main. Ces types de mouvements sont reconnaissables par un calculateur. Le calculateur génère un paramètre de mouvement IC à partir du type de mouvement détecté. Figures 13A to 131 illustrate examples of types of hand movements. These types of movements are recognizable by a computer. The calculator generates a movement parameter IC from the type of movement detected.
Des exemples de types de mouvement de la main peuvent comprendre un mouvement de rotation du poignet poing fermé (figure 13B), une rotation de la main selon un axe longitudinal de l’avant-bras (figure 13E), selon un axe un perpendiculaire à l’axe longitudinal de l’avant-bras (figure 13D et figure 13F). Un autre exemple de type de mouvement peut comprendre un déplacement transversal de la main (figures 131, 13H et 13G) par rapport à la surface de détection 2, c’est-à-dire un déplacement ayant une composante non nulle dans une direction parallèle au plan de la surface de détection 2. Examples of types of hand movement may include a closed fist wrist rotation movement (Figure 13B), a rotation of the hand along a longitudinal axis of the forearm (Figure 13E), along an axis a perpendicular to the longitudinal axis of the forearm (Figure 13D and Figure 13F). Another example of a type of movement may include a transverse movement of the hand (Figures 131, 13H and 13G) relative to the detection surface 2, that is to say a movement having a non-zero component in a parallel direction at the plane of the detection surface 2.
Le type de mouvement peut aussi dépendre de la position et/ou du mouvement des articulations des doigts. Par exemple, le type de mouvement peut être différent si le geste de rotation du poignet est effectué main ouverte ou main fermée. Certains types de mouvements peuvent être associés à des gestes connus de personnalités dans le monde musical ou dans le monde audiovisuel. Un autre exemple de type de mouvement illustré sur la figure 13A peut comprendre une fermeture des doigts de la main les doigts tendus. Un autre exemple de type de mouvement peut comprendre une oscillation de la
main de manière à reproduire le mouvement d’une vague, tel que représenté à la figure 13C. The type of movement may also depend on the position and/or movement of the finger joints. For example, the type of movement may be different if the wrist rotation gesture is performed with an open hand or a closed hand. Certain types of movements can be associated with known gestures of personalities in the musical world or in the audiovisual world. Another example of the type of movement illustrated in Figure 13A may include closing the fingers of the hand with the fingers extended. Another example type of movement may include an oscillation of the hand so as to reproduce the movement of a wave, as shown in Figure 13C.
Le type de mouvement peut aussi être fonction de la direction du geste. Par exemple, un geste de déplacement en translation de la main peut être discriminé en fonction du plan et/ou de la direction de translation. Par exemple sur la figure 13G, la translation est effectuée selon l’axe perpendiculaire à la paume de la main. La figure 13H et la figure 131 illustrent un mouvement de translation de la main dans le même plan parallèle au plan de la surface de détection. Un dans la direction perpendiculaire à la direction longitudinale des doigts (figure 13H) et l’autre dans une direction parallèle à la direction longitudinale des doigts (figure 131). Dans un autre exemple, une rotation du poignet peut être détectée dans le plan. The type of movement can also depend on the direction of the gesture. For example, a translation movement gesture of the hand can be discriminated as a function of the plane and/or the direction of translation. For example in Figure 13G, the translation is carried out along the axis perpendicular to the palm of the hand. Figure 13H and Figure 131 illustrate a translation movement of the hand in the same plane parallel to the plane of the detection surface. One in the direction perpendicular to the longitudinal direction of the fingers (figure 13H) and the other in a direction parallel to the longitudinal direction of the fingers (figure 131). In another example, wrist rotation can be detected in-plane.
Préférentiellement, le paramètre de mouvement IC comprend également la détermination de la vitesse et/ou de l’amplitude du mouvement. Preferably, the movement parameter IC also includes the determination of the speed and/or amplitude of the movement.
Préférentiellement, le paramètre de mouvement IC est déterminé au moins à partir de l’écart entre deux nuages de points acquis successivement. Dans un autre mode de réalisation, le paramètre de mouvement IC est déterminé au moins à partir de l’écart entre des points d’intérêts et/ou des régions d’intérêts entre au moins deux nuages de points générés successivement. Preferably, the movement parameter IC is determined at least from the difference between two clouds of points acquired successively. In another embodiment, the movement parameter IC is determined at least from the difference between points of interest and/or regions of interest between at least two point clouds generated successively.
Dans un mode de réalisation alternatif, le paramètre de mouvement IC est calculé à partir des coordonnées de l’objet 10 calculées par la méthode selon le premier aspect de l’invention, c’est-à-dire à partir de ses coordonnées spatiales X1 , Y1 , Z1 par rapport à la surface de détection 2. Préférentiellement, le paramètre de mouvement IC est calculé à partir de la variation des coordonnées spatiales X1 , Y1 , Z1 de l’objet 10 entre au moins deux acquisitions. In an alternative embodiment, the movement parameter IC is calculated from the coordinates of the object 10 calculated by the method according to the first aspect of the invention, that is to say from its spatial coordinates X1 , Y1, Z1 relative to the detection surface 2. Preferably, the movement parameter IC is calculated from the variation of the spatial coordinates X1, Y1, Z1 of the object 10 between at least two acquisitions.
Dans un autre mode de réalisation, le paramètre de mouvement IC est calculé à partir d’un unique nuage de point NP1 . Dans ce cas, le paramètre de mouvement est calculé à partir de la forme globale dudit nuage de points. Par exemple, un agencement particulier prédéterminé des doigts par rapport à la paume de la main peut être détecté à partir des points du nuage de points NP1 est le paramètre de mouvement est alors calculé en fonction de l’agencement détecté.
Dans un autre mode de réalisation, le paramètre de mouvement IC est calculé directement à partir de l’estimation de la forme de l’objet 10 déterminée. In another embodiment, the movement parameter IC is calculated from a single point cloud NP1. In this case, the movement parameter is calculated from the overall shape of said cloud of points. For example, a particular predetermined arrangement of the fingers relative to the palm of the hand can be detected from the points of the point cloud NP1 and the movement parameter is then calculated based on the detected arrangement. In another embodiment, the movement parameter IC is calculated directly from the estimate of the shape of the object 10 determined.
La détermination de la forme de l’objet 10 peut être réalisée à partir d’au moins une cartographie d’intensité lumineuse acquise. Par exemple, une segmentation de la cartographie d’intensité lumineuse est mise en œuvre pour identifier la forme globale de l’objet. Par exemple, la segmentation de la cartographie d’intensité lumineuse acquise génère la position d’au moins un premier doigt par rapport à la paume de la main ou par rapport à un second doigt. Le paramètre de mouvement IC est alors généré en fonction de ladite position relative générée. The shape of the object 10 can be determined from at least one acquired light intensity map. For example, light intensity mapping segmentation is implemented to identify the overall shape of the object. For example, the segmentation of the acquired light intensity mapping generates the position of at least a first finger in relation to the palm of the hand or in relation to a second finger. The movement parameter IC is then generated as a function of said generated relative position.
Utilisation du paramètre de mouvement sur un dispositif d’affichaçieUsing the motion setting on a display device
Comme vu précédemment, le dispositif électronique peut comprendre un écran d’affichage. As seen previously, the electronic device may include a display screen.
Dans un mode de réalisation, un paramètre de mouvement IC peut commander l’affichage dudit écran. In one embodiment, a movement parameter IC can control the display of said screen.
Dans premier un exemple, l’affichage de l’écran comprend l’affichage d’un pointeur et le déplacement dudit pointeur est commandé à partir des paramètres de mouvement détectés. Par exemple, le dispositif peut être configuré pour que la détection d’un type de mouvement prédéterminé de la main provoque un déplacement du pointeur ou la sélection d’un objet numérique sur lequel le pointeur est positionné. In the first example, the screen display includes the display of a pointer and the movement of said pointer is controlled from the detected movement parameters. For example, the device can be configured so that the detection of a type of predetermined movement of the hand causes a movement of the pointer or the selection of a digital object on which the pointer is positioned.
Dans un second exemple, le dispositif électronique peut être configuré pour que la détection d’un paramètre de mouvement prédéterminé déclenche la commande d’une fonction d’agrandissement (« zoom ») ou de rétrécissement (« dézoom ») d’un objet numérique affiché sur l’écran. In a second example, the electronic device can be configured so that the detection of a predetermined movement parameter triggers the control of an enlargement (“zoom”) or shrinkage (“zoom out”) function of a digital object. displayed on the screen.
Un avantage est de permettre le contrôle de l’interface d’affichage de l’écran par les mouvements de la main sans avoir besoin de toucher l’écran, fournissant ainsi une véritable alternative aux écrans tactiles traditionnels. An advantage is to allow control of the screen display interface through hand movements without the need to touch the screen, thus providing a real alternative to traditional touch screens.
Dans un troisième exemple illustré sur la figure 14, le dispositif électronique peut être configuré pour afficher sur un écran 3 une interface utilisateur S3, S2, S1 . Une interface utilisateur peut comprendre des zones de commandes 140 (telles que des boutons virtuels) qui, s’ils sont sélectionnés, activent le lancement d’un programme préenregistré (lancement d’une application, de l’extinction du dispositif, augmentation du volume, ... ).
Préférentiellement, une pluralité d’interfaces utilisateur S1 , S2, S3 sont préenregistrés dans un mémoire du dispositif électronique 1 . Dans un mode de réalisation, une interface utilisateur S2 est sélectionnée pour être affichée sur l’écran 3 du dispositif électronique. In a third example illustrated in Figure 14, the electronic device can be configured to display on a screen 3 a user interface S3, S2, S1. A user interface may include control areas 140 (such as virtual buttons) which, if selected, activate the launch of a pre-recorded program (launching an application, turning off the device, increasing the volume , ... ). Preferably, a plurality of user interfaces S1, S2, S3 are pre-recorded in a memory of the electronic device 1. In one embodiment, a user interface S2 is selected to be displayed on the screen 3 of the electronic device.
La sélection d’une interface utilisateur S2 parmi la pluralité d’interfaces est réalisée en fonction du paramètre de mouvement IC et/ou en fonction de la distance déterminée Z1 entre la surface de détection 2 et l’objet 10. Dans l’exemple illustré sur la figure 14, chaque interface utilisateur S1 , S2, S3 préenregistrée est associée à une distance prédéterminée M1 , M2, M3. La distance déterminée Z1 entre la surface de détection 2 et l’objet 10 est comparée auxdites distances prédéterminées M1 , M2, M3. Par exemple, une interface utilisateur dont la distance prédéterminée associée est la plus proche de la distance Z1 est sélectionnée. Une fois sélectionnée, l’interface utilisateur S2 est affichée sur l’écran 3 du dispositif électronique. The selection of a user interface S2 among the plurality of interfaces is carried out as a function of the movement parameter IC and/or as a function of the determined distance Z1 between the detection surface 2 and the object 10. In the example illustrated in Figure 14, each pre-recorded user interface S1, S2, S3 is associated with a predetermined distance M1, M2, M3. The determined distance Z1 between the detection surface 2 and the object 10 is compared to said predetermined distances M1, M2, M3. For example, a user interface whose associated predetermined distance is closest to distance Z1 is selected. Once selected, the S2 user interface is displayed on screen 3 of the electronic device.
Dans un autre mode de réalisation, chaque interface utilisateur est associée à une distance prédéterminée et à un paramètre de mouvement prédéterminé. Dans ce cas, la sélection d’une interface est réalisée en fonction de la distance déterminée Z1 entre la surface de détection 2 et l’objet 10 et en fonction du paramètre de mouvement généré par la méthode selon l’invention décrite précédemment. In another embodiment, each user interface is associated with a predetermined distance and a predetermined movement parameter. In this case, the selection of an interface is carried out as a function of the determined distance Z1 between the detection surface 2 and the object 10 and as a function of the movement parameter generated by the method according to the invention described previously.
Un premier avantage est de permettre le contrôle de l’interface d’affichage de l’écran par les mouvements de la main sans avoir besoin de toucher l’écran, fournissant ainsi une véritable alternative aux écrans tactiles traditionnels. Un second avantage est de permettre à l’utilisateur de naviguer plus rapidement et facilement entre différentes interfaces utilisateur en faisant simplement varier la distance entre son doigt et la surface de détection. A first advantage is to allow control of the screen display interface by hand movements without the need to touch the screen, thus providing a real alternative to traditional touch screens. A second advantage is to allow the user to navigate more quickly and easily between different user interfaces by simply varying the distance between their finger and the detection surface.
Selon un autre aspect, l’invention concerne un procédé d’affichage d’une interface utilisateur sur l’écran d’un dispositif électronique selon l’invention. Ledit procédé comprend la détermination d’une distance Z1 entre la surface de détection 2 du dispositif électronique et un objet 10 ; la fourniture d’une base de données dans laquelle est enregistrée une pluralité d’interfaces utilisateur différentes, chaque interface utilisateur étant associée à une distance prédéterminée différente des autres. L’interface utilisateur à afficher est sélectionnée par comparaison entre la distance déterminée Z1 et les distances prédéterminées associées aux interfaces utilisateur
préenregistrées. Le procédé comprend enfin l’affichage de l’interface utilisateur sélectionnée. According to another aspect, the invention relates to a method of displaying a user interface on the screen of an electronic device according to the invention. Said method comprises determining a distance Z1 between the detection surface 2 of the electronic device and an object 10; providing a database in which a plurality of different user interfaces are recorded, each user interface being associated with a predetermined distance different from the others. The user interface to be displayed is selected by comparison between the determined distance Z1 and the predetermined distances associated with the user interfaces pre-recorded. The method finally includes displaying the selected user interface.
Dans un mode d’exécution, le procédé comprend en outre la détermination d’un paramètre de mouvement IC et chaque interface utilisateur préenregistrée est associée à une combinaison d’une distance prédéterminée et d’un paramètre de mouvement. Dans ce cas, l’interface utilisateur à afficher est sélectionnée par comparaison entre la distance déterminée Z1 et le paramètre de mouvement IC généré selon l’invention et la combinaison associée à chaque interface utilisateur préenregistrée. In one embodiment, the method further comprises determining a movement parameter IC and each pre-recorded user interface is associated with a combination of a predetermined distance and a movement parameter. In this case, the user interface to be displayed is selected by comparison between the determined distance Z1 and the movement parameter IC generated according to the invention and the combination associated with each pre-recorded user interface.
Dans un mode de réalisation, le paramètre de mouvement peut être remplacé par un paramètre de pose. Le paramètre de pose peut être déterminé à partir d’un nuage de point NP1 généré. Le paramètre de pose peut être généré à partir de la forme du nuage de points NP1 et/ou de son orientation. Un avantage est de pouvoir fournir au dispositif électronique des éléments de commande par la forme de la main placée au-dessus de la surface de détection, par exemple en fermant ou ouvrant le poing ou en pointant un ou plusieurs doigts ou encore en faisant varier la direction d’un doigt par rapport au plan de la surface de détection 2. In one embodiment, the movement parameter may be replaced by a pose parameter. The pose parameter can be determined from a generated NP1 point cloud. The pose parameter can be generated from the shape of the NP1 point cloud and/or its orientation. An advantage is to be able to provide the electronic device with control elements by the shape of the hand placed above the detection surface, for example by closing or opening the fist or by pointing one or more fingers or by varying the direction of a finger relative to the plane of the detection surface 2.
Mise en œuyre des procédés selon l’invention par le dispositif électronique Implementation of the processes according to the invention by the electronic device
Le dispositif selon l’invention comprend au moins une unité de calcul. La au moins une unité de calcul 11 , 12, 13, 14 est en communication avec les photodétecteurs 31 et/ou avec les photoémetteurs. Cette communication permet avantageusement à l’unité de calcul de traiter les signaux générés par les photodétecteurs 33 pour traiter les mesures faites par ces photodétecteurs. Cette communication permet également avantageusement de contrôler l’activation des photoémetteurs 31. Par activation, on entend l’allumage ou l’extinction d’un photoémetteur, c’est-à-dire l’émission ou non de lumière par le photodétecteur. Dans un mode de réalisation la au moins une unité de calcul 11 , 12, 13, 14 est connecté aux moyens de contrôle des photoémetteurs et/ou est connecté à des moyens d’enregistrement des signaux générés par les photodétecteurs. Dans un mode de réalisation, chaque unité de calcul comprend un calculateur. Dans un autre mode de réalisation, le dispositif électronique comprend un ou plusieurs calculateurs comprenant les unités de calculs 11 , 12, 13, 14.
Le dispositif électronique 1 peut comprendre un système de calcul 100 dont un exemple est illustré sur la figure 12. Le système de calcul peut comprendre les différentes unités 11 , 12, 13, 14 décrites. À cet effet, le système de calcul peut comprendre un ou plusieurs calculateurs 11 , 12, 13, 14 interagissant avec un produit-programme d’ordinateur, notamment pour mettre en œuvre l’une quelconque des méthodes selon l’invention décrites précédemment. The device according to the invention comprises at least one calculation unit. The at least one calculation unit 11, 12, 13, 14 is in communication with the photodetectors 31 and/or with the photoemitters. This communication advantageously allows the calculation unit to process the signals generated by the photodetectors 33 to process the measurements made by these photodetectors. This communication also advantageously makes it possible to control the activation of the photoemitters 31. By activation is meant the switching on or off of a photoemitter, that is to say the emission or not of light by the photodetector. In one embodiment, at least one calculation unit 11, 12, 13, 14 is connected to the means for controlling the photoemitters and/or is connected to means for recording the signals generated by the photodetectors. In one embodiment, each calculation unit includes a calculator. In another embodiment, the electronic device comprises one or more computers comprising the calculation units 11, 12, 13, 14. The electronic device 1 may include a calculation system 100, an example of which is illustrated in Figure 12. The calculation system may include the different units 11, 12, 13, 14 described. To this end, the calculation system may comprise one or more computers 11, 12, 13, 14 interacting with a computer program product, in particular to implement any of the methods according to the invention described above.
Le système 100 est un ordinateur, par exemple, un microordinateur, un réseau d’ordinateurs, un composant électronique, une tablette, un smartphone ou un assistant numérique personnel (PDA). The system 100 is a computer, for example, a microcomputer, a computer network, an electronic component, a tablet, a smartphone or a personal digital assistant (PDA).
Le système 100 comprend un module de calcul 110. Ce module de calcul 110 comprend, par exemple, un ou plusieurs processeurs aptes à interpréter des instructions sous forme de programme informatique, un circuit logique programmable, comme un circuit intégré spécifique à une application (ASIC), un réseau de portes programmables in situ (FPGA), un dispositif logique programmable (PLD) et/ou des réseaux logiques programmables (PLA), un système sur puce (SOC), une carte électronique dans laquelle des étapes du procédé selon l’invention sont implémentées dans des éléments matériels. Le traitement peut être exécuté par un processeur, de façon simultanée ou séquentielle, ou selon un autre procédé, par un ou plusieurs processeurs. The system 100 comprises a calculation module 110. This calculation module 110 comprises, for example, one or more processors capable of interpreting instructions in the form of a computer program, a programmable logic circuit, such as an application-specific integrated circuit (ASIC ), an in situ programmable gate array (FPGA), a programmable logic device (PLD) and/or programmable logic arrays (PLA), a system on chip (SOC), an electronic card in which steps of the method according to The invention is implemented in hardware elements. The processing may be executed by a processor, simultaneously or sequentially, or by another method, by one or more processors.
Le module de calcul 110 comprend, un module de traitement de données 111 pour effectuer des calculs, une mémoire 112, couplée opérationnellement au circuit traitement de données 111 , un support lisible par ordinateur 114 et éventuellement un lecteur 113 adapté à lire le support lisible par ordinateur 114. The calculation module 110 comprises a data processing module 111 for carrying out calculations, a memory 112, operationally coupled to the data processing circuit 111, a computer-readable medium 114 and possibly a reader 113 adapted to read the computer-readable medium. computer 114.
Le système 100 comprend également un dispositif d’entrée, un dispositif de sortie et un dispositif de communication. The system 100 also includes an input device, an output device, and a communication device.
Chaque fonction du système 100 est exécutée en amenant le module de traitement de données 111 à lire un programme prédéterminé sur un matériel tel que la mémoire 112 de telle sorte que le module de traitement de données 111 exécute des calculs, commande des communications effectuées par le dispositif électronique 1 et à lire et/ou écrire des données dans la mémoire 112 et le support lisible par ordinateur 114.
- A7 - Each function of the system 100 is executed by causing the data processing module 111 to read a predetermined program on hardware such as the memory 112 such that the data processing module 111 executes calculations, controls communications carried out by the electronic device 1 and reading and/or writing data in the memory 112 and the computer readable medium 114. - A7 -
La ou les méthodes selon l’invention sont exécutées sur un ordinateur unique ou sur un système distribué entre plusieurs ordinateurs (notamment via l’utilisation de l’informatique en nuage). The method(s) according to the invention are executed on a single computer or on a system distributed between several computers (in particular via the use of cloud computing).
La mémoire 112 est un support d’enregistrement lisible par ordinateur, et peut être configurée avec, par exemple, au moins l’un des éléments suivants : une mémoire morte (ROM, de l’anglais Read-Only Memory), une mémoire morte effaçable et programmable (EPROM, de l’anglais Erasable Programmable Read-Only Memory), une mémoire morte programmable et effaçable électriquement (EEPROM, de l’anglais Electrically Erasable Programmable Read-Only Memory), une mémoire vive (RAM, de l’anglais Random Access Memory) et un autre support de stockage adéquat. La mémoire 112 peut comporter un système d’exploitation et charger les programmes selon l’invention. Elle comporte des registres adaptés à enregistrer des variables de paramètres créés et modifiés au cours de l’exécution des programmes précités. The memory 112 is a computer-readable recording medium, and can be configured with, for example, at least one of the following elements: a read-only memory (ROM), a read-only memory erasable and programmable (EPROM, from English Erasable Programmable Read-Only Memory), a programmable and electrically erasable read-only memory (EEPROM, from English Electrically Erasable Programmable Read-Only Memory), a random access memory (RAM, from English Random Access Memory) and another suitable storage medium. Memory 112 can include an operating system and load programs according to the invention. It includes registers suitable for recording parameter variables created and modified during the execution of the aforementioned programs.
Le produit programme peut comprendre le support d’enregistrement lisible par ordinateur 114 qui est un dispositif tangible, n’étant pas un signal transitoire en soi, peut être configuré avec, par exemple, au moins un des éléments suivants : un support amovible, comme par exemple, de façon non limitative, un disque magnéto-optique (par exemple, un disque compact à lecture seule (CD-ROM, de l’anglais Compact Disc Read-Only Memory), un disque numérique polyvalent ou DVD (de l’anglais Digital Versatile Disc), un disque amovible, une unité de disque dur, une carte à puce, un dispositif à mémoire flash (par exemple, une carte, une clé), une bande magnétique, une base de données, un serveur, et un autre support de stockage adéquat. The program product may include computer readable recording media 114 which is a tangible device, not being a transient signal per se, may be configured with, for example, at least one of the following: removable media, such as for example, in a non-limiting manner, a magneto-optical disc (for example, a read-only compact disc (CD-ROM, from English Compact Disc Read-Only Memory), a versatile digital disc or DVD (from English Digital Versatile Disc), a removable disk, a hard disk drive, a smart card, a flash memory device (e.g., a card, a key), a magnetic tape, a database, a server, and another suitable storage medium.
En variante, les instructions du programme sont issues d’une source externe et téléchargées via un réseau. C’est notamment le cas pour les applications. Dans ce cas, le produit programme d’ordinateur comprend un support de données lisible par ordinateur sur lequel sont stockées les instructions de programme ou un signal de support de données sur lequel sont codées les instructions de programme. Alternatively, program instructions are taken from an external source and downloaded over a network. This is particularly the case for applications. In this case, the computer program product comprises a computer-readable data carrier on which the program instructions are stored or a data carrier signal on which the program instructions are encoded.
L’invention se rapporte à un produit programme d’ordinateur comprenant le support lisible par ordinateur 114 contenant des instructions qui, lorsqu’elles sont exécutées par le circuit 110, amènent le dispositif
électronique 1 à mettre en œuvre les étapes d’une ou des méthodes selon l’invention. A computer program product includes computer readable media 114 containing instructions which, when executed by circuit 110, cause the device electronic 1 to implement the steps of one or more methods according to the invention.
La forme des instructions de programme est, par exemple, une forme de code source, une forme exécutable par ordinateur ou toute forme intermédiaire entre un code source et une forme exécutable par ordinateur, telle que la forme résultant de la conversion du code source via un interpréteur, un assembleur, un compilateur, un éditeur de liens ou un localisateur. En variante, les instructions de programme sont un microcode, des instructions firmware, des données de définition d’état, des données de configuration pour circuit intégré (par exemple du VHDL) ou un code objet. Les instructions de programme sont écrites dans n’importe quelle combinaison d’un ou de plusieurs langages de programmation, par exemple un langage de programmation orienté objet (C++, JAVA, Python), un langage de programmation procédural (langage C par exemple). The form of the program instructions is, for example, a source code form, a computer executable form or any intermediate form between a source code and a computer executable form, such as the form resulting from the conversion of the source code via a interpreter, assembler, compiler, linker or locator. Alternatively, the program instructions are microcode, firmware instructions, state definition data, integrated circuit configuration data (e.g. VHDL), or object code. Program instructions are written in any combination of one or more programming languages, for example, object-oriented programming language (C++, JAVA, Python), procedural programming language (C language for example).
Le système 100 comprend en outre une interface utilisateur 120 comprenant un dispositif d’entrée 121 et un dispositif de sortie 122. The system 100 further comprises a user interface 120 comprising an input device 121 and an output device 122.
L’interface utilisateur 120 comprend un dispositif d’entrée 121 pour permettre à l’utilisateur de saisir des données ou des commandes de façon à pouvoir interagir avec les programmes selon l’invention. Le dispositif d’entrée 121 comprend, par exemple, un clavier ou un une interface de pointage, tel qu’une souris, un crayon optique, un pavé tactile, une télécommande, un dispositif de reconnaissance vocale, un dispositif haptique. The user interface 120 includes an input device 121 to allow the user to enter data or commands so as to be able to interact with the programs according to the invention. The input device 121 includes, for example, a keyboard or a pointing interface, such as a mouse, an optical pencil, a touchpad, a remote control, a voice recognition device, a haptic device.
Le dispositif de sortie 122 est conçu pour restituer des informations à un utilisateur, de façon sensorielle ou électrique, comme, par exemple de façon visuelle ou sonore. Le dispositif de sortie 122 peut comprendre l’écran du dispositif électronique 1 . L’interface de sortie 122 comprend, par exemple, une interface graphique. L’interface de sortie 122 peut être le dispositif d’entrée, par exemple, dans le cas d’une tablette tactile. The output device 122 is designed to return information to a user, sensory or electrical, such as, for example, visually or audibly. The output device 122 may include the screen of the electronic device 1. The output interface 122 includes, for example, a graphical interface. The output interface 122 can be the input device, for example, in the case of a touchscreen tablet.
L’ensemble d’au moins un dispositif de communication permet une communication entre les éléments du système 100 et éventuellement entre au moins un élément du système et un dispositif extérieur au système 100. Ce dispositif de communication peut établir un lien physique entre des éléments du système 100 et/ou entre un élément du système 100 et un dispositif extérieur au système 100 et/ou un lien en communication à distance (sans fil)
entre des éléments du système 100 et/ou entre un élément du système et un dispositif extérieur au système 100.
The set of at least one communication device allows communication between the elements of the system 100 and possibly between at least one element of the system and a device external to the system 100. This communication device can establish a physical link between elements of the system. system 100 and/or between an element of the system 100 and a device external to the system 100 and/or a remote (wireless) communication link between elements of the system 100 and/or between an element of the system and a device external to the system 100.
Claims
REVENDICATIONS Dispositif électronique (1 ) comprenant : CLAIMS Electronic device (1) comprising:
■ une surface de détection (2), notamment de détection de champ proche comprenant : o une pluralité de photoémetteurs (31 ), les photoémetteurs étant séparés les uns des autres ; o une pluralité de photodétecteurs (33), au moins une partie de ces photodétecteurs étant disposée entre lesdits photoémetteurs (31 ) ; ■ a detection surface (2), in particular near field detection comprising: o a plurality of photoemitters (31), the photoemitters being separated from each other; o a plurality of photodetectors (33), at least a part of these photodetectors being arranged between said photoemitters (31);
■ une première unité d’acquisition (11 ) connectée à la pluralité de photodétecteurs (33) et à la pluralité de photoémetteurs (31 ) comprenant des moyens adaptés pour l’exécution des étapes suivantes : o la génération d’une émission (M0T1 ) par la commande de l’allumage des photoémetteurs (31 ) ; o l’acquisition (ACQ1 ) d’une cartographie d’intensité lumineuse (4) en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur ; ■ a first acquisition unit (11) connected to the plurality of photodetectors (33) and the plurality of photoemitters (31) comprising means adapted for carrying out the following steps: o the generation of an emission (M0T1) by controlling the ignition of the photoemitters (31); o the acquisition (ACQ1) of a light intensity map (4) as a function of the position and the light intensity received by each photodetector;
■ une seconde unité de détection (12) d’un objet (10) placé devant la surface de détection (2) comprenant des moyens adaptés pour la détermination d’une distance (Z1 ) entre ledit objet (10) et ladite surface de détection (2). Dispositif selon la revendication 1 , caractérisé en ce que la seconde unité de détection comprend des moyens adaptés pour la détermination d’une distance (Z1 ) entre ledit objet (10) et ladite surface de détection (2) par l’exécution des étapes suivantes : o la sélection (SEL1 ) d’une pluralité de fonctions d’étalement du point (PSF1 , PSF2, PSF3), chaque fonction étant caractéristique d’une hauteur prédéterminée ; o pour chaque fonction de la pluralité de fonctions, le calcul (CALC1 ) d’un score de cohérence (C1 , C2, C3) à partir de la cartographie d’intensité lumineuse ; o la détermination de la distance (Z1 ) dudit objet (10) avec la surface de détection (2) à partir de la hauteur prédéterminée
de la fonction ayant permis d’obtenir le meilleur score de cohérence. Dispositif selon la revendication 2, caractérisé en ce que le calcul d’un score de cohérence comprend : o la réalisation (DEC1 ) d’une déconvolution (D1 , D2, D3) de la cartographie d’intensité lumineuse acquise (4) par chaque fonction sélectionnée ; o pour chaque déconvolution, le calcul (CALC1 ) d’un score de cohérence (C1 , C2, C3). Dispositif selon la revendication 3, caractérisé en ce que le calcul d’un score de cohérence comprend l’application (TRF) d’une transformée de la cartographie d’intensité lumineuse acquise (4) et/ou de la déconvolution de la cartographie d’intensité lumineuse acquise (4). Dispositif selon la revendication 4 caractérisé en ce que l’application (TRF) d’une transformée comprend l’application d’une transformée de Fourier ou d’une transformée de Laplace. Dispositif selon la revendication 2 caractérisé en ce que la seconde unité (12) comprend également des moyens pour exécuter une étape d’estimation de la forme de l’objet (10) dans un plan parallèle au plan de la surface de détection (2) à partir de la cartographie d’intensité lumineuse acquise et/ou à partir de la déconvolution ayant obtenu le meilleur score. Dispositif selon l’une des revendications précédentes, caractérisé en ce que la seconde unité (12) comprend également des moyens pour exécuter une étape de détermination des coordonnées spatiales (X1 , Y1 ) de l’objet (10) dans un plan parallèle au plan de la surface de détection (2). Dispositif selon l’une des revendications précédentes, caractérisé en ce que la surface de détection (2) comprend un écran d’affichage formé
par la pluralité de pixels (5) et les photoémetteurs (31 ) et photodétecteurs (33) sont distribués entre lesdits pixels (5). ■ a second detection unit (12) of an object (10) placed in front of the detection surface (2) comprising means adapted for determining a distance (Z1) between said object (10) and said detection surface (2). Device according to claim 1, characterized in that the second detection unit comprises means adapted for determining a distance (Z1) between said object (10) and said detection surface (2) by carrying out the following steps : o the selection (SEL1) of a plurality of point spreading functions (PSF1, PSF2, PSF3), each function being characteristic of a predetermined height; o for each function of the plurality of functions, calculating (CALC1) a coherence score (C1, C2, C3) from the light intensity mapping; o determining the distance (Z1) of said object (10) with the detection surface (2) from the predetermined height of the function that made it possible to obtain the best consistency score. Device according to claim 2, characterized in that the calculation of a coherence score comprises: o carrying out (DEC1) a deconvolution (D1, D2, D3) of the light intensity mapping acquired (4) by each selected function; o for each deconvolution, the calculation (CALC1) of a coherence score (C1, C2, C3). Device according to claim 3, characterized in that the calculation of a coherence score comprises the application (TRF) of a transform of the acquired light intensity mapping (4) and/or of the deconvolution of the mapping d acquired light intensity (4). Device according to claim 4 characterized in that the application (TRF) of a transform comprises the application of a Fourier transform or a Laplace transform. Device according to claim 2 characterized in that the second unit (12) also comprises means for executing a step of estimating the shape of the object (10) in a plane parallel to the plane of the detection surface (2) from the acquired light intensity mapping and/or from the deconvolution having obtained the best score. Device according to one of the preceding claims, characterized in that the second unit (12) also comprises means for executing a step of determining the spatial coordinates (X1, Y1) of the object (10) in a plane parallel to the plane of the detection surface (2). Device according to one of the preceding claims, characterized in that the detection surface (2) comprises a display screen formed by the plurality of pixels (5) and the photoemitters (31) and photodetectors (33) are distributed between said pixels (5).
9. Dispositif selon la revendication 8, dans lequel les pixels de la pluralité de pixels (5) comprennent chacun au moins une source de lumière visible (R, G, B) et dans lequel les photoémetteurs (31 ) sont conçus pour émettre une lumière infrarouge et les photodétecteurs (33) sont conçus pour détecter une intensité lumineuse dans le domaine de l’infrarouge. 9. Device according to claim 8, in which the pixels of the plurality of pixels (5) each comprise at least one visible light source (R, G, B) and in which the photoemitters (31) are designed to emit light infrared and the photodetectors (33) are designed to detect light intensity in the infrared range.
10. Dispositif selon l’une des revendications précédentes caractérisé en ce que la première unité (11 ) comprend des moyens pour exécuter l’étape d’acquisition (ACQU1 ) d’une cartographie (4) d’intensité lumineuse de manière à ce que ladite étape d’acquisition comprenne une étape de mesure, par chaque photodétecteur (33), de l’intensité lumineuse émise (21 ) par les photoémetteurs (31 ) et réfléchie (22) par au moins un objet (10) placé devant la surface de détection (2). 10. Device according to one of the preceding claims characterized in that the first unit (11) comprises means for executing the acquisition step (ACQU1) of a light intensity map (4) so that said acquisition step comprises a step of measuring, by each photodetector (33), the light intensity emitted (21) by the photoemitters (31) and reflected (22) by at least one object (10) placed in front of the surface detection (2).
11 . Dispositif selon l’une des revendications précédentes, caractérisé en ce que comprenant en outre une couche de recouvrement (25) recouvrant la pluralité de photoémetteurs (31 ) et la pluralité de photodétecteurs (33), ladite couche de recouvrement (25) étant transparente aux rayons émis par les photoémetteurs (31 ). 11. Device according to one of the preceding claims, characterized in that further comprising a covering layer (25) covering the plurality of photoemitters (31) and the plurality of photodetectors (33), said covering layer (25) being transparent to rays emitted by the photoemitters (31).
12. Système de reconnaissance de mouvement comprenant un dispositif électronique (1 ) selon la revendication 7, caractérisé en ce qu’il comprend une unité de reconnaissance de mouvement (14) comprenant des moyens pour l’exécution des étapes suivantes : 12. Movement recognition system comprising an electronic device (1) according to claim 7, characterized in that it comprises a movement recognition unit (14) comprising means for carrying out the following steps:
■ l’acquisition dans le temps d’une pluralité de coordonnées spatiales (X1 , Y1 , Z1 ) de l’objet (10) placé devant la surface de détection (2) en fonction du temps ; ■ the acquisition over time of a plurality of spatial coordinates (X1, Y1, Z1) of the object (10) placed in front of the detection surface (2) as a function of time;
■ la détermination (PAR) d’au moins un paramètre de mouvement (IC) à partir : ■ the determination (PAR) of at least one movement parameter (IC) from:
■ d’une rotation de l’objet et/ou d’une direction de translation de l’objet détecter à partir d’une variation des
coordonnées spatiales (X1 , Y1 , Z1 ) acquises en fonction du temps ; ou ■ a rotation of the object and/or a direction of translation of the object detected from a variation of the spatial coordinates (X1, Y1, Z1) acquired as a function of time; Or
■ de l’estimation de la forme globale de l’objet (10) déterminée à partir d’une segmentation de la cartographie d’intensité lumineuse acquise.positif électronique (1 ) comprenant ■ the estimation of the overall shape of the object (10) determined from a segmentation of the acquired light intensity mapping.electronic positive (1) comprising
■ une surface de détection, notamment pour la détection d’un objet en champ proche (2) comprenant : o une pluralité de photoémetteurs (31 ), les photoémetteurs étant séparés les uns des autres; o une pluralité de photodétecteurs (33), au moins une partie de ces photodétecteurs étant disposée entre lesdits photoémetteurs (31 ); ■ a detection surface, in particular for the detection of an object in the near field (2) comprising: o a plurality of photoemitters (31), the photoemitters being separated from each other; o a plurality of photodetectors (33), at least part of these photodetectors being arranged between said photoemitters (31);
■ une première unité d’acquisition (11 ) d’une cartographie d’intensité lumineuse (4) connectée à la pluralité de photoémetteurs (31 ) et à la pluralité de photodétecteurs (33) comprenant des moyens adaptés pour exécuter les étapes suivantes : o la génération (MOT 1 ) d’un premier motif d’émission (P1 ) par la commande de l’allumage d’un premier ensemble (34) de photoémetteurs (31 ) de la surface de détection (2) ; o l’acquisition (ACQU1 ) d’une première cartographie d’intensité lumineuse (41 ) en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur (33) lors de la génération du premier motif d’émission ; ■ a first acquisition unit (11) of a light intensity map (4) connected to the plurality of photoemitters (31) and to the plurality of photodetectors (33) comprising means adapted to execute the following steps: o the generation (MOT 1) of a first emission pattern (P1) by controlling the ignition of a first set (34) of photoemitters (31) of the detection surface (2); o the acquisition (ACQU1) of a first light intensity map (41) as a function of the position and the light intensity received by each photodetector (33) during the generation of the first emission pattern;
■ une seconde unité (13) de génération d’au moins un point dudit objet placé devant la surface de détection comprenant des moyens pour l’exécution d’une fonction de construction (FCT1 ) permettant de générer au moins un point final (NP1 ) dudit objet (10) ; caractérisé en ce que la première unité (11 ) et/ou la seconde unité (13) comprend des moyens pour l’exécution des étapes suivantes : o la génération (MOT2) d’un second motif d’émission par la commande de l’allumage d’un second ensemble de
photoémetteurs (35, 36, 37) différent du premier ensemble (34) ; o l’acquisition (ACQU2) d’une seconde cartographie d’intensité lumineuse en fonction de la position et de l’intensité lumineuse reçue par chaque photodétecteur de la surface de détection lors de la génération du second motif d’émission ; et dans lequel la génération du au moins un point final (NP1 ) dudit objet (10) est réalisée à partir du premier motif d’émission (P1 ), de la première cartographie d’intensité lumineuse acquise (41 ), du second motif d’émission (P2) et de la seconde cartographie d’intensité lumineuse (42). ■ a second unit (13) for generating at least one point of said object placed in front of the detection surface comprising means for executing a construction function (FCT1) making it possible to generate at least one end point (NP1) of said object (10); characterized in that the first unit (11) and/or the second unit (13) comprises means for executing the following steps: o the generation (MOT2) of a second emission pattern by controlling the ignition of a second set of photoemitters (35, 36, 37) different from the first set (34); o the acquisition (ACQU2) of a second light intensity map as a function of the position and the light intensity received by each photodetector of the detection surface during the generation of the second emission pattern; and in which the generation of at least one end point (NP1) of said object (10) is carried out from the first emission pattern (P1), the first acquired light intensity mapping (41), the second pattern d emission (P2) and the second light intensity map (42).
14. Dispositif selon la revendication 13, dans lequel le au moins un point comprend un nuage de points, et le au moins un point final (NP1 ) comprend un nuage de points final. 14. Device according to claim 13, wherein the at least one point comprises a cloud of points, and the at least one final point (NP1) comprises a cloud of final points.
15. Dispositif selon la revendication 14, caractérisé en ce que l’exécution de la fonction de construction (FCT1 ) comprend l’exécution des étapes suivantes : o la génération (GEN1 ) d’une première image (411 ) en réalisant une simulation (SIM1 ) de rayons lumineux émis par les photoémetteurs (31 ) du premier ensemble (34) et réfléchis par un objet défini par un nuage de points candidat (NPO) ; o une première comparaison (COMP1 ) de la première cartographie d’intensité lumineuse acquise (41 ) avec la première image générée (411 ) ; o une minimisation (MIN1 ) du résultat (V1 ) de la première comparaison en faisant varier le nuage de points candidat (NPO) ; o la détermination d’un nuage de points (NP1 ) représentatif dudit objet (10) en fonction de la minimisation (MIN1 ). 15. Device according to claim 14, characterized in that the execution of the construction function (FCT1) comprises the execution of the following steps: o the generation (GEN1) of a first image (411) by carrying out a simulation ( SIM1) of light rays emitted by the photoemitters (31) of the first set (34) and reflected by an object defined by a cloud of candidate points (NPO); o a first comparison (COMP1) of the first acquired light intensity map (41) with the first generated image (411); o a minimization (MIN1) of the result (V1) of the first comparison by varying the candidate point cloud (NPO); o determining a cloud of points (NP1) representative of said object (10) based on the minimization (MIN1).
16. Dispositif selon la revendication 14 et la revendication 15, caractérisé en ce que la seconde unité (13) comprend des moyens pour l’exécution des étapes suivantes :
■ la génération (GEN2) d’une seconde image (421 ) en réalisant une simulation de rayons lumineux émis par les photodétecteurs (31 ) du second ensemble et réfléchis par un objet défini par le nuage de points candidat (NPO) ; 16. Device according to claim 14 and claim 15, characterized in that the second unit (13) comprises means for carrying out the following steps: ■ the generation (GEN2) of a second image (421) by carrying out a simulation of light rays emitted by the photodetectors (31) of the second set and reflected by an object defined by the cloud of candidate points (NPO);
■ une seconde comparaison (COMP2) de la seconde cartographie d’intensité lumineuse acquise (42) avec la seconde image générée (421 ) ; l’étape de minimisation (MIN1 ) comprenant une minimisation du résultat de la seconde comparaison (V2) et de la première comparaison (V1 ) en faisant varier le nuage de points candidat (NPO) dudit objet. ■ a second comparison (COMP2) of the second acquired light intensity map (42) with the second generated image (421); the minimization step (MIN1) comprising a minimization of the result of the second comparison (V2) and the first comparison (V1) by varying the candidate point cloud (NPO) of said object.
17. Dispositif électronique selon l’une des revendications 14 à 16, caractérisé en ce que l’étape de minimisation (MIN1 ) est mise en œuvre par une méthode de descente de gradient. 17. Electronic device according to one of claims 14 to 16, characterized in that the minimization step (MIN1) is implemented by a gradient descent method.
18. Dispositif électronique selon l’une des revendications 14 à 17, caractérisé en ce que l’étape de génération d’une image (421 , 411 ) comprend la génération d’un objet virtuel défini par un nuage de point candidat (NPO) dans un environnement virtuel comprenant une simulation d’une surface similaire à la surface de détection (2). 18. Electronic device according to one of claims 14 to 17, characterized in that the step of generating an image (421, 411) comprises the generation of a virtual object defined by a candidate point cloud (NPO) in a virtual environment comprising a simulation of a surface similar to the detection surface (2).
19. Dispositif selon la revendication 14, caractérisé en ce que la fonction de construction (FCT1 ) est une fonction apprenante, mise en œuvre par un réseau de neurones entraîné pour générer un nuage de point (NP1 ) d’un objet (10) à partir d’une ou plusieurs combinaisons comprenant chacune un motif (P1 , P2) et une cartographie d’intensité lumineuse acquise (41 , 42). 19. Device according to claim 14, characterized in that the construction function (FCT1) is a learning function, implemented by a neural network trained to generate a point cloud (NP1) of an object (10) to from one or more combinations each comprising a pattern (P1, P2) and an acquired light intensity map (41, 42).
20. Dispositif selon la revendication 14, caractérisé en ce qu’il comprend une mémoire comprenant une bibliothèque de cartographies d’intensité lumineuse acquises, chacune associée à un motif d’émission et à un nuage de point d’un objet, la fonction de construction (FCT1 ) étant capable de générer ledit nuage de point (NP1 ) par comparaison avec les cartographies de ladite bibliothèque.
Dispositif électronique selon la revendication 14, caractérisé en ce que la seconde unité (13) comprend des moyens pour recevoir au moins une information de distance (Z1 ) entre ledit objet (10) et la surface de détection (2) et dans lequel le nuage de point (NP1 ) est généré par la fonction de construction (FCT1) à partir de ladite information de distance (Z1 ). Système de reconnaissance de mouvement comprenant un dispositif électronique (1 ) selon l’une des revendications 14 à 21 , caractérisé en ce qu’il comprend une unité de reconnaissance de mouvement (14) comprenant des moyens pour l’exécution des étapes suivantes : 20. Device according to claim 14, characterized in that it comprises a memory comprising a library of acquired light intensity maps, each associated with an emission pattern and a point cloud of an object, the function of construction (FCT1) being capable of generating said point cloud (NP1) by comparison with the maps of said library. Electronic device according to claim 14, characterized in that the second unit (13) comprises means for receiving at least one distance information (Z1) between said object (10) and the detection surface (2) and in which the cloud point (NP1) is generated by the construction function (FCT1) from said distance information (Z1). Motion recognition system comprising an electronic device (1) according to one of claims 14 to 21, characterized in that it comprises a motion recognition unit (14) comprising means for executing the following steps:
■ l’acquisition d’une pluralité de points finaux (NP1 , NP2) de l’objet (10) placé devant la surface de détection (2) en fonction du temps ; ■ the acquisition of a plurality of end points (NP1, NP2) of the object (10) placed in front of the detection surface (2) as a function of time;
■ la détermination (PAR) d’au moins un paramètre de mouvement (IC) à partir ■ the determination (PAR) of at least one movement parameter (IC) from
■ d’une rotation de l’objet et/ou d’une direction de translation de l’objet détecté à partir des nuages de points (NP1 , NP2) acquis en fonction du temps ; ou■ a rotation of the object and/or a direction of translation of the object detected from the point clouds (NP1, NP2) acquired as a function of time; Or
■ de l’estimation de la forme globale de l’objet (10) déterminée à partir d’une segmentation de la cartographie d’intensité lumineuse acquise.
■ the estimation of the overall shape of the object (10) determined from a segmentation of the acquired light intensity mapping.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2202432A FR3133688B1 (en) | 2022-03-18 | 2022-03-18 | DEVICE AND METHOD FOR GENERATING A POINT CLOUD OF AN OBJECT ABOVE A DETECTION SURFACE |
FRFR2202431 | 2022-03-18 | ||
FR2202431A FR3133687B1 (en) | 2022-03-18 | 2022-03-18 | DEVICE AND METHOD FOR DETECTING AN OBJECT ABOVE A DETECTION SURFACE |
FRFR2202432 | 2022-03-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023175162A1 true WO2023175162A1 (en) | 2023-09-21 |
Family
ID=85726536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2023/056928 WO2023175162A1 (en) | 2022-03-18 | 2023-03-17 | Device and method for detecting an object above a detection surface |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2023175162A1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004102301A2 (en) * | 2003-05-15 | 2004-11-25 | Qinetiq Limited | Non contact human-computer interface |
US20080316323A1 (en) * | 2006-10-12 | 2008-12-25 | Nobuhiro Morita | Image Input Apparatus, Image Input Method, Personal Authentication Apparatus, and Electronic Apparatus |
US20120038751A1 (en) * | 2010-08-13 | 2012-02-16 | Sharp Laboratories Of America, Inc. | System for adaptive displays |
EP2843509A1 (en) | 2013-08-27 | 2015-03-04 | LG Electronics, Inc. | Electronic device having proximity touch function and control method thereof |
US20150258432A1 (en) * | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Gaming device with volumetric sensing |
US20160363702A1 (en) * | 2013-03-05 | 2016-12-15 | Rambus Inc. | Phase Gratings with Odd Symmetry for Lensed Optical Sensing |
US20180139378A1 (en) * | 2016-11-11 | 2018-05-17 | Kabushiki Kaisha Toshiba | Imaging device and automatic control system |
WO2018176805A1 (en) * | 2017-03-28 | 2018-10-04 | 京东方科技集团股份有限公司 | Display panel, display device, and method for driving display device |
FR3103341A1 (en) | 2019-11-20 | 2021-05-21 | Embodme | SYSTEM FOR GENERATING A SIGNAL FROM A TOUCH CONTROL AND AN OPTICAL CONTROL |
-
2023
- 2023-03-17 WO PCT/EP2023/056928 patent/WO2023175162A1/en unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004102301A2 (en) * | 2003-05-15 | 2004-11-25 | Qinetiq Limited | Non contact human-computer interface |
US20080316323A1 (en) * | 2006-10-12 | 2008-12-25 | Nobuhiro Morita | Image Input Apparatus, Image Input Method, Personal Authentication Apparatus, and Electronic Apparatus |
US20120038751A1 (en) * | 2010-08-13 | 2012-02-16 | Sharp Laboratories Of America, Inc. | System for adaptive displays |
US20160363702A1 (en) * | 2013-03-05 | 2016-12-15 | Rambus Inc. | Phase Gratings with Odd Symmetry for Lensed Optical Sensing |
EP2843509A1 (en) | 2013-08-27 | 2015-03-04 | LG Electronics, Inc. | Electronic device having proximity touch function and control method thereof |
US20150258432A1 (en) * | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Gaming device with volumetric sensing |
US20180139378A1 (en) * | 2016-11-11 | 2018-05-17 | Kabushiki Kaisha Toshiba | Imaging device and automatic control system |
WO2018176805A1 (en) * | 2017-03-28 | 2018-10-04 | 京东方科技集团股份有限公司 | Display panel, display device, and method for driving display device |
FR3103341A1 (en) | 2019-11-20 | 2021-05-21 | Embodme | SYSTEM FOR GENERATING A SIGNAL FROM A TOUCH CONTROL AND AN OPTICAL CONTROL |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10452947B1 (en) | Object recognition using depth and multi-spectral camera | |
EP2724216B1 (en) | Method of capacitive measurement by nonregular electrodes, and apparatus implementing such a method | |
Kang et al. | Learning efficient illumination multiplexing for joint capture of reflectance and shape. | |
EP1866834A2 (en) | System and method for locating points of interest in an object image using a neural network | |
FR3073311A1 (en) | METHOD FOR ESTIMATING THE INSTALLATION OF A CAMERA IN THE REFERENTIAL OF A THREE-DIMENSIONAL SCENE, DEVICE, INCREASED REALITY SYSTEM, AND COMPUTER PROGRAM | |
Li et al. | Reflection separation via multi-bounce polarization state tracing | |
FR3055721B1 (en) | METHOD FOR RECOGNIZING RELATED CHARACTERS, COMPUTER PROGRAM PRODUCT, AND CORRESPONDING DEVICE | |
FR3013488A1 (en) | METHOD OF ESTIMATING THE SPEED OF MOVING A CAMERA | |
EP3401837A1 (en) | Device for capturing fingerprints | |
WO2020109486A9 (en) | Method and system for measuring a surface of an object comprising different structures using low-coherence interferometry | |
Mathai et al. | Transparent object reconstruction based on compressive sensing and super-resolution convolutional neural network | |
WO2023175162A1 (en) | Device and method for detecting an object above a detection surface | |
FR3133687A1 (en) | DEVICE AND METHOD FOR DETECTING AN OBJECT ABOVE A DETECTION SURFACE | |
FR3133688A1 (en) | DEVICE AND METHOD FOR GENERATING A CLOUD OF POINTS OF AN OBJECT ABOVE A DETECTION SURFACE | |
WO2021058307A1 (en) | Method for recording sequences for command and control of a test robot, software for carrying out this method | |
FR2691811A1 (en) | Seismic prospecting model determn. - gives optimum underground seismic wave propagation velocity distribution model | |
EP3206160B1 (en) | Method for biometric processing of images | |
Liu et al. | Multispectral LiDAR point cloud highlight removal based on color information | |
EP3839706A1 (en) | Method and device for determining the position of an object on a given surface | |
Sun et al. | Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors | |
Sun et al. | Seeing far in the dark with patterned flash | |
Monakhova | Physics-Informed Machine Learning for Computational Imaging | |
WO2006136696A1 (en) | Method and device for rendering interactive a volume or surface | |
US11528427B2 (en) | Shape and reflectance reconstruction | |
Tsuji | Applications of Light Transport in Direct and Scattered Components |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23712861 Country of ref document: EP Kind code of ref document: A1 |