FR3074950A1 - DATA PROCESSING METHOD AND ASSOCIATED INBOARD SYSTEM - Google Patents
DATA PROCESSING METHOD AND ASSOCIATED INBOARD SYSTEM Download PDFInfo
- Publication number
- FR3074950A1 FR3074950A1 FR1759875A FR1759875A FR3074950A1 FR 3074950 A1 FR3074950 A1 FR 3074950A1 FR 1759875 A FR1759875 A FR 1759875A FR 1759875 A FR1759875 A FR 1759875A FR 3074950 A1 FR3074950 A1 FR 3074950A1
- Authority
- FR
- France
- Prior art keywords
- pixels
- sensor
- pos
- matrix
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 39
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000005670 electromagnetic radiation Effects 0.000 claims description 5
- 238000011282 treatment Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000005855 radiation Effects 0.000 description 6
- 230000004807 localization Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Human Computer Interaction (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Un procédé de traitement de données comprend les étapes suivantes : - acquisition (E2) d'un premier ensemble (Mk) de pixels par un capteur faisant face à un environnement ; - détermination (E4) d'une position (POS) d'un objet (O) de l'environnement ; - détermination (E6, E8) d'un second ensemble (Sk) de pixels inclus dans le premier ensemble (Mk) de pixels, le second ensemble (Sk) de pixels recouvrant ladite position (POS) et étant distinct du premier ensemble (Mk) ; - application (E10) d'un algorithme de traitement aux pixels du second ensemble (Sk) seulement. Un système embarqué associé est également décrit.A method of data processing comprises the following steps: acquisition (E2) of a first set (Mk) of pixels by a sensor facing an environment; determination (E4) of a position (POS) of an object (O) of the environment; determination (E6, E8) of a second set (Sk) of pixels included in the first set (Mk) of pixels, the second set (Sk) of pixels covering said position (POS) and being distinct from the first set (Mk) ); - applying (E10) a processing algorithm to the pixels of the second set (Sk) only. An associated embedded system is also described.
Description
Procédé de traitement de données et système embarqué associéData processing method and associated embedded system
Domaine technique auquel se rapporte l'inventionTechnical field to which the invention relates
La présente invention concerne de manière générale le domaine du traitement des données acquises par un capteur.The present invention relates generally to the field of processing the data acquired by a sensor.
Elle concerne plus particulièrement un procédé de traitement de données et un système embarqué associé.It relates more particularly to a data processing method and an associated embedded system.
ARRIERE-PLAN TECHNOLOGIQUETECHNOLOGICAL BACKGROUND
On connaît notamment les procédés de traitement de données dans lesquels un capteur (en général un capteur matriciel) acquiert un ensemble de pixels, qui sont ensuite traités afin d’obtenir des informations relatives à l’environnement faisant face au capteur.Particularly known are the data processing methods in which a sensor (in general a matrix sensor) acquires a set of pixels, which are then processed in order to obtain information relating to the environment facing the sensor.
Des telles solutions sont utilisées notamment dans le domaine des véhicules, que ce soit par exemple pour construire une cartographie de l’environnement situé à l’avant du véhicule ou pour reconnaître des gestes effectués par le conducteur du véhicule.Such solutions are used in particular in the field of vehicles, whether for example to construct a map of the environment located at the front of the vehicle or to recognize gestures made by the driver of the vehicle.
Les algorithmes de traitement utilisés sont toutefois de plus en plus complexes et ainsi consommateurs en ressources matérielles (microprocesseur, mémoire, etc.).The processing algorithms used are however more and more complex and thus consumers of material resources (microprocessor, memory, etc.).
Objet de l’inventionObject of the invention
Dans ce contexte, l’invention propose un procédé de traitement de données comprenant les étapes suivantes :In this context, the invention proposes a data processing method comprising the following steps:
- acquisition d’un premier ensemble de pixels par un capteur faisant face à un environnement ;- acquisition of a first set of pixels by a sensor facing an environment;
- détermination d’une position d’un objet de l’environnement ;- determination of a position of an object of the environment;
- détermination d’un second ensemble de pixels inclus dans le premier ensemble de pixels, le second ensemble de pixels recouvrant ladite position et étant distinct du premier ensemble ;- determination of a second set of pixels included in the first set of pixels, the second set of pixels covering said position and being distinct from the first set;
- application d’un algorithme de traitement aux pixels du second ensemble seulement.- application of a processing algorithm to the pixels of the second set only.
L’algorithme de traitement est ainsi appliqué à un sous-ensemble seulement des pixels acquis, ce qui limite le volume des données manipulées. Grâce à la localisation de l’objet, les traitements effectués se concentrent sur la zone de l’environnement pour laquelle l’application de l’algorithme de traitement a un intérêt.The processing algorithm is thus applied to only a subset of the acquired pixels, which limits the volume of data handled. Thanks to the location of the object, the treatments carried out focus on the area of the environment in which the application of the processing algorithm is of interest.
D’autres caractéristiques non limitatives et avantageuses du procédé de traitement de données, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :Other non-limiting and advantageous characteristics of the data processing process, taken individually or in any technically possible combination, are the following:
- le capteur est matriciel ;- the sensor is matrix;
- le premier ensemble de pixels est une matrice de pixels ;- the first set of pixels is a matrix of pixels;
- l’étape de détermination du second ensemble de pixels comprend une étape de détermination d’une zone comprenant ladite position et/ou une étape d’extraction des pixels du premier ensemble situés dans ladite zone ;the step of determining the second set of pixels comprises a step of determining an area comprising said position and / or a step of extracting the pixels of the first set located in said area;
- le capteur délivre une pluralité de premiers ensembles de pixels ;- the sensor delivers a plurality of first sets of pixels;
- le procédé comprend une étape de détermination, pour chacun desdits premiers ensembles de pixels, d’un second ensemble de pixels correspondant par extraction des pixels du premier ensemble concerné situés dans ladite zone (la même zone étant ainsi utilisée pour les différents premiers ensembles) ;the method comprises a step of determining, for each of said first sets of pixels, a second set of corresponding pixels by extraction of the pixels of the first set concerned located in said area (the same area thus being used for the different first sets) ;
- le capteur fait partie d’un capteur de temps de vol comprenant en outre un élément émetteur de rayonnement électromagnétique ;- the sensor is part of a time-of-flight sensor further comprising an electromagnetic radiation emitting element;
- lesdits premiers ensembles sont acquis par le capteur respectivement en correspondance avec des phases distinctes du signal (modulé) émis par l’élément émetteur de rayonnement électromagnétique ;- said first sets are acquired by the sensor respectively in correspondence with distinct phases of the signal (modulated) emitted by the element emitting electromagnetic radiation;
- ladite position est déterminée par analyse d’une image représentative de l’environnement (telle qu’une partie au moins du premier ensemble de pixels ou une image obtenue grâce à l’algorithme de traitement précité) ;- Said position is determined by analysis of an image representative of the environment (such as at least part of the first set of pixels or an image obtained using the aforementioned processing algorithm);
- ladite position est déterminée par suivi de l’objet (typiquement par évaluation d’une vitesse de l’objet dans l’image entre deux images successives et estimation de la nouvelle position de l’objet sur la base de cette vitesse et d’une position de l’objet dans l’image précédente).said position is determined by monitoring the object (typically by evaluating a speed of the object in the image between two successive images and estimating the new position of the object on the basis of this speed and a position of the object in the previous image).
L’invention propose également un système embarqué comprenant une unité de traitement et un capteur faisant face à un environnement, dans lequel le capteur est conçu pour acquérir un premier ensemble de pixels et dans lequel l’unité de traitement comprend un module conçu pour déterminer une position d’un objet de l’environnement, un module conçu pour déterminer un second ensemble de pixels inclus dans le premier ensemble de pixels (le second ensemble de pixels recouvrant ladite position et étant distinct du premier ensemble), et un module conçu pour appliquer un algorithme de traitement aux pixels du second ensemble seulement.The invention also provides an on-board system comprising a processing unit and a sensor facing an environment, in which the sensor is designed to acquire a first set of pixels and in which the processing unit comprises a module designed to determine a position of an environment object, a module designed to determine a second set of pixels included in the first set of pixels (the second set of pixels covering said position and being distinct from the first set), and a module designed to apply a pixel processing algorithm of the second set only.
Les caractéristiques optionnelles mentionnées ci-dessus en terme de procédé peuvent éventuellement s’appliquer à un tel système embarqué.The optional characteristics mentioned above in terms of process can possibly apply to such an on-board system.
Description detaillee d’un exemple de réalisationDetailed description of an exemplary embodiment
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.The description which follows with reference to the appended drawings, given by way of nonlimiting examples, will make it clear what the invention consists of and how it can be carried out.
Sur les dessins annexés :In the accompanying drawings:
- la figure 1 représente un système embarqué comprenant un capteur de temps de vol ;- Figure 1 shows an on-board system comprising a time-of-flight sensor;
- la figure 2 représente les modules fonctionnels d’une unité de traitement du système embarqué de la figure 1 ; et- Figure 2 shows the functional modules of a processing unit of the embedded system of Figure 1; and
- la figure 3 représente des matrices de pixel traitées par un procédé de traitement utilisant l’invention.- Figure 3 shows pixel matrices processed by a processing method using the invention.
On a schématiquement représenté sur la figure 1 un système embarqué dans un véhicule, ici un véhicule automobile, et comprenant un capteur de temps de vol 1 et une unité de traitement 10.There is schematically shown in FIG. 1 a system on board a vehicle, here a motor vehicle, and comprising a time-of-flight sensor 1 and a processing unit 10.
Le capteur de temps de vol 1, ici une caméra tridimensionnelle basée sur le principe du temps de vol (en anglais ToF 3D caméra pour Time of Flight 3D caméra), comprend au moins un élément émetteur de rayonnement électromagnétique 2 (typiquement une ou plusieurs diode(s) électroluminescente(s) émettant dans l’infrarouge) et un capteur matriciel 4 (tel qu’un capteur d’image sensible au rayonnement émis par l’élément émetteur 2, ici l’infrarouge) définissant un ensemble de pixels.The time of flight sensor 1, here a three-dimensional camera based on the time of flight principle (in English ToF 3D camera for Time of Flight 3D camera), comprises at least one element emitting electromagnetic radiation 2 (typically one or more diode (s) emitting (s) emitting in the infrared) and a matrix sensor 4 (such as an image sensor sensitive to the radiation emitted by the emitting element 2, here the infrared) defining a set of pixels.
Le rayonnement E émis par l’élément émetteur 2 (généralement à travers un système optique d’émission non représenté en figure 1) est réfléchi en direction du capteur matriciel 4 (rayonnement référencé R en figure 1) par le premier objet rencontré sur le trajet du rayonnement E.The radiation E emitted by the emitting element 2 (generally through an optical emission system not shown in Figure 1) is reflected towards the matrix sensor 4 (radiation referenced R in Figure 1) by the first object encountered on the path of radiation E.
En pratique, un système optique (tel qu’une lentille) est placé en regard du capteur matriciel 4 de telle sorte que chaque pixel du capteur matriciel 4 reçoit le signal réfléchi R provenant d’une direction particulière de l’angle solide analysé par le capteur de temps de vol 1.In practice, an optical system (such as a lens) is placed opposite the matrix sensor 4 so that each pixel of the matrix sensor 4 receives the reflected signal R coming from a particular direction of the solid angle analyzed by the time of flight sensor 1.
Comme visible en figure 1, une unité de traitement 10 (par exemple une unité électronique de commande ou, de manière générale, un microcontrôleur) commande l’émission du rayonnement E par l’élément émetteur 2, puis analyse les signaux mesurés par le capteur matriciel 4 (représentés ici sous la forme d’une pluralité de matrices Mk de pixels) de manière à déterminer notamment une matrice D comprenant les distances dij du premier objet rencontré pour une pluralité de directions de l’espace faisant face au capteur de temps de vol 1.As shown in FIG. 1, a processing unit 10 (for example an electronic control unit or, in general, a microcontroller) controls the emission of E radiation by the emitting element 2, then analyzes the signals measured by the sensor matrix 4 (represented here in the form of a plurality of matrices M k of pixels) so as to determine in particular a matrix D comprising the distances d i of the first object encountered for a plurality of directions of space facing the time sensor flight 1.
Cette matrice D des distances dij (ainsi qu’éventuellement d’autres informations, telle qu’une matrice de luminance L) est transmise par l’unité de traitement 10 à un autre système électronique (non représenté) pour utilisation par celui-ci.This matrix D of the distances dij (as well as possibly other information, such as a luminance matrix L) is transmitted by the processing unit 10 to another electronic system (not shown) for use by the latter.
Par exemple, dans le domaine automobile, le capteur de temps de vol 1 peut être placé à l’avant du véhicule afin de construire une cartographie de l’environnement avant du véhicule et/ou de détecter un obstacle et/ou d’évaluer la vitesse d’un autre véhicule situé à l’avant (par dérivation d’une distance du véhicule évaluée sur la base de certaines des distances dij).For example, in the automotive field, the time of flight sensor 1 can be placed at the front of the vehicle in order to construct a map of the environment before the vehicle and / or to detect an obstacle and / or to assess the speed of another vehicle located at the front (by derivation of a distance from the vehicle evaluated on the basis of some of the distances dij).
Selon une autre possibilité envisageable, le capteur de temps de vol peut être placé dans l’habitacle du véhicule (par exemple face au conducteur du véhicule) et les distances dij déterminées par l’unité de traitement 10 peuvent être utilisées au sein d’un algorithme de reconnaissance gestuelle.According to another conceivable possibility, the time-of-flight sensor can be placed in the passenger compartment of the vehicle (for example facing the driver of the vehicle) and the distances dij determined by the processing unit 10 can be used within a gesture recognition algorithm.
Dans l’exemple décrit ici, le rayonnement E émis par l’élément émetteur 2 (sous la commande de l’unité de traitement 10) est un signal modulé et l’unité de traitement 10 commande l’acquisition par le capteur matriciel 4 d’une pluralité de matrices Mk de pixels, à des instants correspondant respectivement à une pluralité de phases distinctes (deux à deux) du signal modulé.In the example described here, the radiation E emitted by the emitting element 2 (under the control of the processing unit 10) is a modulated signal and the processing unit 10 controls the acquisition by the matrix sensor 4 d a plurality of matrices M k of pixels, at times corresponding respectively to a plurality of distinct phases (two by two) of the modulated signal.
La figure 2 représente les modules fonctionnels de l’unité de traitement 10 utiles à la compréhension de l’invention.FIG. 2 represents the functional modules of the processing unit 10 useful for understanding the invention.
Chaque module fonctionnel 12, 14, 16 représenté sur la figure 2 correspond à une fonctionnalité particulière mise en oeuvre par l’unité de traitement 10. Plusieurs (voire tous les) modules fonctionnels peuvent toutefois en pratique être mis en oeuvre par une même entité physique, ici un processeur de l’unité de traitement 10, sur lequel s’exécute des instructions de programme mémorisées dans une mémoire associée au processeur (chaque module fonctionnel étant alors dans ce cas mis en oeuvre par l’exécution d’un jeu particulier d’instructions mémorisées dans cette mémoire).Each functional module 12, 14, 16 shown in FIG. 2 corresponds to a particular functionality implemented by the processing unit 10. Several (or even all) functional modules can however in practice be implemented by the same physical entity , here a processor of the processing unit 10, on which program instructions stored in a memory associated with the processor are executed (each functional module then being implemented in this case by the execution of a particular game d 'instructions stored in this memory).
L’unité de traitement 10 comprend ainsi un module de localisation 12, un module de sélection 14 et un module d’analyse 16.The processing unit 10 thus comprises a localization module 12, a selection module 14 and an analysis module 16.
Le module de localisation 12 est conçu pour localiser (grossièrement) un objet présent dans l’angle solide observé par le capteur matriciel 4.The location module 12 is designed to locate (roughly) an object present in the solid angle observed by the matrix sensor 4.
Selon une première possibilité envisageable, la localisation de l’objet est réalisée par analyse d’une image représentative de l’environnement faisant face au capteur matriciel 4 dans le champ de vision du capteur matriciel 4.According to a first possible possibility, the location of the object is carried out by analysis of an image representative of the environment facing the matrix sensor 4 in the field of vision of the matrix sensor 4.
Cette image représentative peut être en pratique une des matrices Mk de pixels produites par la capteur matriciel 4 ou la matrice de luminance L produite comme indiqué ci-dessous par le module d’analyse 16, éventuellement (dans les deux cas) après une étape de sous-échantillonnage afin de réduire le volume des données traitées.This representative image can in practice be one of the matrices M k of pixels produced by the matrix sensor 4 or the luminance matrix L produced as indicated below by the analysis module 16, possibly (in both cases) after a step subsampling to reduce the volume of data processed.
Cette première possibilité peut être utilisée en particulier si aucun objet n’a été détecté au préalable.This first possibility can be used in particular if no object has been detected beforehand.
Selon une seconde possibilité envisageable, la localisation de l’objet est réalisée par suivi de l’objet et estimation de la position courante de l’objet (sur la base typiquement de la position de l’objet à l’itération précédente et d’un déplacement estimé de l’objet d’une itération à l’itération suivante).According to a second possible possibility, the location of the object is carried out by monitoring the object and estimating the current position of the object (typically based on the position of the object at the previous iteration and an estimated displacement of the object from one iteration to the next iteration).
Lorsque le module de localisation 12 localise un objet, le module de localisation 12 transmet une information de position POS au module de sélection 14.When the localization module 12 locates an object, the localization module 12 transmits position information POS to the selection module 14.
L’information de position POS comprend par exemple des coordonnées de l’objet détecté exprimées par rapport à la matrice de pixels acquise par le capteur matriciel 4. Ces coordonnées permettent de définir la position et/ou l’étendue de l’objet concerné dans l’angle solide observé par le capteur matriciel 4.The position information POS includes, for example, coordinates of the detected object expressed relative to the pixel matrix acquired by the matrix sensor 4. These coordinates make it possible to define the position and / or the extent of the object concerned in the solid angle observed by the matrix sensor 4.
Le module de sélection 14 reçoit également en entrée les matrices de pixel Mk acquises par le capteur matriciel 4.The selection module 14 also receives as input the pixel matrices Mk acquired by the matrix sensor 4.
Tant qu’aucun objet n’a été détecté, le module de sélection 14 ne reçoit aucune information de position POS et transmet alors les matrices de pixel Mk reçues en entrée au module d’analyse 16 (sans modification).As long as no object has been detected, the selection module 14 does not receive any position information POS and then transmits the pixel matrices M k received as input to the analysis module 16 (without modification).
En revanche, si un objet est détecté par le module de localisation 12, le module de localisation 12 transmet l’information de position POS au module de sélection 14 comme déjà indiqué. Le module de sélection 12 est alors conçu pour :On the other hand, if an object is detected by the location module 12, the location module 12 transmits the position information POS to the selection module 14 as already indicated. The selection module 12 is then designed to:
- déterminer une zone Z couvrant la (ou les) position(s) définie(s) par l’information de position POS,- determine a zone Z covering the position (s) defined by the position information POS,
- extraire, dans chaque matrice Mk de pixels reçue en entrée, les pixels correspondant à la zone Z, ce qui permet d’obtenir pour chaque matrice Mk de pixels un ensemble Sk de pixels, etextracting, in each matrix M k of pixels received at input, the pixels corresponding to the zone Z, which makes it possible to obtain for each matrix M k of pixels a set S k of pixels, and
- transmettre les ensembles Skde pixels au module d’analyse 16.transmitting the sets S k of pixels to the analysis module 16.
Le module de sélection 14 détermine la zone Z de manière prédéfinie sur la base de l’information de position POS. Par exemple, la zone Z comprend tous les pixels situés à 10 pixels ou moins (verticalement ou horizontalement) de la position définie par l’information de position POS (y compris le pixel défini ou les pixels définis par l’information de position POS).The selection module 14 determines the zone Z in a predefined manner on the basis of the position information POS. For example, area Z includes all pixels located 10 pixels or less (vertically or horizontally) from the position defined by POS position information (including the defined pixel or pixels defined by POS position information) .
Chaque ensemble Sk de pixels est donc un sous-ensemble de l’ensemble des pixels d’une matrice Mkde pixels correspondante.Each set S k of pixels is therefore a subset of the set of pixels of a corresponding matrix M k of pixels.
On remarque que, dans l’exemple décrit ici, la même zone Z est utilisée pour extraire les pixels des différentes matrices Mk de pixels.Note that, in the example described here, the same zone Z is used to extract the pixels from the different matrices M k of pixels.
Le module d’analyse 16 est quant à lui conçu pour appliquer au moins un algorithme de traitement aux ensembles Sk de pixels reçus en entrée.The analysis module 16 is designed to apply at least one processing algorithm to the sets S k of pixels received at the input.
Dans l’exemple décrit ici, le module d’analyse 16 met en oeuvre un premier algorithme de traitement permettant d’obtenir la matrice D des distances dj,j sur la base des ensembles Sk de pixels reçus en entrée (lorsque le module de sélection 14 effectue l’extraction précitée, ou sur la base des matrices Mk de pixels lorsqu’aucun objet n’est détecté par le module de localisation 12 et que le module de sélection 14 transmet alors simplement ces matrices Mk de pixels).In the example described here, the analysis module 16 implements a first processing algorithm making it possible to obtain the matrix D of the distances dj, j on the basis of the sets S k of pixels received at input (when the module of selection 14 performs the abovementioned extraction, or on the basis of the matrixes k k of pixels when no object is detected by the localization module 12 and the selection module 14 then simply transmits these matrices M k of pixels).
Le module d’analyse 16 met ici en oeuvre également un second algorithme de traitement, permettant quant à lui d’obtenir la matrice L de luminance précitée sur la base des ensembles Sk de pixels reçus en entrée (ou, comme précédemment, sur la base des matrices Mkde pixels).The analysis module 16 here also implements a second processing algorithm, making it possible to obtain the aforementioned luminance matrix L on the basis of the sets S k of pixels received at input (or, as previously, on the base of the matrixes M k of pixels).
On pourra se référer par exemple au document technique Time-of-Flight Caméra- An Introduction, Texas Instruments, réf. SLOA190B, pour plus d’informations sur les traitements qui viennent d’être décrits.We can refer for example to the technical document Time-of-Flight Camera- An Introduction, Texas Instruments, ref. SLOA190B, for more information on the treatments just described.
Ainsi, lorsqu’un objet est détecté par le module de localisation 12, les algorithmes de traitement sont appliqués à une partie seulement des pixels (les ensembles Sk), ce qui permet de réduire le volume des traitements effectués.Thus, when an object is detected by the localization module 12, the processing algorithms are applied to only part of the pixels (the sets S k ), which makes it possible to reduce the volume of the treatments carried out.
Lorsque le module de sélection 14 extrait des pixels des matrices Mk de pixels comme indiqué plus haut et transmet au module d’analyse 16 des ensembles Sk de pixels, la matrice D des distances djj et/ou la matrice L de luminance sont généralement partielles (/.e. : ne comportent pas des données pour l’ensemble du champ de vision du capteur matriciel 4).When the selection module 14 extracts pixels from the matrices M k of pixels as indicated above and transmits to the analysis module 16 sets of pixels S k , the matrix D of the distances djj and / or the luminance matrix L are generally partial (/.e .: do not include data for the entire field of vision of the matrix sensor 4).
On décrit à présent en référence à la figure 3 un exemple de procédé de traitement mis en œuvre par l’unité de traitement 10.We now describe with reference to FIG. 3 an example of a processing method implemented by the processing unit 10.
Le capteur matriciel 4 acquiert à l’étape E2 au moins une matrice de pixels, ici une pluralité de matrice Mk de pixels comme expliqué ci-dessus.The matrix sensor 4 acquires at step E2 at least one matrix of pixels, here a plurality of matrix M k of pixels as explained above.
L’unité de localisation 12 détecte un objet O dans l’environnement faisant face au capteur matriciel 4 (étape E4) et détermine sa position POS, par exemple par analyse de l’une des matrices Mk de pixels. En variante, la détection de l’objet O pourrait être réalisée par analyse d’une matrice de luminance L calculée par l’unité de traitement 10.The location unit 12 detects an object O in the environment facing the matrix sensor 4 (step E4) and determines its position POS, for example by analysis of one of the matrices M k of pixels. As a variant, the detection of the object O could be carried out by analysis of a luminance matrix L calculated by the processing unit 10.
Le module de sélection 14 détermine alors à l’étape E6 une zone Z couvrant l’objet O (et par exemple plus étendue que l’objet O afin de tenir compte d’une marge d’erreur).The selection module 14 then determines in step E6 an area Z covering the object O (and for example more extensive than the object O in order to take account of a margin of error).
Pour chaque matrice Mk de pixels, le module de sélection 14 extrait les pixels situés dans la zone Z afin d’obtenir un ensemble Sk de pixels correspondant (étape E8).For each matrix M k of pixels, the selection module 14 extracts the pixels located in the zone Z in order to obtain a set S k of corresponding pixels (step E8).
Le module d’analyse 16 peut ainsi appliquer à l’étape E10 au moins un algorithme de traitement aux ensembles Sk de pixels (et à ces pixels seulement), ici afin d’obtenir une matrice (partielle) D de distances dij ou une matrice (partielle) de luminance L.The analysis module 16 can thus apply at step E10 at least one processing algorithm to the sets S k of pixels (and to these pixels only), here in order to obtain a (partial) matrix D of distances dij or a (partial) matrix of luminance L.
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1759875A FR3074950B1 (en) | 2017-10-19 | 2017-10-19 | DATA PROCESSING METHOD AND EMBEDDED SYSTEM THEREOF |
PCT/EP2018/078465 WO2019077010A1 (en) | 2017-10-19 | 2018-10-17 | Data processing method and associated onboard system |
EP18785645.5A EP3698321A1 (en) | 2017-10-19 | 2018-10-17 | Data processing method and associated onboard system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1759875 | 2017-10-19 | ||
FR1759875A FR3074950B1 (en) | 2017-10-19 | 2017-10-19 | DATA PROCESSING METHOD AND EMBEDDED SYSTEM THEREOF |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3074950A1 true FR3074950A1 (en) | 2019-06-14 |
FR3074950B1 FR3074950B1 (en) | 2019-12-27 |
Family
ID=61027878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1759875A Active FR3074950B1 (en) | 2017-10-19 | 2017-10-19 | DATA PROCESSING METHOD AND EMBEDDED SYSTEM THEREOF |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3698321A1 (en) |
FR (1) | FR3074950B1 (en) |
WO (1) | WO2019077010A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11663697B2 (en) | 2020-02-03 | 2023-05-30 | Stmicroelectronics (Grenoble 2) Sas | Device for assembling two shots of a scene and associated method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160048726A1 (en) * | 2014-08-15 | 2016-02-18 | Apple Inc. | Three-Dimensional Hand Tracking Using Depth Sequences |
WO2017045251A1 (en) * | 2015-09-15 | 2017-03-23 | SZ DJI Technology Co., Ltd. | Systems and methods for uav interactive instructions and control |
-
2017
- 2017-10-19 FR FR1759875A patent/FR3074950B1/en active Active
-
2018
- 2018-10-17 EP EP18785645.5A patent/EP3698321A1/en active Pending
- 2018-10-17 WO PCT/EP2018/078465 patent/WO2019077010A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160048726A1 (en) * | 2014-08-15 | 2016-02-18 | Apple Inc. | Three-Dimensional Hand Tracking Using Depth Sequences |
WO2017045251A1 (en) * | 2015-09-15 | 2017-03-23 | SZ DJI Technology Co., Ltd. | Systems and methods for uav interactive instructions and control |
Non-Patent Citations (1)
Title |
---|
"Time-of-Flight and Depth Imaging. Sensors, Algorithms, and Applications", vol. 8200, 1 August 2013, SPRINGER INTERNATIONAL PUBLISHING, Cham, ISBN: 978-3-642-38988-7, ISSN: 0302-9743, article THOMAS HOEGG ET AL: "Real-Time Motion Artifact Compensation for PMD-ToF Images", pages: 273 - 288, XP055466005, 032548, DOI: 10.1007/978-3-642-44964-2_13 * |
Also Published As
Publication number | Publication date |
---|---|
FR3074950B1 (en) | 2019-12-27 |
WO2019077010A1 (en) | 2019-04-25 |
EP3698321A1 (en) | 2020-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6784943B2 (en) | Information processing equipment, information processing methods, and programs | |
US9823340B2 (en) | Method for time of flight modulation frequency detection and illumination modulation frequency adjustment | |
US10088561B2 (en) | Detection of a distributed radar target based on an auxiliary sensor | |
FR3025898A1 (en) | METHOD AND SYSTEM FOR LOCALIZATION AND MAPPING | |
US10752256B2 (en) | Method and device for controlling at least one driver interaction system | |
US10936886B2 (en) | Method and system for stereo based vehicle pose estimation | |
FR3091777A1 (en) | Method for determining a protection radius of a vision-based navigation system | |
KR20180096980A (en) | Method and apparatus for distance estimation using stereo camera | |
JP7117566B2 (en) | Information processing system and information processing method | |
FR3074950A1 (en) | DATA PROCESSING METHOD AND ASSOCIATED INBOARD SYSTEM | |
FR3056531B1 (en) | OBSTACLE DETECTION FOR MOTOR VEHICLE | |
WO2013169185A1 (en) | A vision system and method for a motor vehicle | |
JP7503164B2 (en) | How to create map information | |
US11017274B2 (en) | Information processing system and information processing method | |
KR20170119167A (en) | System and method for detecting object | |
FR3056530A1 (en) | OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE | |
JP5783163B2 (en) | Target detection device | |
US20230057655A1 (en) | Three-dimensional ranging method and device | |
FR3055287A1 (en) | DEVICE FOR DETERMINING A SPEED LIMITATION, ON-BOARD SYSTEM COMPRISING SUCH A DEVICE AND METHOD FOR DETERMINING A SPEED LIMITATION | |
WO2019086314A1 (en) | Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving | |
FR3052560B1 (en) | ONBOARD SYSTEM AND METHOD FOR DETERMINING A RELATIVE POSITION | |
WO2020084218A1 (en) | Method for determining a current value of an occupancy parameter relating to a portion of a space located in the vicinity of a motor-driven land vehicle | |
FR3082936A1 (en) | STEREOSCOPIC PROCESSING OF CONNECTED VEHICLE DATA | |
FR3052568A1 (en) | ONBOARD SYSTEM AND METHOD FOR DETERMINING A CAP | |
WO2016146823A1 (en) | Method for estimating geometric parameters representing the shape of a road, system for estimating such parameters and motor vehicle equipped with such a system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20190614 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |