WO2021239941A1 - Method for estimating a distance between an imaging device and a subject represented in at least one 2d image provided by said device - Google Patents

Method for estimating a distance between an imaging device and a subject represented in at least one 2d image provided by said device Download PDF

Info

Publication number
WO2021239941A1
WO2021239941A1 PCT/EP2021/064335 EP2021064335W WO2021239941A1 WO 2021239941 A1 WO2021239941 A1 WO 2021239941A1 EP 2021064335 W EP2021064335 W EP 2021064335W WO 2021239941 A1 WO2021239941 A1 WO 2021239941A1
Authority
WO
WIPO (PCT)
Prior art keywords
bands
image
linear dimension
subject
pixels
Prior art date
Application number
PCT/EP2021/064335
Other languages
French (fr)
Inventor
Vincent DEBORDES
Original Assignee
Lacroix Electronics Cesson
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lacroix Electronics Cesson filed Critical Lacroix Electronics Cesson
Publication of WO2021239941A1 publication Critical patent/WO2021239941A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • TITLE Method for estimating a distance between a camera and a subject represented in at least one 2D image provided by this camera.
  • the field of the invention is that of distance calculation.
  • the invention relates to a method for estimating, by a computing machine, a distance between a camera, comprising a sensor and providing one or more 2D image (s), and a subject represented in this or these 2D image (s).
  • the 2D images considered are digital images comprising pixels.
  • shooting device is meant in particular, but not exclusively, a photographic device (providing 2D images) or a video camera (providing a video comprising a sequence of 2D images).
  • subject is meant in particular, but not exclusively, a face or an object.
  • Measuring such a distance is not a new problem and is involved in a large number of technical fields.
  • f w an apparent linear dimension, in pixels, of the image, according to the given type of linear dimension.
  • w m is the real width in meters of the subject
  • s w is the real width in meters of the sensor
  • w p is the apparent width in pixels of the subject in the image
  • f w is the apparent width in image pixel (also called the camera's horizontal pixel resolution).
  • w m is the real height in meters of the subject
  • s w is the real height in meters of the sensor
  • w p is the apparent height in pixels of the subject in the image
  • f w is the apparent height in image pixel (also called the camera's vertical pixel resolution).
  • the parameters I, s w and f w are intrinsic parameters of the camera. It is considered in the remainder of the description that they are known.
  • the parameter w m is a parameter of the subject which is also considered to be known in the remainder of the description.
  • a known solution for estimating the parameter w p , that is to say for measuring the dimension of a subject (face or object) on an image, involves the use of a neural network.
  • a “box regression” will adjust the edges of an imaginary rectangle so that they are as close as possible to the subject.
  • the values of the dimensions of this imaginary rectangle then give a measure of the dimensions of the subject, expressed in pixels.
  • a drawback of the known solution is that the use of a neural network requires prior learning of it with a sufficiently full database comprising different images of the same type of subject and precisely adjusted rectangles.
  • the invention in at least one embodiment, aims in particular to overcome these various drawbacks of the state of the art.
  • an objective is to provide a solution for measuring a distance between a camera and a subject, which does not require prior learning.
  • Another objective of at least one embodiment of the invention is to provide such a solution which uses few resources and is easily integrated into an on-board system.
  • Another objective of at least one embodiment of the invention is to provide such a solution which is simple to implement and inexpensive.
  • the method comprises an estimation of the parameter w p comprising:
  • the proposed solution proposes a completely new and inventive approach for estimating the parameter w p (apparent linear dimension of the subject in pixels), consisting in applying to the image at least one contour extraction filter, in dividing l 'image resulting in a plurality of bands, in selecting two of these bands and in calculating a distance d in pixels between these two selected bands (constituting a first estimate of the parameter w p ).
  • the proposed solution therefore does not require the use of a neural network, nor a fortiori prior learning.
  • it uses few resources and is therefore easily integrated into an on-board system. In short, it is simple to implement and inexpensive.
  • the type of linear dimension is width and the bands are vertical.
  • w m is the real width in meters of the subject
  • s w is the real width in meters of the sensor
  • w p is the apparent width in pixels of the subject in the image
  • f w is the apparent width in pixels of the image (also called the horizontal resolution in pixels of the camera).
  • the linear dimension type is height and the bands are horizontal.
  • w m is the real height in meters of the subject
  • s w is the real height in meters of the sensor
  • w p is the apparent height in pixels of the subject in the image
  • f w is the apparent height in pixels of the image (also called the vertical resolution in pixels of the camera).
  • each of the bands is composed of a plurality of rows of pixels extending parallel to said axis
  • step c) of calculating an intensity for each of the bands comprises: for each row of each band, calculating a sum of the values of the pixels of said row and keeping the sum only if it is greater than or equal to a predetermined threshold;
  • the camera provides a sequence of successive 2D images.
  • the method comprises a current iteration of steps a) to e) and of the following step f), executed after step e): calculation of an average distance d resulting from an average of the distances d calculated in the current iteration and in a determined number of previous iterations of step e).
  • the mean distance d calculated in the current iteration of step f) constitutes a second estimate of the parameter w p .
  • the averaging of the calculated distances d acts as a low-pass filter which smooths the output so as not to take into account any outliers due to noise. This averaging helps to eliminate the noise generated by the background of the image and the elements of the subject (in the case of a face: eyes, nose, mouth, etc.).
  • the camera provides a sequence of successive 2D images.
  • the method comprises a current iteration of steps a) to e) or f) and of the following step a '), executed between steps a) and b): calculation of a filtered image by multiplying the processed image, resulting from the execution of step a), by a probability mask.
  • Step b) is performed with the filtered image resulting from performing step a ’).
  • applying a probability mask also helps to eliminate noise generated by the background of the image and elements of the subject.
  • the probability mask is a matrix of the same size as the processed image, each row of the probability mask, if the bands are vertical, or each column of the probability mask, if the bands are horizontal, containing coefficients whose values are given, except for the first iteration of step a '), by a double Gaussian-type probability function, presenting two centered peaks:
  • step d on average positions calculated from the positions of the two bands selected in a determined number of previous iterations of step d).
  • the probability mask is adaptive and improves the quality of the estimate of the distance D between the camera and the subject.
  • a default probability mask is used for the first iteration of step a ’).
  • the subject is a face or an object.
  • a computer program product comprising program code instructions which, when they are executed by a computing machine, cause the computing machine to perform the aforementioned method. (in any of its various embodiments).
  • a non-transient, computer readable storage medium storing the aforementioned computer program product.
  • FIG. 1 shows a simplified flowchart of the method according to the invention
  • FIG. 2 illustrates a particular embodiment of step 20 of Figure 1
  • FIG. 3 illustrates the generation of the probability mask, performed in step 22 of Figure 2;
  • FIG. 4 illustrates a particular embodiment of step 21 of Figure 2
  • FIG. 5 illustrates a particular embodiment of step 22 of Figure 2
  • FIG. 6 illustrates a particular embodiment of step 23 of Figure 2
  • FIG. 7 illustrates a particular embodiment of step 24 of Figure 2
  • FIG. 8 illustrates a particular embodiment of step 80 of Figure 1
  • FIG. 9 presents the structure of a computing machine, according to a particular embodiment, configured to carry out the method of the invention.
  • the method according to the invention for estimating, by a computing machine, a distance D between a camera, comprising a sensor and supplying the minus one 2D image, and a subject represented in the at least one 2D image.
  • the process (block referenced 1 and with the acronym MDR for "Rapid Distance Measurement”) includes:
  • a step 80 of calculating the distance D as a function of the parameter w p (estimated at step 20) and of the parameters (assumed to be known) I, w m , f and s w , according to the equation (illustrated in FIG. 8): D I * (w m * f) / (w p * s w ), hence the acronym of step 80 in figures 1 and 8: EDFG for “Estimation of Distance by Geometric Formula” .
  • the parameters of the aforementioned equation are defined, generically, as follows:
  • w m is the real width in meters of the subject
  • s w is the real width in meters of the sensor
  • w p is the apparent width in pixels of the subject in the image (hence the acronym of step 20 in Figures 1 and 2: AMLI for "Imaginary Width Measurement Algorithm”
  • f w is the apparent width in pixel of the image (also called horizontal resolution in pixel of the camera).
  • the parameters I, s w and f w are intrinsic parameters of the camera and it is considered in the remainder of the description that they are known.
  • the parameter w m is a parameter of the subject which is also considered to be known in the remainder of the description.
  • the subject is a face.
  • the parameter w p is the apparent width (in pixels) of the face in the image.
  • w m is the real height in meters of the subject
  • s w is the real height in meters of the sensor
  • w p is the apparent height in pixels of the subject in the image
  • f w is the apparent height in pixels of the image (also called the vertical resolution in pixels of the camera).
  • the present invention is also not limited to the case where the subject is a face.
  • the subject is for example an object.
  • FIG. 2 illustrates a particular embodiment of step 20 of FIG. 1.
  • the parameter w p (apparent width in pixels of the face in the image) is estimated in function of a sequence of successive 2D images (sequence referenced 10). This is for example a video provided by a video camera.
  • Step 20 itself comprises, for a given image (hereinafter called “current image”), an iteration (hereinafter called “current iteration”) of the following steps:
  • a contour extraction step 21 by applying to the current image at least one contour extraction filter, to obtain a processed image
  • a step 23 of applying to the filtered image results from the execution of step 22) a “band algorithm”, making it possible to calculate a distance d in pixels between two selected bands (see detailed description below -after), this distance d constituting a first estimate of the parameter w p ;
  • a step 24 of calculating an average distance d resulting from an average of the distances d that is to say of the first estimates of the parameter w p ) calculated on the one hand in the current iteration of the step 23 and on the other hand in a determined number of previous iterations of step 23; the average distance d calculated in the current iteration of step 24 constitutes a second estimate of the parameter w p , which is supplied as an input to step 80 for calculating the distance D.
  • the step 21 of extracting contours consists in applying one or more extraction filters of contours (extraction of vertical or horizontal contours, depending on whether the parameter w p is the apparent width or height in pixels of the subject in the image) - for example one or more Sobel filters - on a source image 41 (the image resultant is referenced 42), then applying a binary thresholding to binarize the image and keep only the most salient contours (by applying an absolute value to the output, one can extract the rising edges and the falling edges of the vertical contours d 'an object).
  • the processed image obtained at the end of step 21 is referenced 43.
  • step 22 comprises a weighting of the contours contained in the processed image 43 (resulting from step 21) with a probability mask 50 (obtained as detailed below. after), in order to filter out unwanted contours and preserve the edges of the face.
  • the filtered image obtained at the end of step 22 is referenced 51.
  • the probability mask 50 is a matrix of the same size as the processed image 43.
  • Each row of the probability mask contains coefficients whose values are given, except for the first iteration of step 22 (in which a default probability mask is used), by a double Gaussian type probability function (referenced 52 in Figure 5), having two peaks centered on average positions calculated from the positions of the two bands selected in a determined number previous iterations of step 23.
  • FIG. 3 shows schematically the first two iterations of the method 20 of FIG. 2: the first iteration is carried out with as input the first image of the sequence (referenced "Image 0") and the second iteration is carried out with the second image of the sequence (referenced "Image 1").
  • step 24 provides an estimate of the parameter w p as well as information 30 which is used as input to step 22 during the second iteration.
  • the information 30 is used to calculate (in step 22 during the second iteration) the probability mask which is applied to the second image ("Image 1") after it has been processed in step 21 (from the second iteration).
  • the information includes: • a first information on the relative positioning (that is to say the distance between them) of the two peaks of the double Gaussian type probability function: this first information is the estimate of the parameter w p (mean distance d) ; and
  • this second item of information corresponds to the positions of the two bands selected in step 23 and it is for example supplied in the form of the position P of the center of the two bands selected in step 23 (to define the position of the center of symmetry of the masking function, that is to say the position of the point of symmetry between the two peaks).
  • the subject (face) is substantially centered over the width of the source image 41 (with one edge of the face to the right of the image and the other edge to the left of the image) .
  • only one item of information 30 is transmitted, namely the first aforementioned item of information (that is to say the estimate of the parameter w p ). Indeed, it follows from the aforementioned assumption that the position P of the center of the two bands selected in step 23 is substantially located in the middle of the width of the image; therefore the second information is not necessary.
  • step 23 consists in applying a “band algorithm” to the filtered image 51 obtained at the end of step 22.
  • This “band algorithm” for example itself includes the following substeps:
  • each of the bands is made up of a plurality of rows of pixels (extending horizontally, that is to say perpendicular to the axis of the bands and parallel to the axis along which the width of the face is measured), and the calculation of an intensity for each of the bands includes: o for each line of each band, calculation of a sum of the values of the pixels of the line and keeping
  • step 24 comprises:
  • a first buffer memory 70 which is a FIFO type stack of size N, containing the N distances d calculated during the N previous iterations of l 'step 23; followed by a calculation (block referenced 71) of the average of the N distances d contained in the first buffer memory 70; and
  • step 24 • adding the position P of the center of the two selected bands (this position P is also calculated in step 23) in a second buffer memory 70 'which is a FIFO type stack of size N, containing the N positions P calculated during the previous N iterations of step 23; followed by a calculation (block referenced 71 ') of the average of the N positions P contained in the second buffer memory 70'.
  • the operations performed in step 24 act as a low pass filter which smooths the outputs (distance d and position P) so as not to take into account any outliers due to noise. If N is too small, the noise will not be smoothed. Conversely, if N is too large, the temporal evolution of the output width (parameter w p ) will be affected by a latency induced by the filter.
  • the mean distance d resulting from this averaging constitutes the second estimate of the parameter w p , and it is the output result of step 24.
  • the mean distance d 71 is therefore supplied at the input of calculation step 80.
  • the distance D as symbolized by the arrow referenced 72. It is also provided (as symbolized by the arrow referenced 73), with the mean position P (as symbolized by the arrow referenced 73 '), for the calculation of the probability mask during the next iteration of step 22 (for the next image in the sequence).
  • FIG. 9 presents an example of the structure of a computing machine 90 for carrying out (executing) the method presented above in relation to FIGS. 1 to 8.
  • This structure comprises a random access memory 92 (for example a RAM memory), a read only memory 93 (for example a ROM memory or a hard disk) and a processing unit 91 (equipped for example with a processor, and controlled by a program. computer 930 stored in ROM 93).
  • the code instructions of the computer program 930 are for example loaded into the random access memory 92 before being executed by the processor of the processing unit 91.
  • the processor receives the sequence of images as input. and the parameters I, w m , f and s w , and outputs an estimate of the distance D.
  • FIG. 9 illustrates only one particular way, among several possible, of implementing a computing machine to carry out (execute) the method.
  • the computing machine can be implemented indifferently in the form of a reprogrammable computing machine (a PC computer, a DSP processor or a microcontroller) executing a program comprising a sequence of instructions, or in the form of a dedicated computing machine (for example a set of logic gates such as an FPGA or an ASIC, or any other hardware module).
  • a reprogrammable computing machine a PC computer, a DSP processor or a microcontroller
  • a program comprising a sequence of instructions
  • a dedicated computing machine for example a set of logic gates such as an FPGA or an ASIC, or any other hardware module.
  • the corresponding program i.e. the sequence of instructions
  • a removable storage medium such as for example a floppy disk, a CD-ROM or a DVD-ROM
  • this storage medium being partially or totally readable by a computer or a processor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

A method for estimating a distance D between an imaging device, comprising a sensor and providing at least one 2D image representing a subject. The method comprises a calculation (80) according to the following equation: D = l * (wm * fw) / (wp * sw) with: l a focal length of the imaging device; wm a real linear dimension of the subject, having a linear dimension type; sw an actual linear dimension of the sensor, according to the linear dimension type; wp an apparent linear dimension, in pixels, of the subject in the at least one image, according to the linear dimension type; and fw an apparent linear dimension, in pixels, of the at least one image, according to the given linear dimension type. Estimating (20) the parameter wp comprises: a) applying at least one filter for extracting contours; b) dividing to form a plurality of strips; c) calculating an intensity for each of the strips; d) selecting two strips; and e) calculating a pixel distance d between the two selected strips, constituting a first estimate of the parameter wp.

Description

TITRE : Procédé d’estimation d’une distance entre un appareil de prise de vue et un sujet représenté dans au moins une image 2D fournie par cet appareil. TITLE: Method for estimating a distance between a camera and a subject represented in at least one 2D image provided by this camera.
1. DOMAINE TECHNIQUE 1. TECHNICAL FIELD
Le domaine de l’invention est celui du calcul de distance. The field of the invention is that of distance calculation.
Plus précisément, l’invention concerne un procédé d’estimation, par une machine de calcul, d’une distance entre un appareil de prise de vue, comprenant un capteur et fournissant une ou plusieurs image(s) 2D, et un sujet représenté dans cette ou ces image(s) 2D. More precisely, the invention relates to a method for estimating, by a computing machine, a distance between a camera, comprising a sensor and providing one or more 2D image (s), and a subject represented in this or these 2D image (s).
Les images 2D considérées sont des images numériques comprenant des pixels.The 2D images considered are digital images comprising pixels.
Par appareil de prise de vue, on entend notamment, mais non exclusivement, un appareil photographique (fournissant des images 2D) ou une caméra vidéo (fournissant une vidéo comprenant une séquence d’images 2D). By shooting device is meant in particular, but not exclusively, a photographic device (providing 2D images) or a video camera (providing a video comprising a sequence of 2D images).
Par sujet, on entend notamment, mais non exclusivement, un visage ou un objet.By subject is meant in particular, but not exclusively, a face or an object.
La mesure d’une telle distance (entre l’appareil de prise de vue et le sujet) n’est pas une problématique nouvelle et est impliquée dans un grand nombre de domaines techniques. On peut par exemple évoquer l’intérêt de la mesure de distance entre un conducteur et son volant, afin d’adapter le moment du déploiement de l’airbag en cas d’accident. Measuring such a distance (between the camera and the subject) is not a new problem and is involved in a large number of technical fields. We can, for example, mention the advantage of measuring the distance between a driver and his steering wheel, in order to adapt the moment of deployment of the airbag in the event of an accident.
2. ARRIÈRE-PLAN TECHNOLOGIQUE 2. TECHNOLOGICAL BACKGROUND
La distance D entre un appareil de prise de vue et un sujet peut être estimée facilement et avec une bonne précision en utilisant l’équation (formule géométrique) suivante : D = (wm * fw) / (wp * sw), avec : The distance D between a camera and a subject can be estimated easily and with good precision using the following equation (geometric formula): D = (w m * f w ) / (w p * s w ) , with :
• I une longueur focale de l’appareil de prise de vue ; • I a focal length of the camera;
• wm une dimension linéaire réelle du sujet, ayant un type de dimension linéaire (typiquement, largeur ou longueur) ; • w m a real linear dimension of the subject, having a type of linear dimension (typically, width or length);
• Sw une dimension linéaire réelle du capteur, selon le type de dimension linéaire ; • S w a real linear dimension of the sensor, depending on the type of linear dimension;
• wp une dimension linéaire apparente, en pixel, du sujet dans l’image, selon le type de dimension linéaire ; et • w p an apparent linear dimension, in pixels, of the subject in the image, according to the type of linear dimension; and
• fw une dimension linéaire apparente, en pixel, de l’image, selon le type donné de dimension linéaire. Dans une première implémentation particulière : wm est la largeur réelle en mètre du sujet, sw est la largeur réelle en mètre du capteur, wp est la largeur apparente en pixel du sujet dans l’image et fw est la largeur apparente en pixel de l’image (aussi appelée résolution horizontale en pixel de la caméra). • f w an apparent linear dimension, in pixels, of the image, according to the given type of linear dimension. In a first particular implementation: w m is the real width in meters of the subject, s w is the real width in meters of the sensor, w p is the apparent width in pixels of the subject in the image and f w is the apparent width in image pixel (also called the camera's horizontal pixel resolution).
Dans une deuxième implémentation particulière : wm est la hauteur réelle en mètre du sujet, sw est la hauteur réelle en mètre du capteur, wp est la hauteur apparente en pixel du sujet dans l’image et fw est la hauteur apparente en pixel de l’image (aussi appelée résolution verticale en pixel de la caméra). In a second particular implementation: w m is the real height in meters of the subject, s w is the real height in meters of the sensor, w p is the apparent height in pixels of the subject in the image and f w is the apparent height in image pixel (also called the camera's vertical pixel resolution).
Les paramètres I, sw et fw sont des paramètres intrinsèques de l’appareil de prise de vue. On considère dans la suite de la description qu’ils sont connus. The parameters I, s w and f w are intrinsic parameters of the camera. It is considered in the remainder of the description that they are known.
Le paramètre wm est un paramètre du sujet qui est également considéré comme connu dans la suite de la description. The parameter w m is a parameter of the subject which is also considered to be known in the remainder of the description.
L’utilisation de l’équation précitée nécessite également la connaissance du paramètre wp, c'est-à-dire la taille du sujet dans au moins une dimension (largeur ou hauteur) en pixels sur l’image fournie par l’appareil de prise de vue. The use of the aforementioned equation also requires knowledge of the parameter w p , that is to say the size of the subject in at least one dimension (width or height) in pixels on the image supplied by the camera. shooting.
Une solution connue (état de l’art actuel) pour l’estimation du paramètre wp, c'est- à-dire pour la mesure de dimension d’un sujet (visage ou objet) sur une image, passe par l’utilisation d’un réseau de neurones. A l’issue de la détection du sujet, une « régression de boîte » va ajuster les bords d’un rectangle imaginaire afin qu’ils soient au plus proche du sujet. Les valeurs des dimensions de ce rectangle imaginaire donnent alors une mesure des dimensions du sujet, exprimée en pixel. A known solution (current state of the art) for estimating the parameter w p , that is to say for measuring the dimension of a subject (face or object) on an image, involves the use of a neural network. At the end of the detection of the subject, a “box regression” will adjust the edges of an imaginary rectangle so that they are as close as possible to the subject. The values of the dimensions of this imaginary rectangle then give a measure of the dimensions of the subject, expressed in pixels.
Un inconvénient de la solution connue est que l’utilisation d’un réseau de neurones nécessite un apprentissage préalable de celui-ci avec une base de données suffisamment remplie comportant différentes images du même type de sujet et des rectangles précisément ajustés. A drawback of the known solution is that the use of a neural network requires prior learning of it with a sufficiently full database comprising different images of the same type of subject and precisely adjusted rectangles.
Un autre inconvénient de la solution connue est qu’un réseau de neurones nécessite des ressources importantes pour produire des résultats dans un temps contenu. Elle est donc difficilement intégrable dans un système embarqué, ce qui réduit son champ d’applications possibles. 3. OBJECTIFS Another drawback of the known solution is that a neural network requires significant resources to produce results in a contained time. It is therefore difficult to integrate into an on-board system, which reduces its field of possible applications. 3. OBJECTIVES
L’invention, dans au moins un mode de réalisation, a notamment pour objectif de pallier ces différents inconvénients de l’état de la technique. The invention, in at least one embodiment, aims in particular to overcome these various drawbacks of the state of the art.
Plus précisément, dans au moins un mode de réalisation de l’invention, un objectif est de fournir une solution de mesure d’une distance entre un appareil de prise de vue et un sujet, qui ne nécessite pas d’apprentissage préalable. More specifically, in at least one embodiment of the invention, an objective is to provide a solution for measuring a distance between a camera and a subject, which does not require prior learning.
Un autre objectif d’au moins un mode de réalisation de l’invention est de fournir une telle solution qui utilise peu de ressources et soit facilement intégrable dans un système embarqué. Another objective of at least one embodiment of the invention is to provide such a solution which uses few resources and is easily integrated into an on-board system.
Un autre objectif d’au moins un mode de réalisation de l’invention est de fournir une telle solution qui soit simple à mettre en œuvre et peu coûteuse. Another objective of at least one embodiment of the invention is to provide such a solution which is simple to implement and inexpensive.
4. RÉSUMÉ 4. SUMMARY
Dans un mode de réalisation particulier de l’invention, il est proposé un procédé d’estimation, par une machine de calcul, d’une distance D entre un appareil de prise de vue, comprenant un capteur et fournissant au moins une image 2D, et un sujet représenté dans ladite au moins une image 2D, ledit procédé comprenant un calcul selon l’équation suivante : D = (wm * f ) / (wp * sw), avec : In a particular embodiment of the invention, there is proposed a method for estimating, by a computing machine, a distance D between a camera, comprising a sensor and providing at least one 2D image, and a subject represented in said at least one 2D image, said method comprising a calculation according to the following equation: D = (w m * f) / (w p * s w ), with:
- I une longueur focale de l’appareil de prise de vue ; - I a focal length of the camera;
- wm une dimension linéaire réelle du sujet, ayant un type de dimension linéaire ; - w m a real linear dimension of the subject, having a linear dimension type;
- Sw une dimension linéaire réelle du capteur, selon le type de dimension linéaire ;- S w a real linear dimension of the sensor, depending on the type of linear dimension;
- wp une dimension linéaire apparente, en pixel, du sujet dans ladite au moins une image, selon le type de dimension linéaire ; et - w p an apparent linear dimension, in pixels, of the subject in said at least one image, according to the type of linear dimension; and
- fw une dimension linéaire apparente, en pixel, de ladite au moins une image, selon le type donné de dimension linéaire. - f w an apparent linear dimension, in pixels, of said at least one image, according to the given type of linear dimension.
Le procédé comprend une estimation du paramètre wp comprenant : The method comprises an estimation of the parameter w p comprising:
- a) application à ladite au moins une image d’au moins un filtre d’extraction de contours, pour obtenir au moins une image traitée ; - a) application to said at least one image of at least one contour extraction filter, to obtain at least one processed image;
- b) division de ladite au moins une image traitée en une pluralité de bandes de même largeur et orientées perpendiculairement à un axe selon lequel est mesuré le type de dimension linéaire, la pluralité de bandes comprenant une bande centrale et des premier et deuxième lots de bandes situés respectivement d’un premier et d’un deuxième côté de la bande centrale ; - b) dividing said at least one processed image into a plurality of bands of the same width and oriented perpendicular to an axis along which the type of linear dimension is measured, the plurality of bands comprising a central band and first and second batches of strips located respectively on a first and a second side of the central strip;
- c) calcul d’une intensité pour chacune des bandes ; - c) calculation of an intensity for each of the bands;
- d) sélection, parmi chacun des premier et deuxième lots de bandes, d’une bande dont l’intensité est la plus élevée ; et - d) selecting, from each of the first and second batches of bands, a band of the highest intensity; and
- e) calcul d’une distance d en pixel entre les deux bandes sélectionnées, constituant une première estimation du paramètre wp. - e) calculation of a distance d in pixels between the two selected bands, constituting a first estimate of the parameter w p .
Ainsi, la solution proposée propose une approche tout à fait nouvelle et inventive pour estimer le paramètre wp (dimension linéaire apparente du sujet en pixel), consistant à appliquer à l’image au moins un filtre d’extraction de contours, à diviser l’image résultante en une pluralité de bandes, à sélectionner deux de ces bandes et à calculer une distance d en pixel entre ces deux bandes sélectionnées (constituant une première estimation du paramètre wp). La solution proposée ne nécessite donc pas l’utilisation d’un réseau de neurones, ni a fortiori d’apprentissage préalable. En outre, elle utilise peu de ressources et est donc facilement intégrable dans un système embarqué. En résumé, elle est simple à mettre en œuvre et peu coûteuse. Thus, the proposed solution proposes a completely new and inventive approach for estimating the parameter w p (apparent linear dimension of the subject in pixels), consisting in applying to the image at least one contour extraction filter, in dividing l 'image resulting in a plurality of bands, in selecting two of these bands and in calculating a distance d in pixels between these two selected bands (constituting a first estimate of the parameter w p ). The proposed solution therefore does not require the use of a neural network, nor a fortiori prior learning. In addition, it uses few resources and is therefore easily integrated into an on-board system. In short, it is simple to implement and inexpensive.
Dans une première implémentation particulière, le type de dimension linéaire est une largeur et les bandes sont verticales. In a first particular implementation, the type of linear dimension is width and the bands are vertical.
En d’autres termes, dans cette première implémentation particulière : wm est la largeur réelle en mètre du sujet, sw est la largeur réelle en mètre du capteur, wp est la largeur apparente en pixel du sujet dans l’image et fw est la largeur apparente en pixel de l’image (aussi appelée résolution horizontale en pixel de la caméra). In other words, in this first particular implementation: w m is the real width in meters of the subject, s w is the real width in meters of the sensor, w p is the apparent width in pixels of the subject in the image and f w is the apparent width in pixels of the image (also called the horizontal resolution in pixels of the camera).
Dans une deuxième implémentation particulière, le type de dimension linéaire est une hauteur et les bandes sont horizontales. In a second particular implementation, the linear dimension type is height and the bands are horizontal.
En d’autres termes, dans cette deuxième implémentation particulière : wm est la hauteur réelle en mètre du sujet, sw est la hauteur réelle en mètre du capteur, wp est la hauteur apparente en pixel du sujet dans l’image et fw est la hauteur apparente en pixel de l’image (aussi appelée résolution verticale en pixel de la caméra). In other words, in this second particular implementation: w m is the real height in meters of the subject, s w is the real height in meters of the sensor, w p is the apparent height in pixels of the subject in the image and f w is the apparent height in pixels of the image (also called the vertical resolution in pixels of the camera).
Selon une caractéristique particulière, chacune des bandes est composée d’une pluralité de lignes de pixels s’étendant parallèlement audit axe, et l’étape c) de calcul d’une intensité pour chacune des bandes comprend : - pour chaque ligne de chaque bande, calcul d’une somme des valeurs des pixels de ladite ligne et conservation de la somme seulement si elle est supérieure ou égale à un seuil prédéterminé ; et According to one particular characteristic, each of the bands is composed of a plurality of rows of pixels extending parallel to said axis, and step c) of calculating an intensity for each of the bands comprises: for each row of each band, calculating a sum of the values of the pixels of said row and keeping the sum only if it is greater than or equal to a predetermined threshold; and
- calcul de l’intensité de chacune des bandes en additionnant les sommes conservées des lignes de ladite bande. - calculation of the intensity of each of the bands by adding the sums kept of the lines of said band.
Ainsi, on effectue une accumulation et un seuillage par bandes. Ceci permet d’appliquer une certaine tolérance à l’inclinaison du sujet (visage par exemple). Cette tolérance est paramétrable via la largeur des bandes. Plus celles-ci sont larges et plus l’algorithme est tolérant. A l’inverse, plus les bandes sont fines et plus l’algorithme est précis. Il y a donc un compromis à faire lors de la sélection de la largeur de bande. Thus, an accumulation and a thresholding by bands are carried out. This allows a certain tolerance to be applied to the tilt of the subject (face for example). This tolerance can be configured via the width of the bands. The larger these are, the more tolerant the algorithm is. Conversely, the thinner the bands, the more precise the algorithm. So there is a tradeoff to be made when selecting the bandwidth.
Selon une caractéristique particulière, l’appareil de prise de vue fournit une séquence d’images 2D successives. Pour chacune des images 2D, le procédé comprend une itération courante des étapes a) à e) et de l’étape f) suivante, exécutée après l’étape e) : calcul d’une distance d moyenne résultant d’une moyenne des distances d calculées dans l’itération courante et dans un nombre déterminé d’itérations précédentes de l’étape e). La distance d moyenne calculée dans l’itération courante de l’étape f) constitue une deuxième estimation du paramètre wp. According to one particular characteristic, the camera provides a sequence of successive 2D images. For each of the 2D images, the method comprises a current iteration of steps a) to e) and of the following step f), executed after step e): calculation of an average distance d resulting from an average of the distances d calculated in the current iteration and in a determined number of previous iterations of step e). The mean distance d calculated in the current iteration of step f) constitutes a second estimate of the parameter w p .
Ainsi, le moyennage des distances d calculées agit comme un filtre passe-bas qui lisse la sortie pour ne pas prendre en compte d’éventuelles valeurs aberrantes dues au bruit. Ce moyennage contribue à éliminer le bruit engendré par l’arrière-plan de l’image et les éléments du sujet (dans le cas d’un visage : yeux, nez, bouche, etc.). Thus, the averaging of the calculated distances d acts as a low-pass filter which smooths the output so as not to take into account any outliers due to noise. This averaging helps to eliminate the noise generated by the background of the image and the elements of the subject (in the case of a face: eyes, nose, mouth, etc.).
Selon une caractéristique particulière, l’appareil de prise de vue fournit une séquence d’images 2D successives. Pour chacune des images 2D, le procédé comprend une itération courante des étapes a) à e) ou f) et de l’étape a’) suivante, exécutée entre les étapes a) et b) : calcul d’une image filtrée en multipliant l’image traitée, résultant de l’exécution de l’étape a), par un masque de probabilités. L’étape b) est effectuée avec l’image filtrée résultant de l’exécution de l’étape a’). According to one particular characteristic, the camera provides a sequence of successive 2D images. For each of the 2D images, the method comprises a current iteration of steps a) to e) or f) and of the following step a '), executed between steps a) and b): calculation of a filtered image by multiplying the processed image, resulting from the execution of step a), by a probability mask. Step b) is performed with the filtered image resulting from performing step a ’).
Ainsi, l’application d’un masque de probabilités contribue également à éliminer le bruit engendré par l’arrière-plan de l’image et les éléments du sujet. Thus, applying a probability mask also helps to eliminate noise generated by the background of the image and elements of the subject.
Selon une caractéristique particulière, le masque de probabilités est une matrice de même taille que l’image traitée, chaque ligne du masque de probabilités, si les bandes sont verticales, ou chaque colonne du masque de probabilités, si les bandes sont horizontales, contenant des coefficients dont les valeurs sont données, hormis pour la première itération de l’étape a’), par une fonction de probabilité de type double gaussienne, présentant deux pics centrés : According to one particular characteristic, the probability mask is a matrix of the same size as the processed image, each row of the probability mask, if the bands are vertical, or each column of the probability mask, if the bands are horizontal, containing coefficients whose values are given, except for the first iteration of step a '), by a double Gaussian-type probability function, presenting two centered peaks:
- sur les positions des deux bandes sélectionnées dans l’itération précédente de l’étape d) ; ou - on the positions of the two bands selected in the previous iteration of step d); Where
- sur des positions moyennes calculées à partir des positions des deux bandes sélectionnées dans un nombre déterminé d’itérations précédentes de l’étape d). - on average positions calculated from the positions of the two bands selected in a determined number of previous iterations of step d).
De cette façon, le masque de probabilités est adaptatif et permet d’améliorer la qualité de l’estimation de la distance D entre l’appareil de prise de vue et le sujet. In this way, the probability mask is adaptive and improves the quality of the estimate of the distance D between the camera and the subject.
Selon une caractéristique particulière, un masque de probabilités par défaut est utilisé pour la première itération de l’étape a’). According to a particular characteristic, a default probability mask is used for the first iteration of step a ’).
De cette façon, on évite une mauvaise initialisation et on réduit le nombre d’itérations nécessaire pour obtenir une bonne estimation de la distance D entre l’appareil de prise de vue et le sujet. In this way, bad initialization is avoided and the number of iterations necessary to obtain a good estimate of the distance D between the camera and the subject is reduced.
Dans une application particulière, le sujet est un visage ou un objet. In a particular application, the subject is a face or an object.
D’autres sujets, correspondant à d’autres applications de la solution proposée, sont envisageables sans sortir du cadre de la présente invention. Other subjects, corresponding to other applications of the proposed solution, can be envisaged without departing from the scope of the present invention.
Dans un autre mode de réalisation de l'invention, il est proposé un produit programme d'ordinateur comprenant des instructions de code de programme qui, quand elles sont exécutées par une machine de calcul, provoquent la réalisation par la machine de calcul du procédé précité (dans l’un quelconque de ses différents modes de réalisation). In another embodiment of the invention, there is provided a computer program product comprising program code instructions which, when they are executed by a computing machine, cause the computing machine to perform the aforementioned method. (in any of its various embodiments).
Dans un autre mode de réalisation de l'invention, il est proposé un médium de stockage lisible par ordinateur et non transitoire, stockant le produit programme d’ordinateur précité. In another embodiment of the invention, there is provided a non-transient, computer readable storage medium storing the aforementioned computer program product.
Dans un autre mode de réalisation de l'invention, il est proposé une machine de calcul configurée pour réaliser le procédé précité (dans l’un quelconque de ses différents modes de réalisation). 5. LISTE DES FIGURES In another embodiment of the invention, there is provided a computing machine configured to perform the aforementioned method (in any one of its various embodiments). 5. LIST OF FIGURES
D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description suivante, donnée à titre d’exemple indicatif et non limitatif, et des dessins annexés, dans lesquels : Other characteristics and advantages of the invention will become apparent on reading the following description, given by way of indicative and non-limiting example, and the accompanying drawings, in which:
[Fig. 1] présente un organigramme simplifié du procédé selon l’invention ; [Fig. 1] shows a simplified flowchart of the method according to the invention;
[Fig. 2] illustre un mode de réalisation particulier de l’étape 20 de la figure 1 ; [Fig. 3] illustre la génération du masque de probabilités, effectuée dans l’étape 22 de la figure 2 ; [Fig. 2] illustrates a particular embodiment of step 20 of Figure 1; [Fig. 3] illustrates the generation of the probability mask, performed in step 22 of Figure 2;
[Fig. 4] illustre un mode de réalisation particulier de l’étape 21 de la figure 2 ;[Fig. 4] illustrates a particular embodiment of step 21 of Figure 2;
[Fig. 5] illustre un mode de réalisation particulier de l’étape 22 de la figure 2 ;[Fig. 5] illustrates a particular embodiment of step 22 of Figure 2;
[Fig. 6] illustre un mode de réalisation particulier de l’étape 23 de la figure 2 ;[Fig. 6] illustrates a particular embodiment of step 23 of Figure 2;
[Fig. 7] illustre un mode de réalisation particulier de l’étape 24 de la figure 2 ;[Fig. 7] illustrates a particular embodiment of step 24 of Figure 2;
[Fig. 8] illustre un mode de réalisation particulier de l’étape 80 de la figure 1 ; et[Fig. 8] illustrates a particular embodiment of step 80 of Figure 1; and
[Fig. 9] présente la structure d'une machine de calcul, selon un mode de réalisation particulier, configurée pour réaliser le procédé de l'invention. [Fig. 9] presents the structure of a computing machine, according to a particular embodiment, configured to carry out the method of the invention.
6. DESCRIPTION DÉTAILLÉE 6. DETAILED DESCRIPTION
Sur toutes les figures du présent document, les éléments et étapes identiques sont désignés par une même référence numérique. In all the figures of this document, identical elements and steps are designated by the same numerical reference.
On présente maintenant, en relation avec l’organigramme de la figure 1. le procédé selon l’invention d’estimation, par une machine de calcul, d’une distance D entre un appareil de prise de vue, comprenant un capteur et fournissant au moins une image 2D, et un sujet représenté dans la au moins une image 2D. We now present, in relation to the flowchart of FIG. 1, the method according to the invention for estimating, by a computing machine, a distance D between a camera, comprising a sensor and supplying the minus one 2D image, and a subject represented in the at least one 2D image.
Le procédé (bloc référencé 1 et avec l’acronyme MDR pour « Mesure de Distance Rapide ») comprend : The process (block referenced 1 and with the acronym MDR for "Rapid Distance Measurement") includes:
• une étape 20 d’estimation du paramètre wp, en fonction de la au moins une image 2D ; et • a step 20 of estimating the parameter w p , as a function of the at least one 2D image; and
• une étape 80 de calcul de la distance D en fonction du paramètre wp (estimé à l’étape 20) et des paramètres (supposés connus) I, wm, f et sw, selon l’équation (illustrée sur la figure 8) : D = I * (wm * f ) / (wp * sw), d’où l’acronyme de l’étape 80 sur les figures 1 et 8 : EDFG pour « Estimation de Distance par Formule Géométrique ». Comme déjà expliqué plus haut (en relation avec l’art antérieur), les paramètres de l’équation précitée sont définis, de manière générique, comme suit : • a step 80 of calculating the distance D as a function of the parameter w p (estimated at step 20) and of the parameters (assumed to be known) I, w m , f and s w , according to the equation (illustrated in FIG. 8): D = I * (w m * f) / (w p * s w ), hence the acronym of step 80 in figures 1 and 8: EDFG for “Estimation of Distance by Geometric Formula” . As already explained above (in relation to the prior art), the parameters of the aforementioned equation are defined, generically, as follows:
• I une longueur focale de l’appareil de prise de vue ; • I a focal length of the camera;
• wm une dimension linéaire réelle du sujet, ayant un type de dimension linéaire (typiquement, largeur ou longueur) ; • w m a real linear dimension of the subject, having a type of linear dimension (typically, width or length);
• sw une dimension linéaire réelle du capteur, selon le type de dimension linéaire ; • s w an actual linear dimension of the sensor, depending on the type of linear dimension;
• wp une dimension linéaire apparente, en pixel, du sujet dans l’image, selon le type de dimension linéaire ; et • w p an apparent linear dimension, in pixels, of the subject in the image, according to the type of linear dimension; and
• fw une dimension linéaire apparente, en pixel, de l’image, selon le type donné de dimension linéaire. • f w an apparent linear dimension, in pixels, of the image, according to the given type of linear dimension.
Dans la suite de la description, on se place dans la première implémentation particulière (également déjà expliquée plus haut) et on considère que : wm est la largeur réelle en mètre du sujet, sw est la largeur réelle en mètre du capteur, wp est la largeur apparente en pixel du sujet dans l’image (d’où l’acronyme de l’étape 20 sur les figures 1 et 2 : AMLI pour « Algorithme de Mesure de Largeur Imaginaire ») et fw est la largeur apparente en pixel de l’image (aussi appelée résolution horizontale en pixel de la caméra). Les paramètres I, sw et fw sont des paramètres intrinsèques de l’appareil de prise de vue et on considère dans la suite de la description qu’ils sont connus. In the remainder of the description, we go to the first particular implementation (also already explained above) and we consider that: w m is the real width in meters of the subject, s w is the real width in meters of the sensor, w p is the apparent width in pixels of the subject in the image (hence the acronym of step 20 in Figures 1 and 2: AMLI for "Imaginary Width Measurement Algorithm") and f w is the apparent width in pixel of the image (also called horizontal resolution in pixel of the camera). The parameters I, s w and f w are intrinsic parameters of the camera and it is considered in the remainder of the description that they are known.
Le paramètre wm est un paramètre du sujet qui est également considéré comme connu dans la suite de la description. The parameter w m is a parameter of the subject which is also considered to be known in the remainder of the description.
Dans la suite de la description, on considère également, à titre d’exemple illustratif, que le sujet est un visage. En d’autres termes, on considère que le paramètre wp est la largeur apparente (en pixel) du visage dans l’image. In the remainder of the description, it is also considered, by way of illustrative example, that the subject is a face. In other words, we consider that the parameter w p is the apparent width (in pixels) of the face in the image.
Dans ce cas, pour le paramètre wm, on peut prendre une valeur moyenne de largeur de visage absolue en mètres d’un visage humain. Sur la page Wikipédia dédiée aux proportions moyenne d’un visage humainIn this case, for the parameter w m , it is possible to take an average value of absolute face width in meters of a human face. On the Wikipedia page dedicated to the average proportions of a human face
(https://en.wikipedia.org/wiki/Human_head), la distance moyenne d’un bord à l’autre d’un visage entre les hommes et les femmes est de 13,9 cm. (https://en.wikipedia.org/wiki/Human_head), the average edge-to-edge distance of a face between males and females is 13.9 cm.
On rappelle que la présente invention n’est pas limitée à cette première implémentation et s’applique également (notamment mais non exclusivement) dans la deuxième implémentation particulière (aussi déjà expliquée plus haut) dans laquelle : wm est la hauteur réelle en mètre du sujet, sw est la hauteur réelle en mètre du capteur, wp est la hauteur apparente en pixel du sujet dans l’image et fw est la hauteur apparente en pixel de l’image (aussi appelée résolution verticale en pixel de la caméra). It is recalled that the present invention is not limited to this first implementation and also applies (in particular but not exclusively) in the second particular implementation (also already explained above) in which: w m is the real height in meters of the subject, s w is the real height in meters of the sensor, w p is the apparent height in pixels of the subject in the image and f w is the apparent height in pixels of the image (also called the vertical resolution in pixels of the camera).
La présente invention n’est pas non plus limitée au cas où le sujet est un visage. Dans des variantes, le sujet est par exemple un objet. The present invention is also not limited to the case where the subject is a face. In variants, the subject is for example an object.
La figure 2 illustre un mode de réalisation particulier de l’étape 20 de la figure 1. Dans ce mode de réalisation particulier de l’étape 20, le paramètre wp (largeur apparente en pixel du visage dans l’image) est estimé en fonction d’une séquence d’images 2D successives (séquence référencée 10). Il s’agit par exemple d’une vidéo fournie par une caméra vidéo. FIG. 2 illustrates a particular embodiment of step 20 of FIG. 1. In this particular embodiment of step 20, the parameter w p (apparent width in pixels of the face in the image) is estimated in function of a sequence of successive 2D images (sequence referenced 10). This is for example a video provided by a video camera.
L’étape 20 comprend elle-même, pour une image donnée (appelée ci-après « image courante »), une itération (appelée ci-après « itération courante ») des étapes suivantes : Step 20 itself comprises, for a given image (hereinafter called "current image"), an iteration (hereinafter called "current iteration") of the following steps:
• une étape 21 d’extraction de contours, par application à l’image courante d’au moins un filtre d’extraction de contours, pour obtenir une image traitée ; • a contour extraction step 21, by applying to the current image at least one contour extraction filter, to obtain a processed image;
• une étape 22 de calcul d’un masque de probabilités et d’application de celui-ci (par multiplication) à l’image traitée (résultant de l’exécution de l’étape 21), pour obtenir une image filtrée ; • a step 22 of calculating a probability mask and of applying it (by multiplication) to the processed image (resulting from the execution of step 21), to obtain a filtered image;
• une étape 23 d’application à l’image filtrée (résultant de l’exécution de l’étape 22) d’un « algorithme des bandes », permettant de calculer une distance d en pixel entre deux bandes sélectionnées (voir description détaillée ci-après), cette distance d constituant une première estimation du paramètre wp ; et • a step 23 of applying to the filtered image (resulting from the execution of step 22) a “band algorithm”, making it possible to calculate a distance d in pixels between two selected bands (see detailed description below -after), this distance d constituting a first estimate of the parameter w p ; and
• une étape 24 de calcul d’une distance d moyenne résultant d’une moyenne des distances d (c'est-à-dire des premières estimations du paramètre wp) calculées d’une part dans l’itération courante de l’étape 23 et d’autre part dans un nombre déterminé d’itérations précédentes de l’étape 23 ; la distance d moyenne calculée dans l’itération courante de l’étape 24 constitue une deuxième estimation du paramètre wp, qui est fournie en entrée de l’étape 80 de calcul de la distance D. Comme illustré sur la figure 4, dans un mode de réalisation particulier l’étape 21 d’extraction de contours consiste à appliquer un ou plusieurs filtres d’extraction de contours (extraction de contours verticaux ou horizontaux, selon que le paramètre wp est la largeur ou la hauteur apparente en pixel du sujet dans l’image) - par exemple un ou plusieurs filtres de Sobel - sur une image source 41 (l’image résultante est référencée 42), puis à appliquer un seuillage binaire pour binariser l’image et ne conserver que les contours les plus saillants (en appliquant une valeur absolue à la sortie, on peut extraire les fronts montants et les fronts descendants des contours verticaux d’un objet). L’image traitée obtenue à l’issue de l’étape 21 est référencée 43. • a step 24 of calculating an average distance d resulting from an average of the distances d (that is to say of the first estimates of the parameter w p ) calculated on the one hand in the current iteration of the step 23 and on the other hand in a determined number of previous iterations of step 23; the average distance d calculated in the current iteration of step 24 constitutes a second estimate of the parameter w p , which is supplied as an input to step 80 for calculating the distance D. As illustrated in FIG. 4, in a particular embodiment the step 21 of extracting contours consists in applying one or more extraction filters of contours (extraction of vertical or horizontal contours, depending on whether the parameter w p is the apparent width or height in pixels of the subject in the image) - for example one or more Sobel filters - on a source image 41 (the image resultant is referenced 42), then applying a binary thresholding to binarize the image and keep only the most salient contours (by applying an absolute value to the output, one can extract the rising edges and the falling edges of the vertical contours d 'an object). The processed image obtained at the end of step 21 is referenced 43.
Comme illustré sur la figure 5, dans un mode de réalisation particulier, l’étape 22 comprend une pondération des contours contenus dans l’image traitée 43 (résultant de l’étape 21) avec un masque de probabilités 50 (obtenu comme détaillé ci-après), afin de filtrer les contours non désirés et conserver les bords du visage. L’image filtrée obtenue à l’issue de l’étape 22 est référencée 51. As illustrated in FIG. 5, in a particular embodiment, step 22 comprises a weighting of the contours contained in the processed image 43 (resulting from step 21) with a probability mask 50 (obtained as detailed below. after), in order to filter out unwanted contours and preserve the edges of the face. The filtered image obtained at the end of step 22 is referenced 51.
Dans une implémentation particulière, le masque de probabilités 50 est une matrice de même taille que l’image traitée 43. Chaque ligne du masque de probabilités contient des coefficients dont les valeurs sont données, hormis pour la première itération de l’étape 22 (dans laquelle un masque de probabilités par défaut est utilisé), par une fonction de probabilité de type double gaussienne (référencée 52 sur la figure 5), présentant deux pics centrés sur des positions moyennes calculées à partir des positions des deux bandes sélectionnées dans un nombre déterminé d’itérations précédentes de l’étape 23. In a particular implementation, the probability mask 50 is a matrix of the same size as the processed image 43. Each row of the probability mask contains coefficients whose values are given, except for the first iteration of step 22 (in which a default probability mask is used), by a double Gaussian type probability function (referenced 52 in Figure 5), having two peaks centered on average positions calculated from the positions of the two bands selected in a determined number previous iterations of step 23.
La figure 3 schématise les deux premières itérations du procédé 20 de la figure 2 : la première itération est effectuée avec en entrée la première image de la séquence (référencée « Image 0 ») et la deuxième itération est effectuée avec en entrée la deuxième image de la séquence (référencée « Image 1 »). On voit que lors de la première itération, l’étape 24 fournit une estimation du paramètre wp ainsi que des informations 30 qui sont utilisées en entrée de l’étape 22 lors de la deuxième itération. Les informations 30 sont utilisées pour calculer (à l’étape 22 lors de la deuxième itération) le masque de probabilités qui est appliqué à la deuxième image (« Image 1 ») après qu’elle a été traitée à l’étape 21 (de la deuxième itération). FIG. 3 shows schematically the first two iterations of the method 20 of FIG. 2: the first iteration is carried out with as input the first image of the sequence (referenced "Image 0") and the second iteration is carried out with the second image of the sequence (referenced "Image 1"). It can be seen that during the first iteration, step 24 provides an estimate of the parameter w p as well as information 30 which is used as input to step 22 during the second iteration. The information 30 is used to calculate (in step 22 during the second iteration) the probability mask which is applied to the second image ("Image 1") after it has been processed in step 21 (from the second iteration).
Dans une implémentation particulière, les informations 30 comprennent : • une première information sur le positionnement relatif (c'est-à-dire la distance entre eux) des deux pics de la fonction de probabilité de type double gaussienne : cette première information est l’estimation du paramètre wp (distance d moyenne) ; et In a particular implementation, the information includes: • a first information on the relative positioning (that is to say the distance between them) of the two peaks of the double Gaussian type probability function: this first information is the estimate of the parameter w p (mean distance d) ; and
• une deuxième information sur le positionnement absolu des deux pics sur chaque ligne du masque de probabilités : cette deuxième information correspond aux positions des deux bandes sélectionnées à l’étape 23 et elle est par exemple fournie sous la forme de la position P du centre des deux bandes sélectionnées à l’étape 23 (pour définir la position du centre de symétrie de la fonction de masquage, c'est-à-dire la position du point de symétrie entre les deux pics). Dans une variante, on suppose que le sujet (visage) est sensiblement centré sur la largeur de l’image source 41 (avec un bord du visage à la droite de l’image et l’autre bord à la gauche de l’image). Dans cette variante, une seule information 30 est transmise, à savoir la première information précitée (c'est-à-dire l’estimation du paramètre wp). En effet, il découle de l’hypothèse précitée que la position P du centre des deux bandes sélectionnées à l’étape 23 est sensiblement située au milieu de la largeur de l’image ; donc la deuxième information n’est pas nécessaire. • a second item of information on the absolute positioning of the two peaks on each row of the probability mask: this second item of information corresponds to the positions of the two bands selected in step 23 and it is for example supplied in the form of the position P of the center of the two bands selected in step 23 (to define the position of the center of symmetry of the masking function, that is to say the position of the point of symmetry between the two peaks). In a variant, it is assumed that the subject (face) is substantially centered over the width of the source image 41 (with one edge of the face to the right of the image and the other edge to the left of the image) . In this variant, only one item of information 30 is transmitted, namely the first aforementioned item of information (that is to say the estimate of the parameter w p ). Indeed, it follows from the aforementioned assumption that the position P of the center of the two bands selected in step 23 is substantially located in the middle of the width of the image; therefore the second information is not necessary.
Comme illustré sur la figure 6. dans un mode de réalisation particulier, l’étape 23 consiste à appliquer un « algorithme des bandes » à l’image filtrée 51 obtenue à l’issue de l’étape 22. Cet « algorithme des bandes » comprend par exemple lui-même les sous étapes suivantes : As illustrated in FIG. 6. In a particular embodiment, step 23 consists in applying a “band algorithm” to the filtered image 51 obtained at the end of step 22. This “band algorithm” for example itself includes the following substeps:
• division de l’image filtrée 51 en une pluralité de bandes verticales (dans le présent exemple où le paramètre wp est la largeur apparente en pixel du sujet dans l’image ; ou bien de bandes horizontales dans la variante où le paramètre wp est la hauteur apparente en pixel du sujet dans l’image) de même largeur, comprenant une bande centrale et des premier et deuxième lots de bandes situés respectivement d’un premier et d’un deuxième côté de la bande centrale (sur la figure 6, l’élément référencé 63 permet de visualiser les bandes, avec la bande centrale 630 et les premier et deuxième lots de bandes référencés 631 et 632 respectivement) ; • calcul d’une intensité pour chacune des bandes, par accumulation par bandes et seuillage : chacune des bandes est composée d’une pluralité de lignes de pixels (s’étendant horizontalement, c'est-à-dire perpendiculairement à l’axe des bandes et parallèlement à l’axe selon lequel on mesure la largeur du visage), et le calcul d’une intensité pour chacune des bandes comprend : o pour chaque ligne de chaque bande, calcul d’une somme des valeurs des pixels de la ligne et conservation de la somme seulement si elle est supérieure ou égale à un seuil prédéterminé (l’image ainsi obtenue est référencée 61 sur la figure 6) ; et o calcul de l’intensité de chacune des bandes en additionnant les sommes conservées des lignes de la bande ; • division of the filtered image 51 into a plurality of vertical bands (in the present example where the parameter w p is the apparent width in pixels of the subject in the image; or else horizontal bands in the variant where the parameter w p is the apparent height in pixels of the subject in the image) of the same width, comprising a central band and first and second sets of bands located respectively on a first and a second side of the central band (in figure 6 , the element referenced 63 makes it possible to view the bands, with the central band 630 and the first and second batches of bands referenced 631 and 632 respectively); • calculation of an intensity for each of the bands, by accumulation by bands and thresholding: each of the bands is made up of a plurality of rows of pixels (extending horizontally, that is to say perpendicular to the axis of the bands and parallel to the axis along which the width of the face is measured), and the calculation of an intensity for each of the bands includes: o for each line of each band, calculation of a sum of the values of the pixels of the line and keeping the sum only if it is greater than or equal to a predetermined threshold (the image thus obtained is referenced 61 in FIG. 6); and o calculating the intensity of each of the bands by adding the sums kept of the lines of the band;
• sélection, parmi chacun des premier et deuxième lots de bandes, d’une bande dont l’intensité est la plus élevée ; ainsi, dans l’exemple illustré à droite de la figure 6, les deux bandes sélectionnées (dans l’image 61 précitée) sont référencées 62a et 62b ; et • selecting, from each of the first and second batches of bands, a band with the highest intensity; thus, in the example illustrated to the right of FIG. 6, the two selected bands (in the aforementioned image 61) are referenced 62a and 62b; and
• calcul d’une distance d en pixel (référencée 63) entre les deux bandes sélectionnées (62a, 62b), cette distance d constituant la première estimation du paramètre wp. • calculation of a distance d in pixels (referenced 63) between the two selected bands (62a, 62b), this distance d constituting the first estimate of the parameter w p .
Comme illustré sur la figure 7, dans un mode de réalisation particulier, l’étape 24 comprend : As illustrated in Figure 7, in a particular embodiment, step 24 comprises:
• l’ajout de la distance d (aussi référencée 63 et calculée à l’étape 23) dans une première mémoire tampon 70 qui est une pile de type FIFO de taille N, contenant les N distances d calculées lors des N itérations précédentes de l’étape 23 ; suivi d’un calcul (bloc référencé 71 ) de la moyenne des N distances d contenues dans la première mémoire tampon 70 ; et The addition of the distance d (also referenced 63 and calculated in step 23) in a first buffer memory 70 which is a FIFO type stack of size N, containing the N distances d calculated during the N previous iterations of l 'step 23; followed by a calculation (block referenced 71) of the average of the N distances d contained in the first buffer memory 70; and
• l’ajout de la position P du centre des deux bandes sélectionnées (cette position P est également calculée à l’étape 23) dans une deuxième mémoire tampon 70’ qui est une pile de type FIFO de taille N, contenant les N positions P calculées lors des N itérations précédentes de l’étape 23 ; suivi d’un calcul (bloc référencé 71’) de la moyenne des N positions P contenues dans la deuxième mémoire tampon 70’. Les opérations effectuées à l’étape 24 agissent comme un filtre passe-bas qui lissent les sorties (distance d et position P) pour ne pas prendre en compte d’éventuelles valeurs aberrantes dues au bruit. Si N est trop petit, le bruit ne sera pas lissé. A l’inverse, si N est trop grand, l’évolution temporelle de la largeur en sortie (paramètre wp) sera affectée par une latence induite par le filtre. • adding the position P of the center of the two selected bands (this position P is also calculated in step 23) in a second buffer memory 70 'which is a FIFO type stack of size N, containing the N positions P calculated during the previous N iterations of step 23; followed by a calculation (block referenced 71 ') of the average of the N positions P contained in the second buffer memory 70'. The operations performed in step 24 act as a low pass filter which smooths the outputs (distance d and position P) so as not to take into account any outliers due to noise. If N is too small, the noise will not be smoothed. Conversely, if N is too large, the temporal evolution of the output width (parameter w p ) will be affected by a latency induced by the filter.
La distance d moyenne résultant de ce calcul de moyenne constitue la deuxième estimation du paramètre wp, et c’est le résultat de sortie de l’étape 24. La distance d moyenne 71 est donc fournie en entrée de l’étape 80 de calcul de la distance D, comme symbolisé par la flèche référencée 72. Elle est également fournie (comme symbolisé par la flèche référencée 73), avec la position P moyenne (comme symbolisé par la flèche référencée 73’), pour le calcul du masque de probabilités lors de l’itération suivante de l’étape 22 (pour l’image suivante de la séquence). The mean distance d resulting from this averaging constitutes the second estimate of the parameter w p , and it is the output result of step 24. The mean distance d 71 is therefore supplied at the input of calculation step 80. the distance D, as symbolized by the arrow referenced 72. It is also provided (as symbolized by the arrow referenced 73), with the mean position P (as symbolized by the arrow referenced 73 '), for the calculation of the probability mask during the next iteration of step 22 (for the next image in the sequence).
La figure 9 présente un exemple de structure d'une machine de calcul 90 pour réaliser (exécuter) le procédé présenté ci-dessus en relation avec les figures 1 à 8. FIG. 9 presents an example of the structure of a computing machine 90 for carrying out (executing) the method presented above in relation to FIGS. 1 to 8.
Cette structure comprend une mémoire vive 92 (par exemple une mémoire RAM), une mémoire morte 93 (par exemple une mémoire ROM ou un disque dur) et une unité de traitement 91 (équipée par exemple d'un processeur, et pilotée par un programme d'ordinateur 930 stocké dans la mémoire morte 93). A l'initialisation, les instructions de code du programme d'ordinateur 930 sont par exemple chargées dans la mémoire vive 92 avant d'être exécutées par le processeur de l'unité de traitement 91. Le processeur reçoit en entrée la séquence d’images et les paramètres I, wm, f et sw, et génère en sortie une estimation de la distance D. This structure comprises a random access memory 92 (for example a RAM memory), a read only memory 93 (for example a ROM memory or a hard disk) and a processing unit 91 (equipped for example with a processor, and controlled by a program. computer 930 stored in ROM 93). On initialization, the code instructions of the computer program 930 are for example loaded into the random access memory 92 before being executed by the processor of the processing unit 91. The processor receives the sequence of images as input. and the parameters I, w m , f and s w , and outputs an estimate of the distance D.
Cette figure 9 illustre seulement une manière particulière, parmi plusieurs possibles, d’implémenter une machine de calcul pour réaliser (exécuter) le procédé. En effet, la machine de calcul s’implémente indifféremment sous la forme d’une machine de calcul reprogrammable (un ordinateur PC, un processeur DSP ou un microcontrôleur) exécutant un programme comprenant une séquence d’instructions, ou sous la forme d’une machine de calcul dédiée (par exemple un ensemble de portes logiques comme un FPGA ou un ASIC, ou tout autre module matériel). This FIG. 9 illustrates only one particular way, among several possible, of implementing a computing machine to carry out (execute) the method. Indeed, the computing machine can be implemented indifferently in the form of a reprogrammable computing machine (a PC computer, a DSP processor or a microcontroller) executing a program comprising a sequence of instructions, or in the form of a dedicated computing machine (for example a set of logic gates such as an FPGA or an ASIC, or any other hardware module).
Dans le cas d’une implémentation sous la forme d’une machine de calcul reprogrammable, le programme correspondant (c'est-à-dire la séquence d’instructions) pourra être stocké dans un médium de stockage amovible (tel que par exemple une disquette, un CD-ROM ou un DVD-ROM) ou non, ce médium de stockage étant lisible partiellement ou totalement par un ordinateur ou un processeur. In the case of an implementation in the form of a reprogrammable computing machine, the corresponding program (i.e. the sequence of instructions) may or may not be stored in a removable storage medium (such as for example a floppy disk, a CD-ROM or a DVD-ROM), this storage medium being partially or totally readable by a computer or a processor.

Claims

REVENDICATIONS
1) Procédé d’estimation, par une machine de calcul (90), d’une distance D entre un appareil de prise de vue, comprenant un capteur et fournissant au moins une image 2D, et un sujet représenté dans ladite au moins une image 2D, ledit procédé comprenant un calcul (80) selon l’équation suivante : D = I * (wm * fw) / (wp * sw), avec :1) Method for estimating, by a computing machine (90), a distance D between a camera, comprising a sensor and providing at least one 2D image, and a subject represented in said at least one image 2D, said method comprising a calculation (80) according to the following equation: D = I * (w m * f w ) / (w p * s w ), with:
- I une longueur focale de l’appareil de prise de vue ; - I a focal length of the camera;
- wm une dimension linéaire réelle du sujet, ayant un type de dimension linéaire ;- w m a real linear dimension of the subject, having a linear dimension type;
- Sw une dimension linéaire réelle du capteur, selon le type de dimension linéaire ;- S w a real linear dimension of the sensor, depending on the type of linear dimension;
- wp une dimension linéaire apparente, en pixel, du sujet dans ladite au moins une image, selon le type de dimension linéaire ; et - w p an apparent linear dimension, in pixels, of the subject in said at least one image, according to the type of linear dimension; and
- fw une dimension linéaire apparente, en pixel, de ladite au moins une image, selon le type donné de dimension linéaire ; caractérisé en ce qu’il comprend une estimation (20) du paramètre wp comprenant : - f w an apparent linear dimension, in pixels, of said at least one image, according to the given type of linear dimension; characterized in that it comprises an estimate (20) of the parameter w p comprising:
- a) application (21) à ladite au moins une image d’au moins un filtre d’extraction de contours, pour obtenir au moins une image traitée ; - a) application (21) to said at least one image of at least one contour extraction filter, to obtain at least one processed image;
- b) division (23) de ladite au moins une image traitée en une pluralité de bandes de même largeur et orientées perpendiculairement à un axe selon lequel est mesuré le type de dimension linéaire, la pluralité de bandes comprenant une bande centrale et des premier et deuxième lots de bandes situés respectivement d’un premier et d’un deuxième côté de la bande centrale ; - b) division (23) of said at least one processed image into a plurality of bands of the same width and oriented perpendicular to an axis along which the type of linear dimension is measured, the plurality of bands comprising a central band and first and second sets of strips located respectively on a first and a second side of the central strip;
- c) calcul (23) d’une intensité pour chacune des bandes ; - c) calculation (23) of an intensity for each of the bands;
- d) sélection (23), parmi chacun des premier et deuxième lots de bandes, d’une bande dont l’intensité est la plus élevée ; et - d) selecting (23), from each of the first and second batches of bands, a band of the highest intensity; and
- e) calcul (23) d’une distance d en pixel entre les deux bandes sélectionnées, constituant une première estimation du paramètre wp. - e) calculation (23) of a distance d in pixels between the two selected bands, constituting a first estimate of the parameter w p .
2) Procédé selon la revendication 1 , caractérisé en ce que le type de dimension linéaire est une largeur et en ce que les bandes sont verticales. 3) Procédé selon la revendication 1 , caractérisé en ce que le type de dimension linéaire est une hauteur et en ce que les bandes sont horizontales. 2) Method according to claim 1, characterized in that the type of linear dimension is a width and in that the bands are vertical. 3) Method according to claim 1, characterized in that the type of linear dimension is a height and in that the bands are horizontal.
4) Procédé selon l’une quelconque des revendications 1 à 3, caractérisé en ce que chacune des bandes est composée d’une pluralité de lignes de pixels s’étendant parallèlement audit axe, et en ce que l’étape c) de calcul d’une intensité pour chacune des bandes comprend : 4) Method according to any one of claims 1 to 3, characterized in that each of the bands is composed of a plurality of lines of pixels extending parallel to said axis, and in that step c) of calculating d 'an intensity for each of the bands includes:
- pour chaque ligne de chaque bande, calcul d’une somme des valeurs des pixels de ladite ligne et conservation de la somme seulement si elle est supérieure ou égale à un seuil prédéterminé ; et - for each line of each band, calculating a sum of the values of the pixels of said line and keeping the sum only if it is greater than or equal to a predetermined threshold; and
- calcul de l’intensité de chacune des bandes en additionnant les sommes conservées des lignes de ladite bande. - calculation of the intensity of each of the bands by adding the sums kept of the lines of said band.
5) Procédé selon l’une quelconque des revendications 1 à 4, caractérisé en ce que l’appareil de prise de vue fournit une séquence d’images 2D successives, en ce que, pour chacune des images 2D, le procédé comprend une itération courante des étapes a) à e) et de l’étape f) suivante, exécutée après l’étape e) : calcul (24) d’une distance d moyenne résultant d’une moyenne des distances d calculées dans l’itération courante et dans un nombre déterminé d’itérations précédentes de l’étape e), et en ce que la distance d moyenne calculée dans l’itération courante de l’étape f) constitue une deuxième estimation du paramètre wp. 5) Method according to any one of claims 1 to 4, characterized in that the camera provides a sequence of successive 2D images, in that, for each of the 2D images, the method comprises a current iteration of steps a) to e) and of the following step f), executed after step e): calculation (24) of an average distance d resulting from an average of the distances d calculated in the current iteration and in a determined number of previous iterations of step e), and in that the mean distance d calculated in the current iteration of step f) constitutes a second estimate of the parameter w p .
6) Procédé selon l’une quelconque des revendications 1 à 5, caractérisé en ce que l’appareil de prise de vue fournit une séquence d’images 2D successives, en ce que, pour chacune des images 2D, le procédé comprend une itération courante des étapes a) à e) ou f) et de l’étape a’) suivante, exécutée entre les étapes a) et b) : calcul (22) d’une image filtrée en multipliant l’image traitée, résultant de l’exécution de l’étape a), par un masque de probabilités, et en ce que l’étape b) est effectuée avec l’image filtrée résultant de l’exécution de l’étape a’). 7) Procédé selon la revendication 6, caractérisé en ce que le masque de probabilités est une matrice de même taille que l’image traitée, chaque ligne du masque de probabilités, si les bandes sont verticales, ou chaque colonne du masque de probabilités, si les bandes sont horizontales, contenant des coefficients dont les valeurs sont données, hormis pour la première itération de l’étape a’), par une fonction de probabilité de type double gaussienne, présentant deux pics centrés : 6) Method according to any one of claims 1 to 5, characterized in that the camera provides a sequence of successive 2D images, in that, for each of the 2D images, the method comprises a current iteration of steps a) to e) or f) and of the following step a '), executed between steps a) and b): calculation (22) of a filtered image by multiplying the processed image, resulting from the execution of step a), by a probability mask, and in that step b) is performed with the filtered image resulting from the execution of step a ′). 7) Method according to claim 6, characterized in that the probability mask is a matrix of the same size as the processed image, each row of the probability mask, if the bands are vertical, or each column of the probability mask, if the bands are horizontal, containing coefficients whose values are given, except for the first iteration of step a '), by a double Gaussian type probability function, presenting two centered peaks:
- sur les positions des deux bandes sélectionnées dans l’itération précédente de l’étape d) ; ou - on the positions of the two bands selected in the previous iteration of step d); Where
- sur des positions moyennes calculées à partir des positions des deux bandes sélectionnées dans un nombre déterminé d’itérations précédentes de l’étape d). - on average positions calculated from the positions of the two bands selected in a determined number of previous iterations of step d).
8) Procédé selon la revendication 7, caractérisé en ce qu’un masque de probabilités par défaut est utilisé pour la première itération de l’étape a’). 8) Method according to claim 7, characterized in that a default probability mask is used for the first iteration of step a ’).
9) Procédé selon l’une quelconque des revendications 1 à 8, caractérisé en ce que le sujet est un visage ou un objet. 9) Method according to any one of claims 1 to 8, characterized in that the subject is a face or an object.
10) Produit programme d'ordinateur (930), comprenant des instructions de code de programme qui, quand elles sont exécutées par une machine de calcul (90), provoquent la réalisation par la machine de calcul du procédé selon l’une quelconque des revendications 1 à 9. 10) Computer program product (930), comprising program code instructions which, when they are executed by a computing machine (90), cause the computing machine to carry out the method according to any one of the claims 1 to 9.
11) Médium de stockage lisible par ordinateur et non transitoire (93), stockant le produit programme d’ordinateur (930) selon la revendication 10. 11) A non-transient, computer readable storage medium (93) storing the computer program product (930) of claim 10.
12) Machine de calcul (90) configurée pour réaliser le procédé selon l’une quelconque des revendications 1 à 9. 12) Computing machine (90) configured to perform the method according to any one of claims 1 to 9.
PCT/EP2021/064335 2020-05-28 2021-05-28 Method for estimating a distance between an imaging device and a subject represented in at least one 2d image provided by said device WO2021239941A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2005632A FR3110997B1 (en) 2020-05-28 2020-05-28 Method for estimating a distance between a camera and a subject represented in at least one 2D image provided by this camera.
FRFR2005632 2020-05-28

Publications (1)

Publication Number Publication Date
WO2021239941A1 true WO2021239941A1 (en) 2021-12-02

Family

ID=72470504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/064335 WO2021239941A1 (en) 2020-05-28 2021-05-28 Method for estimating a distance between an imaging device and a subject represented in at least one 2d image provided by said device

Country Status (2)

Country Link
FR (1) FR3110997B1 (en)
WO (1) WO2021239941A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2843467A1 (en) * 2002-08-07 2004-02-13 Holding Bev Sa Visual perception method for object characterization and recognition through the analysis of mono- and multi-dimensional parameters in multi-class computing units and histogram processing
US20120121126A1 (en) * 2010-11-17 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for estimating face position in 3 dimensions
US20160125227A1 (en) * 2014-11-03 2016-05-05 Anastasia Soare Facial structural shaping

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2843467A1 (en) * 2002-08-07 2004-02-13 Holding Bev Sa Visual perception method for object characterization and recognition through the analysis of mono- and multi-dimensional parameters in multi-class computing units and histogram processing
US20120121126A1 (en) * 2010-11-17 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for estimating face position in 3 dimensions
US20160125227A1 (en) * 2014-11-03 2016-05-05 Anastasia Soare Facial structural shaping

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FLORES ARTURO ET AL: "Camera Distance from Face Images", 29 July 2013, BIG DATA ANALYTICS IN THE SOCIAL AND UBIQUITOUS CONTEXT : 5TH INTERNATIONAL WORKSHOP ON MODELING SOCIAL MEDIA, MSM 2014, 5TH INTERNATIONAL WORKSHOP ON MINING UBIQUITOUS AND SOCIAL ENVIRONMENTS, MUSE 2014 AND FIRST INTERNATIONAL WORKSHOP ON MACHINE LE, ISBN: 978-3-642-17318-9, XP047043515 *
HOSSAIN MD ASGAR ET AL: "A real-time face to camera distance measurement algorithm using object classification", 2015 INTERNATIONAL CONFERENCE ON COMPUTER AND INFORMATION ENGINEERING (ICCIE), IEEE, 26 November 2015 (2015-11-26), pages 107 - 110, XP032858257, ISBN: 978-1-4673-8342-4, [retrieved on 20160203], DOI: 10.1109/CCIE.2015.7399293 *
KUMAR M S SHASHI ET AL: "Face distance estimation from a monocular camera", 2013 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, IEEE, 15 September 2013 (2013-09-15), pages 3532 - 3536, XP032966333, DOI: 10.1109/ICIP.2013.6738729 *
XIUCHENG DONG ET AL: "A NOVEL APPROACH FOR FACE TO CAMERA DISTANCE ESTIMATION BY MONOCULAR VISION", INTERNATIONAL JOURNAL OF INNOVATIVE COMPUTING, INFORMATION AND CONTROL, vol. 10, no. 2, 30 April 2014 (2014-04-30), JP, pages 659 - 669, XP055589154, ISSN: 1349-4198 *

Also Published As

Publication number Publication date
FR3110997B1 (en) 2022-06-17
FR3110997A1 (en) 2021-12-03

Similar Documents

Publication Publication Date Title
EP3138079B1 (en) Method of tracking shape in a scene observed by an asynchronous light sensor
EP3608834A1 (en) Method for analysing a fingerprint
EP3572976A1 (en) Method for processing a video image stream
EP0751483A1 (en) Method and apparatus for temporal filtering of noise in an image sequence
FR3028064A1 (en) IMPROVED DATA COMPARISON METHOD
EP3614306A1 (en) Method for facial location and identification and pose determination, from a three-dimensional view
FR3088755A1 (en) METHOD FOR UNFLOUTING AN IMAGE
EP3608835B1 (en) Method for processing images of fingerprints
WO2021239941A1 (en) Method for estimating a distance between an imaging device and a subject represented in at least one 2d image provided by said device
EP2294552B1 (en) Improved device for processing images
CA3067119A1 (en) Method for measuring the speed of rotation of an aircraft engine shaft, taking into account the measurement noise
EP0821322A1 (en) Method for temporal filtering of the noise in an image from a sequence of digital images and apparatus therefor
EP2943935B1 (en) Estimation of the movement of an image
EP3360055B1 (en) Method of optimizing decomposition of an asynchronous signal
EP4150574B1 (en) Method for processing images
FR2854247A1 (en) Treatment of cubed seismic data with differing delays and angles of incidence, comprising estimating intersection corresponding with differing delays and angles of incidence
EP3625766B1 (en) Method of detecting and quantifying blur in a digital image
EP3903282B1 (en) Method for segmenting an image
EP2884456B1 (en) Method for restoring the high-frequency movement of the line of sight of an imaging device
EP4354227A1 (en) Method and computing unit for estimating a depth map from a digital hologram, method for encoding a video sequence, computer program
EP0567377B1 (en) Tracking process from deformable element images and/or images with highly noisy edges
EP3163462A1 (en) Method for estimating a convolution product
EP4066204A1 (en) Method and device for processing images
EP3621026A1 (en) Method for reconstructing an imprint image from image portions
FR3075437A1 (en) IMAGE SYNTHESIS METHOD

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21728252

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21728252

Country of ref document: EP

Kind code of ref document: A1