FR3123486A1 - Process for constructing an image from a variable focal length optical device. - Google Patents

Process for constructing an image from a variable focal length optical device. Download PDF

Info

Publication number
FR3123486A1
FR3123486A1 FR2105767A FR2105767A FR3123486A1 FR 3123486 A1 FR3123486 A1 FR 3123486A1 FR 2105767 A FR2105767 A FR 2105767A FR 2105767 A FR2105767 A FR 2105767A FR 3123486 A1 FR3123486 A1 FR 3123486A1
Authority
FR
France
Prior art keywords
image
focal length
images
optics
variable focal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2105767A
Other languages
French (fr)
Inventor
Ali Khachlouf
Tanguy Serrat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Squaremind SAS
Original Assignee
Squaremind SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Squaremind SAS filed Critical Squaremind SAS
Priority to FR2105767A priority Critical patent/FR3123486A1/en
Priority to PCT/EP2022/064972 priority patent/WO2022253925A1/en
Priority to EP22731608.0A priority patent/EP4377880A1/en
Priority to AU2022286641A priority patent/AU2022286641A1/en
Publication of FR3123486A1 publication Critical patent/FR3123486A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Procédé de construction d’une image à partir d’un dispositif optique à focale variable. Procédé d’acquisition d’images d’une première surface (12) d’un corps humain à l’aide d’un dispositif de prise d’image (20) comportant une optique à focale variable (40), ledit procédé comportant les étapes de : acquisitions d’une pluralité d’images à l’aide du dispositif de prise d’image (20), lesdites acquisitions étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande ;construction d’une image nette d’une portion de la surface (12) du corps humain à partir de la pluralité d’images acquises de ladite surface (12),estimation de la carte de profondeur de la géométrie locale de la première surface (12). Figure pour l’abrégé : Fig.1Process for constructing an image from a variable focal length optical device. Method for acquiring images of a first surface (12) of a human body using an image pickup device (20) comprising variable focal length optics (40), said method comprising the steps of: acquisitions of a plurality of images using the image pickup device (20), said acquisitions being carried out by varying the focal length (df) of the variable focal length optics (40) according to a control law;constructing a sharp image of a portion of the surface (12) of the human body from the plurality of acquired images of said surface (12),estimating the depth map of the local geometry of the first surface (12). Figure for abstract: Fig.1

Description

Procédé de construction d’une image à partir d’un dispositif optique à focale variable.Process for constructing an image from a variable focal length optical device.

Domaine de l’inventionField of invention

Le domaine de l’invention se rapporte à celui des dispositifs optiques à focale variable permettant d’acquérir des images d’un corps. En particulier, le domaine de l’invention se rapporte au domaine des dispositifs optiques à lentille liquide permettant d’acquérir des images à haute résolution d’un corps humain et pour exploiter ces dernières. Le domaine de l’invention trouve notamment une application dans le guidage d’un bras robot au bout duquel un dispositif optique est configuré pour acquérir des images de la peau d’un individu.The field of the invention relates to that of optical devices with variable focal length making it possible to acquire images of a body. In particular, the field of the invention relates to the field of liquid lens optical devices making it possible to acquire high-resolution images of a human body and to exploit these images. The field of the invention finds particular application in guiding a robot arm at the end of which an optical device is configured to acquire images of the skin of an individual.

État de la techniqueState of the art

Actuellement, pour acquérir des images nettes et de bonne résolution d’une zone d’un corps qu’on souhaite analyser, des optiques ayant une faible profondeur de champ sont généralement utilisées. Par exemple, dans le cadre d’applications dermatologiques, la qualité de l’image est essentielle à l’analyse a posteriori de la surface de la peau. Ainsi, on privilégie des optiques en champ réduit permettant de mettre en avant la définition des couleurs et aspérités d’une surface de la peau.Currently, to acquire sharp images with good resolution of an area of a body that one wishes to analyze, optics with a shallow depth of field are generally used. For example, in the context of dermatological applications, the quality of the image is essential for the a posteriori analysis of the surface of the skin. Thus, reduced-field optics are favored to highlight the definition of the colors and roughness of a surface of the skin.

Toutefois, ces optiques macrophotographiques qui ont une profondeur de champ relativement faible impliquent que la zone nette de l’image acquise est faible également. Néanmoins, cette solution est incompatible avec l’acquisition de zones courbées dans lesquelles la profondeur de champ utilisée rend certaines parties du voisinage d’un point floues puisqu’elles quittent la zone de netteté. Il est donc nécessaire d’effectuer des acquisitions du voisinage de ce point soit en modifiant la prise de vue soit en modifiant l’optique pour étendre la zone d’acquisition d’une surface plus importante. Or il est difficile de configurer les réglages de la prise de vue sans connaitre au préalable la topologie de surface de corps dont on souhaite acquérir les images. Cette méconnaissance rend les opérations complexes et longues. Par ailleurs, les différentes configurations de prises de vues utilisées sont un obstacle à la restitution d’une portion de surface complète et suffisamment explicite.However, these macrophotographic lenses which have a relatively shallow depth of field imply that the sharp area of the acquired image is also small. However, this solution is incompatible with the acquisition of curved areas in which the depth of field used makes certain parts of the vicinity of a point blurred since they leave the area of sharpness. It is therefore necessary to carry out acquisitions in the vicinity of this point either by modifying the shot or by modifying the optics to extend the acquisition zone by a larger surface. However, it is difficult to configure the shooting settings without first knowing the surface topology of the body whose images are to be acquired. This lack of knowledge makes the operations complex and time-consuming. Moreover, the different shooting configurations used are an obstacle to the restitution of a complete and sufficiently explicit portion of the surface.

L’invention permet de pallier ces inconvénients.The invention overcomes these drawbacks.

Selon un premier aspect, l’invention concerne un procédé d’acquisition d’images d’une première surface d’un corps humain à l’aide d’un dispositif de prise d’image comportant une optique à focale variable, ledit procédé comportant les étapes de :According to a first aspect, the invention relates to a method for acquiring images of a first surface of a human body using an image pickup device comprising variable focal length optics, said method comprising the steps of:

  • acquisitions d’une pluralité d’images à l’aide du dispositif de prise d’image, lesdites acquisitions étant réalisées en faisant varier la distance focale de l’optique à focale variable selon une loi de commande ;acquisitions of a plurality of images using the image pickup device, said acquisitions being carried out by varying the focal length of the variable focal length optics according to a control law;
  • construction d’une image nette d’une portion de la surface du corps humain à partir de la pluralité d’images acquises de ladite surface,construction of a sharp image of a portion of the surface of the human body from the plurality of images acquired from said surface,
  • estimation de la carte de profondeur de la géométrie locale de la première surface.estimation of the depth map of the local geometry of the first surface.

Un avantage est de permettre de reconstruire une image nette d’un corps humain afin de permettre par exemple de catégoriser des motifs dermatologiques tels que des grains de beauté.One advantage is to allow the reconstruction of a clear image of a human body in order to allow, for example, to categorize dermatological patterns such as moles.

Selon un mode de réalisation, la construction d’une image d’une portion de la surface du corps comprend:According to one embodiment, the construction of an image of a portion of the surface of the body comprises:

  • découpage des images de la pluralité d’images à partir d’une information de netteté estimée pour générer des zones nettes et des zones floues ;cropping the images of the plurality of images from estimated sharpness information to generate sharp areas and blurred areas;
  • assemblage des zones nettes desdites images pour construire une image nette de la surface de la portion du corps.assembling the sharp areas of said images to construct a sharp image of the surface of the portion of the body.

Un avantage est de permettre une reconstruction d’une surface complexe du corps humain en tirant le meilleur parti de l’optique et des images acquises sur toute la zone considérée.One advantage is to allow reconstruction of a complex surface of the human body by making the most of the optics and the images acquired over the entire area considered.

Selon un mode de réalisation, le procédé comprend une mesure ou une estimation d’une distance entre l’optique à focale variable et d’un premier point de la surface du corps, la loi de commande prenant en compte ladite distance mesurée ou estimée entre l’optique à focale variable et le premier point pour modifier la focale de l’optique entre au moins deux images acquises au voisinage du point de la surface du corps.According to one embodiment, the method comprises measuring or estimating a distance between the variable focal length optics and a first point on the surface of the body, the control law taking into account said measured or estimated distance between the varifocal optics and the first point for modifying the focal length of the optics between at least two images acquired in the vicinity of the point on the surface of the body.

Un avantage est d’augmenter la performance de la loi de commande en réduisant la plage de valeurs de la variation de la distance focale. Par ailleurs, une mesure de la distance permet également une meilleure estimation de la netteté des images.One advantage is to increase the performance of the control law by reducing the range of values of the variation of the focal distance. Furthermore, a distance measurement also allows a better estimation of the sharpness of the images.

Selon un mode de réalisation, la mesure ou l’estimation de la distance entre l’optique à focale variable et d’un premier point de la surface du corps est réalisée :According to one embodiment, the measurement or estimation of the distance between the variable focal length optics and a first point on the surface of the body is carried out:

  • par une mesure de distance par point et/ou ;by a distance measurement per point and/or;
  • par une mesure de distance combinée à une information topologique connue du modèle de corps de la surface du corps et/ou ;by a distance measurement combined with known topological information of the body model of the body surface and/or;
  • par une information topologique connue du modèle de corps de la surface du corps et une information de position de l’optique par rapport au modèle 3D et/ou ;by known topological information of the body model of the surface of the body and position information of the optics with respect to the 3D model and/or;
  • par une mesure de distance combinée à une mesure de la géométrie locale de la zone imagée de la surface du corps et/ou,by a distance measurement combined with a measurement of the local geometry of the imaged area of the body surface and/or,
  • par une mesure de la géométrie locale de la zone imagée de la surface du corps et une information de position de l’optique par rapport au modèle 3D.by measuring the local geometry of the imaged area of the body surface and information on the position of the optics in relation to the 3D model.

Un avantage est d’obtenir une meilleure estimation en combinant différentes estimations ou mesures de la distance entre l’optique à focale variable et d’un premier point de la surface du corps de manière à augmenter la performance et/ou la qualité du résultat.An advantage is to obtain a better estimate by combining different estimates or measurements of the distance between the varifocal optics and a first point on the surface of the body so as to increase the performance and/or the quality of the result.

Selon un mode de réalisation, la mesure, le calcul ou l’estimation de la distance entre l’optique à focale variable et d’un premier point de la surface du corps est réalisée soit par une mesure ou par une estimation:According to one embodiment, the measurement, calculation or estimation of the distance between the variable focal length optics and a first point on the surface of the body is carried out either by a measurement or by an estimation:

  • à l’aide d’un moyen de mesure de la distance ;using a distance measuring device;
  • à partir d’une information de netteté de l’ensemble des images acquises et d’un algorithme d’estimation du flou et/ou de la netteté.from sharpness information of all the acquired images and a blur and/or sharpness estimation algorithm.

Selon un mode de réalisation, le procédé comporte les étapes de :According to one embodiment, the method comprises the steps of:

  • Réception d’un modèle 3D d’au moins une partie d’un corps, ledit modèle 3D modélisant au moins une première surface dudit corps ;Receiving a 3D model of at least a part of a body, said 3D model modeling at least a first surface of said body;
  • Récupération de données topologiques locales du voisinage d’au moins le premier point, lesdites données topologiques locales étant extraites du modèle 3D ou calculées à partir du modèle 3D ;Recovery of local topological data from the neighborhood of at least the first point, said local topological data being extracted from the 3D model or calculated from the 3D model;
  • Les acquisitions d’une pluralité d’images étant réalisées en faisant varier la distance focale de l’optique à focale variable selon une loi de commande prenant en compte en outre les données topologiques locales du voisinage du premier point de la première surface.The acquisitions of a plurality of images being carried out by varying the focal length of the variable focal length optics according to a control law also taking into account the local topological data of the vicinity of the first point of the first surface.

Un avantage est de connaitre une information topologique du corps qui permet d’une part d’optimiser la loi de commande en calcul et en temps et d’autre part de guider efficacement un dispositif mobile le cas échéant.An advantage is to know a topological information of the body which allows on the one hand to optimize the control law in calculation and in time and on the other hand to effectively guide a mobile device if necessary.

Selon un mode de réalisation, la première surface du modèle 3D est une surface d’un corps humain.According to one embodiment, the first surface of the 3D model is a surface of a human body.

Selon un mode de réalisation, la première surface du modèle 3D est un nuage de points, notamment un graphe connecté orienté dans l’espace.According to one embodiment, the first surface of the 3D model is a cloud of points, in particular a connected graph oriented in space.

Un avantage est de disposer de métriques facilement exploitables pour adresser et superposer les images 3D nettes reconstruites sur le corps. Un autre avantage est de permettre de planifier facilement des trajectoires de guidage à la surface du corps. Un autre avantage est de permettre de connaitre les profondeurs de champ locales d’une région de la surface avec précision pour piloter la loi de commande de la focale de l’optique.An advantage is to have easily exploitable metrics to address and superimpose the sharp 3D images reconstructed on the body. Another advantage is to allow easy planning of guidance trajectories on the surface of the body. Another advantage is to make it possible to know the local depths of field of a region of the surface with precision to control the control law of the focal length of the optics.

Selon un mode de réalisation, le procédé comporte les étapes de :According to one embodiment, the method comprises the steps of:

  • Génération d’une trajectoire de traitement à la surface du modèle 3D au moyen d’un calculateur, ladite trajectoire de traitement comportant au moins deux points à la surface du modèle 3D ;Generation of a treatment trajectory on the surface of the 3D model by means of a computer, said treatment trajectory comprising at least two points on the surface of the 3D model;
  • Construction d’une image d’une portion de la surface du corps au voisinage de la trajectoire de traitement.Construction of an image of a portion of the body surface in the vicinity of the treatment trajectory.

Un avantage est de générer automatique une image complète d’un corps humain en programmant à l’avance un dispositif mobile tel qu’un bras robot.One advantage is to automatically generate a complete image of a human body by programming a mobile device such as a robot arm in advance.

Selon un mode de réalisation, la gamme de valeurs de la focale de l’optique à focale variable est définie en fonction des données topologiques locales du modèle 3D au voisinage du premier point de la trajectoire de traitement.According to one embodiment, the range of values of the focal length of the variable focal length optics is defined according to the local topological data of the 3D model in the vicinity of the first point of the processing trajectory.

Selon un mode de réalisation, les images acquises sont traitées de manière à générer des informations de gradient de netteté entre les pixels d’une même image, lesdits gradients étant exploités de sorte à générer des consignes d’alignement entre les images acquises successives, lesdites images réalignées pour produire un ensemble de portions d’image couvrant des mêmes zones de pixels, les informations de netteté ou de flou ou de ces portions étant comparées pour sélectionner les pixels les plus nets, lesdits pixels sélectionnés étant fusionnées pour construire une image 2D ou 3D composite.According to one embodiment, the acquired images are processed so as to generate sharpness gradient information between the pixels of the same image, said gradients being exploited so as to generate alignment instructions between the successive acquired images, said realigned images to produce a set of image portions covering the same pixel areas, the sharpness or blur information or of these portions being compared to select the sharpest pixels, said selected pixels being merged to construct a 2D image or Composite 3D.

Un avantage est d’obtenir une carte de netteté de chaque image afin de collecter et sélectionner l’ensemble des pixels les plus nets d’une image.An advantage is to obtain a sharpness map of each image in order to collect and select the set of sharpest pixels of an image.

Selon un mode de réalisation, la construction de l’image d’une portion de la surface du corps comprenant le découpage et l’assemblage des images est réalisée à partir d’un algorithme apprenant, de type réseau de neurones, entrainé de sorte à produire une image 3D nette en sortie à partir d’une pluralité d’images acquises en entrée.According to one embodiment, the construction of the image of a portion of the surface of the body comprising the cutting and the assembly of the images is carried out using a learning algorithm, of the neural network type, trained so as to producing a sharp 3D output image from a plurality of input acquired images.

Un avantage est de générer des images nettes rapidement grâce à un algorithme d’intelligence artificielle.One advantage is to generate sharp images quickly thanks to an artificial intelligence algorithm.

Selon un mode de réalisation, l’algorithme de traitement d’image estimant la netteté ou le flou de chaque point des images de la pluralité d’images est mis en œuvre par une première fonction apprenante, par exemple une méthode d’apprentissage automatique.According to one embodiment, the image processing algorithm estimating the sharpness or the blur of each point of the images of the plurality of images is implemented by a first learning function, for example an automatic learning method.

Selon un mode de réalisation, l’algorithme de traitement d’image comporte une sélection et un découpage de chaque groupe de pixels de chaque image ayant une netteté supérieure à un seuil prédéfini ou une netteté supérieure à la netteté de pixels d’au moins une autre image de la même zone.According to one embodiment, the image processing algorithm comprises a selection and a cutting of each group of pixels of each image having a sharpness greater than a predefined threshold or a sharpness greater than the sharpness of pixels by at least one another image of the same area.

Selon un mode de réalisation, le procédé comporte une étape d’estimation de la valeur de la distance entre l’optique à focale variable et d’au moins un premier point de la trajectoire de traitement à partir d’une estimation de la netteté de points des images de la pluralité d’images, ladite estimation étant réalisée à partir d’un algorithme de traitement d’images.According to one embodiment, the method comprises a step of estimating the value of the distance between the variable focal length optics and at least a first point of the processing path from an estimate of the sharpness of points of the images of the plurality of images, said estimation being carried out using an image processing algorithm.

Un avantage est de permettre de générer une carte de profondeur par des moyens logiciels ne nécessitant pas un équipement supplémentaire. Dans le cas où un équipement permettant de générer une carte de profondeur est utilisé, l’étape d’estimation réalisée par un moyen logiciel permet par exemple d’affiner la mesure d’un appareil.An advantage is to make it possible to generate a depth map by software means that do not require additional equipment. In the case where equipment making it possible to generate a depth map is used, the estimation step carried out by software means makes it possible, for example, to refine the measurement of a device.

Selon un mode de réalisation, le procédé comprend une estimation de la profondeur relative entre les pixels d’une même image et une calibration de la mesure d’au moins un pixel pour générer une information de profondeur absolue d’au moins un pixel.According to one embodiment, the method comprises an estimation of the relative depth between the pixels of the same image and a calibration of the measurement of at least one pixel to generate absolute depth information of at least one pixel.

Selon un mode de réalisation, l’optique à focale variable est agencée sur un élément de guidage configuré pour déplacer une lentille.According to one embodiment, the variable focal length optics are arranged on a guide element configured to move a lens.

Selon un mode de réalisation, le procédé comporte, entre les étapes de génération d’une trajectoire de traitement et de mesure de la distance, les étapes de :According to one embodiment, the method comprises, between the steps of generating a processing trajectory and measuring the distance, the steps of:

  • Calcul d’une trajectoire de guidage de l’optique à focale variable ;Calculation of a guide trajectory for the variable focal length optics;
  • Génération d’une cinématique de l’élément de guidage de sorte qu’un point de l’optique à focale variable soit asservi sur la trajectoire de guidage ;Generation of a kinematics of the guiding element so that a point of the optics with variable focal length is slaved on the guiding trajectory;
  • Activation de la cinématique de l’élément de guidage pour parcourir la trajectoire de guidage, ladite trajectoire de guidage étant calculée en temps réel à partir du modèle 3D de surface.Activation of the kinematics of the guiding element to traverse the guiding trajectory, said guiding trajectory being calculated in real time from the 3D surface model.

Selon un mode de réalisation, le procédé comprend une étape de correction de la trajectoire de guidage à partir de la reconstruction en temps réel du modèle 3D.According to one embodiment, the method includes a step of correcting the guidance trajectory from the real-time reconstruction of the 3D model.

Selon un autre aspect, l’invention concerne un dispositif de prise d’image caractérisé en ce qu’il comporte une optique à focale variable pour acquérir une pluralité d’images de la surface d’un corps d’un individu à l’aide du dispositif de prise d’image, lesdites acquisitions étant réalisées en faisant varier la distance focale de l’optique à focale variable selon une loi de commande, ledit dispositif comportant au moins un calculateur configuré pour mettre en œuvre un algorithme de traitement d’images pour générer une image 3D nette.According to another aspect, the invention relates to an image pickup device characterized in that it comprises variable focal length optics for acquiring a plurality of images of the surface of an individual's body using of the image pickup device, said acquisitions being made by varying the focal distance of the variable focal length optics according to a control law, said device comprising at least one computer configured to implement an image processing algorithm to generate a sharp 3D image.

Selon un mode de réalisation, le dispositif de prise d’image comporte des moyens pour mesurer une distance entre l’optique à focale variable et d’un premier point de la surface du corps, lesdites acquisitions étant réalisées en faisant varier la distance focale de l’optique à focale variable selon une loi de commande prenant en compte la distance entre l’optique à focale variable et le premier point.According to one embodiment, the image pickup device comprises means for measuring a distance between the variable focal length optics and a first point on the surface of the body, said acquisitions being carried out by varying the focal length of the variable-focal lens according to a control law taking into account the distance between the variable-focal lens and the first point.

Selon un mode de réalisation, le dispositif de prise d’image comporte en outre une interface pour réceptionner un modèle 3D d’au moins une partie d’un corps humain, ledit modèle modélisant au moins une première surface du corps et une plateforme mobile, ledit ou lesdits calculateurs étant configuré(s) pour :According to one embodiment, the image pickup device further comprises an interface for receiving a 3D model of at least one part of a human body, said model modeling at least a first surface of the body and a mobile platform, said computer(s) being configured for:

  • Récupérer des données topologiques locales du voisinage d’au moins le premier point, lesdites données topologiques locales étant extraites du modèle 3D ou calculées à partir du modèle 3D ;Retrieving local topological data from the neighborhood of at least the first point, said local topological data being extracted from the 3D model or calculated from the 3D model;
  • Commander l’acquisition d’une pluralité d’image par le dispositif de prise d’image, lesdites acquisitions étant réalisées en faisant varier la distance focale de l’optique à focale variable selon une loi de commande prenant en compte la distance entre l’optique à focale variable et le premier point, et données topologiques locales du voisinage du premier point de la première surface.Control the acquisition of a plurality of images by the image pickup device, said acquisitions being carried out by varying the focal length of the variable focal length optics according to a control law taking into account the distance between the varifocal optics and the first point, and local topological data of the neighborhood of the first point of the first surface.

Selon un mode de réalisation, le dispositif de prise d’image comporte un dispositif de mesure de la distance entre l’optique à focale variable et le premier point configuré pour mesurer en temps réel une distance entre l’optique à focale variable et un premier point de la surface du corps et un moyen de mesure de l’orientation de l’optique pour déduire une information d’angle de vue, ladite orientation et ladite distance étant utilisées par un calculateur du dispositif pour corriger ou transformer l’image acquise.According to one embodiment, the image pickup device comprises a device for measuring the distance between the variable focal length optics and the first point configured to measure in real time a distance between the variable focal length optics and a first point on the surface of the body and means for measuring the orientation of the optics to deduce viewing angle information, said orientation and said distance being used by a computer of the device to correct or transform the acquired image.

Selon un mode de réalisation, le dispositif de prise d’image comporte un élément de guidage comportant l’optique à focale variable, le ou les calculateur(s) étant configuré(s) pour :According to one embodiment, the image pickup device comprises a guide element comprising variable focal length optics, the computer(s) being configured for:

  • Générer une trajectoire de traitement à la surface du modèle 3D, ladite trajectoire de traitement comportant au moins deux points à la surface du modèle 3D ;Generate a treatment trajectory on the surface of the 3D model, said treatment trajectory comprising at least two points on the surface of the 3D model;
  • Calculer une trajectoire de guidage de l’optique à focale variable;Calculate a guide trajectory of the varifocal optics;
  • Générer une cinématique de l’élément de guidage de sorte qu’un point de l’optique à focale variable soit asservi sur la trajectoire de guidage ;Generate a kinematics of the guide element so that a point of the variable focal length optics is slaved on the guide path;
  • Activer une cinématique de l’élément de guidage pour parcourir la trajectoire de guidage, ladite trajectoire de guidage étant calculée en temps réel à partir du modèle 3D de surface.Activate a kinematics of the guiding element to traverse the guiding trajectory, said guiding trajectory being calculated in real time from the 3D surface model.

Selon un mode de réalisation, l’optique à focale variable est une lentille liquide.According to one embodiment, the variable focal length optic is a liquid lens.

Selon un autre aspect, l’invention concerne une plateforme mobile comportant un dispositif de prise d’image de l’invention, ladite plateforme comportant une interface de commande pour recevoir des consignes de guidage calculées notamment à partir du modèle de corps calculé en temps réel.According to another aspect, the invention relates to a mobile platform comprising an image capture device of the invention, said platform comprising a command interface for receiving guidance instructions calculated in particular from the body model calculated in real time .

Selon un mode de réalisation, la plateforme mobile est :According to one embodiment, the mobile platform is:

  • un bras robot comportant une pluralité de degré de liberté ;a robot arm having a plurality of degrees of freedom;
  • Un drone comportant une optique formant un dispositif de prise d’image ;A drone comprising optics forming an image capture device;
  • Un rail de guidage sur lequel le dispositif de prise d’image est mobile ou :A guide rail on which the imaging device is movable or:
  • Une cabine d’accueil d’un sujet humain comportant des moyens de guidage d’un dispositif de prise d’image,A reception cabin for a human subject comprising means for guiding an image-taking device,
  • Une plateforme comportant une partie fixe accueillant le dispositif de prise d’image une partie mobile entrainant un individu en mouvement vis-à-vis de la partie fixe.A platform comprising a fixed part accommodating the image capture device a mobile part causing an individual to move vis-à-vis the fixed part.

Selon un aspect, l’invention concerne un dispositif de type pistolet comportant un embout maintenant le dispositif de prise d’image selon l’invention.According to one aspect, the invention relates to a gun-type device comprising a tip holding the image pickup device according to the invention.

Brève description des figuresBrief description of figures

D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description détaillée qui suit, en référence aux figures annexées, qui illustrent :Other characteristics and advantages of the invention will become apparent on reading the following detailed description, with reference to the appended figures, which illustrate:

: un exemple de dispositif de guidage configuré pour acquérir des images de la surface d’un corps et pour reconstruire une image nette d’au moins une portion de la surface du corps ; : an example of a guidance device configured to acquire images of the surface of a body and to reconstruct a sharp image of at least a portion of the surface of the body;

: un exemple de dispositif de prise d’image de l’invention guidé selon une trajectoire de guidage pour acquérir des images au voisinage d’une trajectoire à la surface d’un corps ; : an example of an image pickup device of the invention guided along a guide trajectory to acquire images in the vicinity of a trajectory on the surface of a body;

: un exemple de dispositif de guidage configuré pour acquérir des images de la surface d’un corps humain tel qu’un patient ; : an example of a guidance device configured to acquire images of the surface of a human body such as a patient;

: un exemple d’un logigramme représentant les étapes du procédé d’acquisition des images pour leur traitement afin de reconstruire une image nette de toute ou partie d’une surface d’un corps. : an example of a flowchart representing the steps of the image acquisition process for their processing in order to reconstruct a clear image of all or part of a surface of a body.

La illustre un dispositif d’acquisition d’image 20 de l’invention comportant une optique à focale variable 40. Un dispositif d’acquisition d’image 20, également appelé dispositif de prise d’images est configuré pour acquérir une pluralité d’images au voisinage d’au moins un point localisé à la surface d’un corps. L’invention trouve notamment une application dans la dermatologie et l’analyse d’images de la peau d’un individu. Toutefois, l’invention ne se limite pas à cette application et peut être mise en œuvre dans d’autres domaines. Enfin, l’invention est particulièrement avantageuse lorsque des dispositifs d’acquisition d’image 20 comportent des optiques adaptées à la macrophotographie, voire la microphotographie, telle que des optiques ayant une grande ouverture.The illustrates an image acquisition device 20 of the invention comprising variable focal length optics 40. An image acquisition device 20, also called an image pickup device, is configured to acquire a plurality of images at the neighborhood of at least one point located on the surface of a body. The invention finds particular application in dermatology and the analysis of images of an individual's skin. However, the invention is not limited to this application and can be implemented in other fields. Finally, the invention is particularly advantageous when image acquisition devices 20 comprise optics suitable for macrophotography, or even microphotography, such as optics having a large aperture.

Un objectif de l’invention est de reconstruire la photographie de la surface d’un corps de sorte que chaque portion de l’image tridimensionnelle reconstruite soit la plus nette possible.One objective of the invention is to reconstruct the photograph of the surface of a body so that each portion of the reconstructed three-dimensional image is as sharp as possible.

Dans la suite de la description, par « corps » on entendra le corps d’un humain. Toutefois, l’invention ne se limite pas à ce mode de réalisation, l’invention peut être mise en œuvre pour tout type de corps présentant une surface tridimensionnelle dont on cherche à représenter le plus fidèlement possible au moins une portion.In the remainder of the description, the term “body” will mean the body of a human. However, the invention is not limited to this embodiment, the invention can be implemented for any type of body having a three-dimensional surface of which it is sought to represent at least a portion as faithfully as possible.

Les paramètres d’acquisition, dont le nombre d’images, les dimensions des images et la résolution des images peuvent être prédéfinis ou définis selon une configuration de déplacement du dispositif d’acquisition 20, par exemple lorsque ce dernier est agencé sur une plateforme mobile se déplaçant autour du corps.The acquisition parameters, including the number of images, the dimensions of the images and the resolution of the images can be predefined or defined according to a displacement configuration of the acquisition device 20, for example when the latter is arranged on a mobile platform moving around the body.

L’invention permet avantageusement d’acquérir un ensemble d’images au voisinage d’un point en faisant varier la distance focale de l’optique d’acquisition selon une loi de commande prenant en compte la distance entre l’optique à focale variable et le point ciblé.The invention advantageously makes it possible to acquire a set of images in the vicinity of a point by varying the focal distance of the acquisition optics according to a control law taking into account the distance between the variable focal length optics and the target point.

L’opération peut ainsi être répétée sur une pluralité de points d’une surface d’un corps afin d’acquérir plusieurs séquences comportant chacune une pluralité d’images au voisinage d’une pluralité de points. Ce procédé peut être réalisé de manière continue sur un ensemble de points d’une surface pour parcourir tout ou partie de la surface d’un corps ou ce procédé peut réaliser le long d’une trajectoire à la surface du corps afin d’acquérir des images au voisinage de points définissant la trajectoire. Ainsi, de proche en proche l’intégralité d’une surface d’un corps peut être traitée.The operation can thus be repeated on a plurality of points of a surface of a body in order to acquire several sequences each comprising a plurality of images in the vicinity of a plurality of points. This method can be carried out continuously on a set of points on a surface to cover all or part of the surface of a body or this method can be carried out along a trajectory on the surface of the body in order to acquire images in the vicinity of points defining the trajectory. Thus, step by step, the entire surface of a body can be treated.

Optique à focale variableVarifocal optics

Selon un mode de réalisation, l’optique à focale variable 40 est avantageusement une lentille à focale variable, dite également lentille adaptative. Selon un mode de réalisation, la lentille utilisée est une lentille déformable par actionnement piézoélectrique. Selon un autre mode de réalisation, la lentille est une lentille à cristaux liquides. Ces dernières utilisent un changement de l'indice optique des cristaux liquides afin de modifier la focale de la lentille. Enfin, un autre mode de réalisation peut être mis en œuvre à partir d’une lentille liquide dont la géométrie est contrôlable par des paramètres micro-fluidiques ou des paramètres mécaniques tels que des paramètres définissant la géométrie d’une membrane retenant un liquide ou encore une combinaison des deux. Selon un exemple, une lentille liquide comprend une membrane circulaire en polymère électroactif. La partie centrale de la membrane forme la lentille et la partie périphérique est surmontée d'une électrode annulaire. En appliquant une tension électrique entre cette électrode et le substrat, on crée une pression électrostatique, qui tend à déplacer le fluide vers la partie centrale, gonflant la membrane, et modifiant ainsi la courbure de la lentille. Ces dispositifs peuvent être contrôlés avec une tension de pilotage.According to one embodiment, the variable focal length optics 40 is advantageously a variable focal length lens, also called an adaptive lens. According to one embodiment, the lens used is a lens deformable by piezoelectric actuation. According to another embodiment, the lens is a liquid crystal lens. The latter use a change in the optical index of the liquid crystals in order to modify the focal length of the lens. Finally, another embodiment can be implemented from a liquid lens whose geometry is controllable by micro-fluidic parameters or mechanical parameters such as parameters defining the geometry of a membrane retaining a liquid or even a combination of the two. According to one example, a liquid lens comprises a circular membrane made of electroactive polymer. The central part of the membrane forms the lens and the peripheral part is surmounted by an annular electrode. By applying an electric voltage between this electrode and the substrate, an electrostatic pressure is created, which tends to move the fluid towards the central part, inflating the membrane, and thus modifying the curvature of the lens. These devices can be controlled with a pilot voltage.

Ces paramètres peuvent être réglés, configurés ou pilotés à partir d’une consigne numérique provenant d’un capteur ou d’un calculateur ou de tout autre dispositif électronique.These parameters can be adjusted, configured or controlled from a digital setpoint from a sensor or a computer or any other electronic device.

Selon un autre mode de réalisation, l’optique à focale variable comporte un actionneur magnétique permettant de déplacer un élément optique, tel qu’une lentille, pour modifier la focale. Selon un exemple, l’élément optique se déplace par exemple dans un tube, la position dans le tube définissant une distance focale propre à configuration optique de la lentille. L’actionneur magnétique peut être commandé par un champ électromagnétique généré à partir d’un composant dédié. Le champ peut être réglé, configuré ou piloté à partir d’une consigne numérique de pilotage. Cette consigne numérique peut être générée par une loi de commande provenant d’un calculateur ou d’un capteur ou tout autre équipement électronique.According to another embodiment, the variable focal length optic comprises a magnetic actuator making it possible to move an optical element, such as a lens, to modify the focal length. According to one example, the optical element moves for example in a tube, the position in the tube defining a focal distance specific to the optical configuration of the lens. The magnetic actuator can be controlled by an electromagnetic field generated from a dedicated component. The field can be adjusted, configured or controlled from a digital control setpoint. This digital setpoint can be generated by a control law from a computer or a sensor or any other electronic equipment.

Selon un autre mode de réalisation, l’optique à focale variable comporte un actionneur mécanique permettant de déplacer un élément optique, tel qu’une lentille, pour modifier la focale. L’actionneur peut être commandé par un composant électronique permettant de recevoir une consigne numérique et de générer une consigne mécanique. Dans ce cas, cette consigne numérique peut être générée également par une loi de commande provenant d’un calculateur ou d’un capteur ou tout autre équipement électronique.According to another embodiment, the variable focal length optic comprises a mechanical actuator making it possible to move an optical element, such as a lens, to modify the focal length. The actuator can be controlled by an electronic component making it possible to receive a digital instruction and to generate a mechanical instruction. In this case, this digital setpoint can also be generated by a control law from a computer or a sensor or any other electronic equipment.

Un avantage de l’utilisation d’une optique à distance focale variable est de s’affranchir des défauts d’une macrophotographie qui acquiert des images avec une profondeur de champ relativement faible qui reste incompatible de l’acquisition d’images dans une portion de surface courbée par exemple sur le mollet ou le bras. Un autre avantage est d’avoir des temps de réponse très faibles, par exemple un temps de réponse inférieur à 25ms.An advantage of using variable focal length optics is to overcome the shortcomings of macrophotography which acquires images with a relatively shallow depth of field which remains incompatible with the acquisition of images in a portion of curved surface for example on the calf or the arm. Another advantage is to have very low response times, for example a response time of less than 25ms.

En conséquence, l’utilisation d’une optique à focale variable, par exemple en complément d’une optique avec une plus grande ouverture, permet d’acquérir une précision suffisante des images d’une surface d’un corps de manière à reconstituer une image globale nette par un algorithme de reconstruction d’images.Consequently, the use of variable focal length optics, for example in addition to optics with a larger aperture, makes it possible to acquire sufficient precision of the images of a surface of a body so as to reconstitute a clear global image by an image reconstruction algorithm.

Afin de guider la prise de vue automatiquement au voisinage d’un point de visée, l’invention permet de faire varier automatiquement la focale d’une optique selon une loi de commande afin de reconstituer une image nette du voisinage du point ciblé.In order to guide the shooting automatically in the vicinity of an aiming point, the invention makes it possible to automatically vary the focal length of an optic according to a control law in order to reconstitute a sharp image of the vicinity of the targeted point.

Cas de la lentille liquideLiquid lens case

Dans le cas d’une lentille liquide, le contrôleur pilote la valeur numérique de la focale de la lentille. Dans cet exemple, la valeur numérique permet de faire varier la forme de la lentille.In the case of a liquid lens, the controller controls the numerical value of the focal length of the lens. In this example, the numerical value makes it possible to vary the shape of the lens.

Selon un mode de réalisation, le contrôle de la lentille liquide est réalisé au moyen d’un signal continu tel qu’une fonction trigonométrique, par exemple une fonction sinus ou une fonction linéaire, par exemple une fonction dont la forme est en dents-de-scie. Un tel contrôle permet d’optimiser la stabilisation du milieu constituant la lentille liquide. Un tel signal de commande permet de minimiser les effets non linéaires et de réduire les temps de relaxation ou les phases transitoires de modification du milieu de la lentille liquide. Une telle variation de la focale de la lentille est par ailleurs cohérente avec l’évolution de la courbure de la zone au voisinage du point cible P1. En effet, il n’existe pas de discontinuité supposée, sauf effet d’artefact ou d’effets de bords de la surface du corps, ainsi une loi de commande de la focale peut être régulière et continue de sorte à faire correspondre les variations de topologies de surface avec les variations de la focale de la lentille.According to one embodiment, the control of the liquid lens is carried out by means of a continuous signal such as a trigonometric function, for example a sine function or a linear function, for example a function whose shape is in -saw. Such control makes it possible to optimize the stabilization of the medium constituting the liquid lens. Such a control signal makes it possible to minimize the nonlinear effects and to reduce the relaxation times or the transient phases of modification of the medium of the liquid lens. Such a variation of the focal length of the lens is moreover consistent with the evolution of the curvature of the zone in the vicinity of the target point P 1 . Indeed, there is no supposed discontinuity, except effect of artefact or effects of edges of the surface of the body, thus a law of control of the focal can be regular and continuous so as to make correspond the variations of surface topologies with variations in lens focal length.

Selon un exemple, l’acquisition d’image par la lentille liquide 20 est réalisée selon un échantillonnage prédéfini sur l’ensemble de la gamme de focales adressables par la lentille. Dans ce mode de réalisation, le nombre d’images acquises est constant selon une vitesse de déplacement du dispositif de prise d’images. Un intérêt de cette solution est de collecter le plus grand nombre d’images possibles afin d’obtenir une stratification des images selon les différentes focales de la lentille. Un avantage de cette solution est d’obtenir une carte de profondeur régulière de l’ensemble des points définissant des pixels de l’image acquise.According to one example, the image acquisition by the liquid lens 20 is carried out according to a predefined sampling over the entire range of focal lengths addressable by the lens. In this embodiment, the number of images acquired is constant according to a speed of movement of the imaging device. One advantage of this solution is to collect the greatest number of images possible in order to obtain a stratification of the images according to the different focal lengths of the lens. An advantage of this solution is to obtain a regular depth map of all the points defining pixels of the acquired image.

ImagePicture

Selon un mode de réalisation, l’image acquise est une image couleur dans le spectre visible. La gamme de fréquences de l’image acquise peut être dans ce cas le visible, c’est-à-dire pour des longueurs d’onde comprise entre 380 nm et 700 nm.According to one embodiment, the acquired image is a color image in the visible spectrum. The frequency range of the acquired image can in this case be the visible, that is to say for wavelengths between 380 nm and 700 nm.

Selon des modes où des gammes s’étendent de part et d’autre du spectre visible, il est possible d’acquérir des images dans un spectre plus large à partir d’un équipement dédié. Selon un exemple, les images acquises le sont dans une gamme infrarouge, c’est-à-dire pour des longueurs d’onde comprises entre 700 nm et 1000 nm. Selon un autre exemple, les images acquises le sont dans une gamme ultraviolette, c’est-à-dire pour des longueurs d’onde comprises entre 10 nm et 380 nm.According to modes where ranges extend on either side of the visible spectrum, it is possible to acquire images in a broader spectrum from dedicated equipment. According to one example, the images acquired are acquired in an infrared range, that is to say for wavelengths between 700 nm and 1000 nm. According to another example, the images acquired are acquired in an ultraviolet range, that is to say for wavelengths between 10 nm and 380 nm.

Selon un mode de réalisation, l’image est une image multispectrale. Dans ce dernier cas, un équipement d’imagerie spectrale peut être utilisé. Une configuration d’un tel équipement avec une focale variable pilotable peut être utilisée dans le cadre de l’invention. L’équipement utilisé pour l’acquisition peut être configuré pour acquérir des images dont le spectre est notamment réparti sur plusieurs bandes de fréquences espacées. Un intérêt est d’obtenir une image sur une plus large bande de fréquences incluant par exemple l’infrarouge, le proche infrarouge et l’ultraviolet.According to one embodiment, the image is a multispectral image. In the latter case, spectral imaging equipment can be used. A configuration of such equipment with a controllable variable focal length can be used in the context of the invention. The equipment used for the acquisition can be configured to acquire images whose spectrum is notably distributed over several spaced frequency bands. An interest is to obtain an image over a wider band of frequencies including for example infrared, near infrared and ultraviolet.

Selon un autre exemple qui peut être combiné aux précédents modes, l’image acquise est une image hyperspectrale. Dans ce dernier cas, un spectromètre d’imagerie, également appelé un spectromètre imageur ou un imageur associé à un spectromètre, permet de générer une image hypespectrale. L’équipement utilisé pour l’acquisition peut être configuré pour acquérir des images dont le spectre est notamment réparti sur plusieurs bandes de fréquences contiguës. L’équipement utilisé peut être configuré avec une focale variable pilotable. Un intérêt est d’obtenir une image sur une plus large bande de fréquences avec un haut degré de résolution incluant par exemple l’infrarouge, le proche infrarouge et l’ultraviolet.According to another example which can be combined with the previous modes, the acquired image is a hyperspectral image. In the latter case, an imaging spectrometer, also called an imaging spectrometer or an imager associated with a spectrometer, makes it possible to generate a hyperspectral image. The equipment used for the acquisition can be configured to acquire images whose spectrum is notably distributed over several contiguous frequency bands. The equipment used can be configured with a controllable variable focal length. An interest is to obtain an image over a wider band of frequencies with a high degree of resolution including for example infrared, near infrared and ultraviolet.

Selon un mode de réalisation, l’équipement est un imageur chimique ou un dispositif d’imagerie chimique configuré pour créer une image à partir d’un spectre fréquentiel acquis tel qu’un spectromètre et des informations spatiales et temporelles.According to one embodiment, the equipment is a chemical imager or a chemical imaging device configured to create an image from an acquired frequency spectrum such as a spectrometer and spatial and temporal information.

Moyen de mesure de la distanceMeans of measuring distance

Selon un mode de réalisation, le dispositif de prise d’image 20 comporte un moyen de mesure de la distance entre le dispositif optique à focale variable 40 et un premier point P1de la surface du corps.According to one embodiment, the image pickup device 20 comprises a means for measuring the distance between the optical device with variable focal length 40 and a first point P 1 of the surface of the body.

Ce moyen de mesure de la distance peut être un dispositif physique actif tel qu’un laser émis disposé à proximité de l’optique à focale variable 40. L’émission du faisceau laser permet de mesurer la distance au centre de l’image acquise. D’autres dispositifs pour mesurer la distance entre un point de la surface du corps et l’optique à focale variable 20 peuvent être utilisés, par exemple un télémètre radioélectrique, un télémètre optique ou encore un télémètre acoustique. D’autres exemples de dispositifs de mesure de la distance peuvent être utilisés dans le cadre de l’invention, tels qu’un Lidar un Radar, un Sonar ou encore un télémètre stadimétrique.This means for measuring the distance can be an active physical device such as an emitted laser arranged close to the variable focal length optics 40. The emission of the laser beam makes it possible to measure the distance to the center of the acquired image. Other devices for measuring the distance between a point on the surface of the body and the variable focal length optics 20 can be used, for example a radioelectric rangefinder, an optical rangefinder or even an acoustic rangefinder. Other examples of distance measuring devices can be used in the context of the invention, such as a Lidar, a Radar, a Sonar or even a stadimetric rangefinder.

Afin de réaliser la mesure de distance, l’invention peut mettre en œuvre un dispositif de mesure à point unique tel qu’un laser ou un système de mesure multipoints tel qu’un laser, un dispositif dit « Time-of-Flight matriciel », un lidar, un dispositif stéréoscopique active/passive, ou encore un dispositif comportant une projection d’une lumière structurée.In order to carry out the distance measurement, the invention can implement a single-point measurement device such as a laser or a multipoint measurement system such as a laser, a so-called “matrix Time-of-Flight” device. , a lidar, an active/passive stereoscopic device, or even a device comprising a projection of structured light.

Selon une alternative, ou selon un mode complémentaire, le moyen de mesure de la distance entre l’optique à focale variable 40 et un premier point P1de la surface du corps est un moyen logiciel mettant en œuvre un calculateur traitant les images acquises pour en extraire une information de netteté ou de flou pour reconstruire à partir de cette donnée une information caractérisant la distance entre un point P1de la surface et l’optique. Un exemple de réalisation peut être un algorithme détectant le ou les pixels les plus nets d’une image pour en déduire une information sur la distance entre un point P1de la surface et l’optique en connaissant par ailleurs la focale de l’optique utilisée. Les gradients entre les pixels les plus nets et les autres pixels peuvent également être exploités afin de consolider la mesure de la distance entre un point P1de la surface et l’optique. L’information de distance focale est alors utilisée pour traiter l’évaluation de la distance entre l’optique à focale variable et un point P1de la surface du corps. L’ensemble des nuances de netteté ou de flou entre les pixels peut alors être utilisé pour consolider le calcul de la distance entre un point P1de la surface et l’optique ou pour définir une carte de profondeur locale au voisinage du point P1de visée ou d’un point dont la netteté est considérée comme la plus élevée.According to an alternative, or according to a complementary mode, the means for measuring the distance between the variable focal length optics 40 and a first point P 1 of the surface of the body is software means implementing a computer processing the images acquired to extract sharpness or blur information therefrom in order to reconstruct from this datum information characterizing the distance between a point P 1 of the surface and the optics. An exemplary embodiment may be an algorithm detecting the sharpest pixel(s) of an image in order to deduce therefrom information on the distance between a point P 1 of the surface and the optics, knowing moreover the focal length of the optics used. The gradients between the sharpest pixels and the other pixels can also be exploited in order to consolidate the measurement of the distance between a point P 1 of the surface and the optics. The focal distance information is then used to process the evaluation of the distance between the variable focal length optics and a point P 1 on the surface of the body. All of the shades of sharpness or blur between the pixels can then be used to consolidate the calculation of the distance between a point P 1 of the surface and the optics or to define a local depth map in the vicinity of the point P 1 sight or a point whose sharpness is considered to be the highest.

Selon un exemple de réalisation, un algorithme peut être mis en œuvre par une fonction apprenante, de type fonction entrainée par un apprentissage automatique, tel qu’un algorithme de deep learning. Dans ce mode de réalisation, un réseau de neurones convolutif de type CNN peut être utilisé. La fonction apprenante permet notamment de détecter le ou les pixels supposés être les plus nets de l’image et de déterminer une distance entre un point P1de la surface et l’optique.According to an exemplary embodiment, an algorithm can be implemented by a learning function, of the function type driven by automatic learning, such as a deep learning algorithm. In this embodiment, a CNN-like convolutional neural network can be used. The learning function makes it possible in particular to detect the pixel or pixels supposed to be the sharpest in the image and to determine a distance between a point P 1 of the surface and the optics.

A cette fin, une carte de netteté, également appelée « defocus map » dans la terminologie anglosaxonne peut être établie pour chacune des images de la pile d’images en faisant varier la focale de l’optique. Une telle carte de netteté permet d’encoder une information de flou ou de netteté par exemple sur une échelle normalisée de 0 à 1.To this end, a sharpness map, also called “defocus map” in English terminology, can be established for each of the images in the image stack by varying the focal length of the lens. Such a sharpness map makes it possible to encode blur or sharpness information, for example on a standardized scale of 0 to 1.

Lorsqu’une méthode classique est mise en œuvre, la carte de netteté d’une zone est construite en considérant les pixels les plus nets de chaque image.When a classical method is implemented, the sharpness map of an area is constructed by considering the sharpest pixels of each image.

Méthodes de mesure de la distanceDistance measurement methods à partir des images acquisesfrom acquired images

Selon un exemple de réalisation, la distance mesurée par un capteur peut être combinée à une autre mesure de la distance obtenue soit par un autre capteur soit par une autre méthode permettant d’évaluer la distance.According to an exemplary embodiment, the distance measured by a sensor can be combined with another measurement of the distance obtained either by another sensor or by another method making it possible to evaluate the distance.

Parmi les autres méthodes, une première méthode consiste à évaluer la distance entre l’optique à focale variable 40 et un point P1de la surface du corps à partir des images acquises et par un algorithme d’estimation de la netteté de différents points de l’image afin de reconstruire une information de distance entre au moins un point de la surface et l’optique. En effet, dans cette méthode les différences de netteté de différents points de différentes images ayant été acquises avec des distances focales différentes permettent d’obtenir une estimation de la distance de chacun de ces points par rapport à l’optique. Cette estimation peut être combinée ou non avec une autre méthode ou une donnée d’un capteur. Cette estimation peut être utilisée afin de définir une entrée d’une loi de commande Lc de la distance focale de l’optique 40.Among the other methods, a first method consists in evaluating the distance between the variable focal length optics 40 and a point P 1 of the surface of the body from the acquired images and by an algorithm for estimating the sharpness of different points of the image in order to reconstruct distance information between at least one point of the surface and the optics. Indeed, in this method the differences in sharpness of different points of different images having been acquired with different focal lengths make it possible to obtain an estimate of the distance of each of these points with respect to the optics. This estimate may or may not be combined with another method or data from a sensor. This estimate can be used to define an input of a control law Lc of the focal length of the optics 40.

Parmi les méthodes, l’une d’entre elles peut être mise en œuvre si une connaissance à priori du volume ou de la surface 12 du corps est connue. Selon un exemple de réalisation, l’invention comprend un composant permettant de générer un modèle de corps, notamment de la surface tridimensionnelle de ce corps. Cette surface peut être une surface définie dans l’espace ou elle peut être définie par un nuage de points ou un maillage. Le nuage de points peut être avantageusement connecté et orienté dans l’espace, on parle d’orientation spatiale dans l’espace. Lorsque le nuage de points est orienté, il est possible de repérer la surface du modèle de corps dans l’espace par exemple au sein d’un référentiel prédéterminé R0. Lorsque le modèle de corps est repéré dans un référentiel R0et que le dispositif d’acquisition d’images l’est aussi, il est alors possible de calculer une distance entre un point P1de la surface 12 du corps et l’optique à focale variable 40 et d’utiliser cette distance pour mettre en œuvre une loi de commande Lc pilotant automatiquement la distance focale df du dispositif à focale variable 20.Among the methods, one of them can be implemented if a priori knowledge of the volume or of the surface 12 of the body is known. According to an exemplary embodiment, the invention comprises a component making it possible to generate a body model, in particular of the three-dimensional surface of this body. This surface can be a surface defined in space or it can be defined by a cloud of points or a mesh. The cloud of points can be advantageously connected and oriented in space, we speak of spatial orientation in space. When the cloud of points is oriented, it is possible to locate the surface of the body model in space, for example within a predetermined reference frame R 0 . When the body model is located in a frame of reference R 0 and the image acquisition device is also, it is then possible to calculate a distance between a point P 1 of the surface 12 of the body and the optics at variable focal length 40 and to use this distance to implement a control law Lc automatically controlling the focal length df of the variable focal length device 20.

A partir des données suivantes : la position et l’orientation du corps en 3D dans R0, la connaissance du modèle de corps et la position du dispositif optique dans R0, il est possible de calculer en temps réel une loi de commande de l’optique en fonction de la position relative de celle-ci par rapport au corps.From the following data: the position and the orientation of the body in 3D in R 0 , the knowledge of the body model and the position of the optical device in R 0 , it is possible to calculate in real time a control law of the optics according to the relative position of the latter with respect to the body.

Selon un premier cas, cette loi de commande peut être calculée en temps réel sans avoir préalablement à planifier une trajectoire de l’optique. Ce mode de réalisation, est particulièrement intéressant dans le cas d’une optique embarquée dans un dispositif mobile de type un pistolet, c’est-à-dire amovible selon les mouvements d’une main d’un opérateur par exemple.According to a first case, this control law can be calculated in real time without having to plan a trajectory of the optics beforehand. This embodiment is particularly advantageous in the case of optics embedded in a mobile device of the pistol type, that is to say removable according to the movements of an operator's hand for example.

Selon un second cas, cette loi de commande peut être calculée par exemple en planifiant une trajectoire préalable de l’optique. Ce mode de réalisation, est particulièrement intéressant dans le cas d’une optique embarquée dans un dispositif robotique de type un bras robot articulé et de manière plus générale un dispositif embarqué dans toute plateforme amovible.According to a second case, this control law can be calculated for example by planning a preliminary trajectory of the optics. This embodiment is particularly interesting in the case of an optics embedded in a robotic device of the type an articulated robot arm and more generally a device embedded in any removable platform.

Utilisation d’un modèle de corpsUsing a body template

Lorsque l’invention met en œuvre une génération automatique du modèle de corps d’un individu, ce dernier peut être généré à partir d’un dispositif optique capturant des vues partielles ou des vues complètes du corps de l’individu. Les vues partielles peuvent ensuite être utilisées pour générer un modèle de corps par exemple à partir d’un algorithme mis en œuvre par une fonction apprenante, telle qu’une fonction ayant été entrainée par un apprentissage automatique. Un exemple est un réseau de neurones convolutif. Une telle fonction permet de générer en temps réel des modèles de corps en 3D d’un individu à partir de vues partielles acquises. Une telle possibilité permet de calculer des données topologiques au voisinage d’un point cible P1de la surface du corps lors du balayage d’une trajectoire par le dispositif de prise d’images 20.When the invention implements an automatic generation of the body model of an individual, the latter can be generated from an optical device capturing partial views or complete views of the body of the individual. The partial views can then be used to generate a body model, for example from an algorithm implemented by a learning function, such as a function having been trained by automatic learning. An example is a convolutional neural network. Such a function makes it possible to generate in real time 3D body models of an individual from acquired partial views. Such a possibility makes it possible to calculate topological data in the vicinity of a target point P 1 of the surface of the body during the scanning of a trajectory by the imaging device 20.

Descripteur topologiqueTopological descriptor

La connaissance de la topologie peut provenir de différents dispositifs ou méthodes de calcul d’au moins un descripteur topologique local au point P1ciblé.The knowledge of the topology can come from different devices or methods for calculating at least one local topological descriptor at the targeted point P 1 .

Selon un premier mode de réalisation, le descripteur provient d’un calcul effectué en temps réel à partir d’une image acquise. Ce calcul peut être effectué avec un second dispositif optique configuré avec une ouverture, une profondeur de champ ou une distance focale permettant une analyse locale de la carte de profondeur au voisinage du point P1. Selon ce même exemple, le second dispositif optique peut comprendre une optique dans une gamme infrarouge. Selon un autre exemple de descripteur calculé en temps réel, un dispositif comportant une projection d’images dont on calcule la déformation permet de calculer une carte de profondeur. Un autre exemple consiste en l’utilisation de lumière structurée.According to a first embodiment, the descriptor comes from a calculation carried out in real time from an acquired image. This calculation can be performed with a second optical device configured with an aperture, a depth of field or a focal length allowing local analysis of the depth map in the vicinity of the point P 1 . According to this same example, the second optical device can comprise optics in an infrared range. According to another example of a descriptor calculated in real time, a device comprising a projection of images whose deformation is calculated makes it possible to calculate a depth map. Another example is the use of structured light.

Selon un second mode de réalisation, le descripteur provient d’un calcul en temps réel à partir d’une image extraite d’un modèle de surface du corps humain qui est orienté et positionné dans l’espace. Un tel modèle de corps peut être par exemple généré en temps réel à partir d’une connaissance partielle ou totale du corps d’un patient. La connaissance à priori de la trajectoire qui a été planifiée et du modèle de corps du patient dont on souhaite obtenir des images locales de la peau et enfin la connaissance du dispositif de prise d’image 20 et de son agencement vis-à-vis du corps permettent de générer un ensemble de descripteurs locaux à priori avant le process d’acquisition des images au voisinage des points ciblés P1. Une telle technique permet de configurer la loi de commande Lc de l’optique à focale variable sans dépendre d’une contrainte temps réel. Par ailleurs, cette technique permet de gagner un temps de calcul en temps réel et permet d’optimiser le meilleur ratio d’images nécessaires à la reconstruction d’une image nette de toute ou partie du corps humain dont on souhaite obtenir une image nette.According to a second embodiment, the descriptor comes from a real-time calculation from an image extracted from a surface model of the human body which is oriented and positioned in space. Such a body model can for example be generated in real time from partial or total knowledge of a patient's body. A priori knowledge of the trajectory that has been planned and of the patient's body model for which local images of the skin are to be obtained and finally knowledge of the imaging device 20 and its arrangement vis-à-vis the bodies make it possible to generate a set of local descriptors a priori before the image acquisition process in the vicinity of the targeted points P 1 . Such a technique makes it possible to configure the control law Lc of the variable focal length optics without depending on a real time constraint. Furthermore, this technique makes it possible to save calculation time in real time and makes it possible to optimize the best ratio of images necessary for the reconstruction of a clear image of all or part of the human body for which a clear image is desired.

Selon un mode de réalisation, au moins un descripteur de forme locale et/ou un descripteur de forme globale est calculé(s). Un descripteur peut être du type : « Wave Kernel Signature » (WKS) ou « Heat Kernel Signature » (HKS) ou « Gaussian Curvature ». A titre d’exemple, le descripteur HKS est notamment basé sur une solution de l’équation de chaleur, il est basé sur l’opérateur de Laplace – Beltrami. Un avantage est de définir des descripteurs de forme à partir d’une analyse spectrale de la région au voisinage d’un point. Un avantage est l’utilisation simplifiée d’équations ou d’opérateurs normalisés dont le traitement numérique peut être optimisé.According to one embodiment, at least one local shape descriptor and/or one global shape descriptor is calculated. A descriptor can be of the type: “Wave Kernel Signature” (WKS) or “Heat Kernel Signature” (HKS) or “Gaussian Curvature”. For example, the HKS descriptor is notably based on a solution of the heat equation, it is based on the Laplace – Beltrami operator. An advantage is to define shape descriptors from a spectral analysis of the region in the vicinity of a point. An advantage is the simplified use of standardized equations or operators whose numerical processing can be optimized.

Selon un exemple, le calcul du vecteur normal à la surface au point P1ciblé permet également de définir un descripteur de forme local.According to one example, the calculation of the vector normal to the surface at the targeted point P 1 also makes it possible to define a local shape descriptor.

Selon un autre exemple, la loi de commande est calculée en temps réel sur le corps de telle manière à ce la focale de l’optique balaye l’intégralité de la gamme de profondeur des points du maillage d’une zone locale considérée, c’est-à-dire entre les points les plus lointains de l’optique et les points les plus proches de l’optique. Ainsi, la connaissance à priori de la topologie locale du fait de la connaissance du modèle de corps permet de piloter la loi de commande manière optimale selon la zone inspectée. En d’autres termes, à partir du nuage de points d’une zone locale du modèle de corps, l’invention permet d’extraire une gamme de valeurs de focale permettant de commander la loi de commande de l’optique.According to another example, the control law is calculated in real time on the body in such a way that the focal length of the optic scans the entire depth range of the points of the mesh of a local zone considered, it that is to say between the most distant points of the optics and the closest points of the optics. Thus, the a priori knowledge of the local topology due to the knowledge of the body model makes it possible to control the control law in an optimal manner according to the inspected zone. In other words, from the cloud of points of a local area of the body model, the invention makes it possible to extract a range of focal length values making it possible to control the control law of the optics.

Lorsqu’au moins un descripteur de forme est calculé, la valeur de ce dernier permet de générer une gamme de valeur de la focale et de définir un échantillonnage de prise d’images de l’optique à focale variable au sein de cette gamme. Cet échantillonnage peut être prédéfini ou calculé en temps réel en fonction du cas d’espèce.When at least one shape descriptor is calculated, the value of the latter makes it possible to generate a range of values of the focal length and to define a sampling of images taken from the variable focal length optics within this range. This sampling can be predefined or calculated in real time depending on the specific case.

Selon un exemple lorsque plusieurs descripteurs de forme sont calculés localement, un coefficient de forme est calculé afin d’établir une règle simple de correspondance ne le coefficient de forme et une gamme de variation de la focale.According to an example when several shape descriptors are calculated locally, a shape coefficient is calculated in order to establish a simple correspondence rule between the shape coefficient and a range of variation of the focal length.

Génération d’une trajectoireGeneration of a trajectory

Selon un exemple, l’invention comprend le guidage d’un dispositif de prise d’image 20 selon une trajectoire ou une surface à parcourir à la surface du corps d’un individu. Le procédé permet donc de traiter une pluralité de points cibles P1le long d’une trajectoire. La trajectoire peut être planifiée initialement à la surface d’un modèle de corps calculé d’un individu puis cette trajectoire peut être recalculée ou déformée pendant le guidage du dispositif de prise d’image 20 en fonction des déplacements ou des mouvements de l’individu. Dans ce cas, la position dans l’espace d'au moins un point de la surface peut être recalculée afin d’asservir la trajectoire de déplacement du dispositif de prise d’images.According to one example, the invention comprises guiding an image pickup device 20 along a trajectory or a surface to be traversed on the surface of an individual's body. The method therefore makes it possible to process a plurality of target points P 1 along a trajectory. The trajectory can be planned initially on the surface of a calculated body model of an individual and then this trajectory can be recalculated or deformed during the guiding of the imaging device 20 according to the movements or movements of the individual. . In this case, the position in space of at least one point of the surface can be recalculated in order to control the path of movement of the imaging device.

Dans cet exemple, les descripteurs topologiques peuvent être recalculés aux points de la trajectoire asservie, par exemple si le mouvement implique une déformation de la surface du corps. Selon un autre cas, les valeurs des descripteurs en première approximation peuvent être conservées aux points situés sur la trajectoire ayant changé de position.In this example, the topological descriptors can be recalculated at the points of the servo path, for example if the movement involves a deformation of the surface of the body. According to another case, the values of the descriptors in first approximation can be kept at the points located on the trajectory having changed position.

Selon un exemple, un algorithme de détection de forme peut être mis en œuvre. Cet algorithme peut être, par exemple, mis en oeuvre pour reconnaitre des postures {assise, debout, bras levés, etc.} ou encore des mouvements typiques. Selon une alternative, un opérateur peut initier un changement de modes de prises d’images imposant un recalcul du modèle de corps et de sa position dans l’espace.According to one example, a shape detection algorithm can be implemented. This algorithm can be, for example, implemented to recognize postures {sitting, standing, arms raised, etc.} or even typical movements. According to an alternative, an operator can initiate a change of imaging modes imposing a recalculation of the body model and its position in space.

Loi de commandeControl law

Le dispositif de l’invention comprend un contrôleur électronique permettant de contrôler le dispositif à focale variable 40. Un intérêt de la mise en œuvre d’une loi de commande Lc est de faire varier la distance focale à chaque acquisition d’images au voisinage d’un point P1d’une trajectoire 30 de la surface du corps tout en guidant le dispositif de prise d’image 20 le long d’une trajectoire à parcourir 32.The device of the invention comprises an electronic controller making it possible to control the device with variable focal length 40. One advantage of the implementation of a control law Lc is to vary the focal distance at each acquisition of images in the vicinity of a point P 1 of a trajectory 30 of the surface of the body while guiding the imaging device 20 along a trajectory to be traveled 32.

Selon un premier mode de réalisation, la loi de commande Lc peut être planifiée à l’avance, c’est-à-dire avant la prise d’images. Ce mode de réalisation est possible lorsque le modèle de corps d’un individu est connu et lorsque la trajectoire de guidage du dispositif de prise d’images 20 est planifiée. Dans cette configuration, l’ensemble des variables de la loi de commande peuvent être précalculées afin que l’ensemble des images à acquérir puisse l’être afin de former l’image composite finale. Ce mode de réalisation peut être combiné avec des modifications locales de la position du corps et donc de la trajectoire des points ciblés et donc de la trajectoire de guidage du dispositif de prise d’image 20. Dans ce cas, la loi de commande n’est pas modifiée puisque la configuration du système {corps – dispositif de prise d’image} reste inchangée.According to a first embodiment, the control law Lc can be planned in advance, that is to say before the image capture. This embodiment is possible when the body model of an individual is known and when the guiding trajectory of the imaging device 20 is planned. In this configuration, all the variables of the control law can be precomputed so that all the images to be acquired can be in order to form the final composite image. This embodiment can be combined with local modifications of the position of the body and therefore of the trajectory of the targeted points and therefore of the guiding trajectory of the imaging device 20. In this case, the control law does not is not modified since the configuration of the system {body – imaging device} remains unchanged.

Selon un second mode de réalisation, la loi de commande Lc est calculée en temps réel à partir des données acquises en temps réel. Ainsi, une trajectoire peut être planifiée à la surface du corps, mais la distance entre le dispositif de prise d’image 20 et la surface du corps n’est pas connue a priori ou encore la topologie locale du voisinage des points ciblés n’est pas connue et doit être découverte en temps réel. Lorsque la loi de commande Lc est pilotée en temps réel, un calcul en temps réel est réalisé pour asservir l’optique à focale variable et la position du dispositif de prise d’image 20 de sorte que l’ensemble des images nécessaire à la reconstruction d’une image composite nette soit réalisée.According to a second embodiment, the control law Lc is calculated in real time from the data acquired in real time. Thus, a trajectory can be planned on the surface of the body, but the distance between the imaging device 20 and the surface of the body is not known a priori or even the local topology of the vicinity of the targeted points is not known. unknown and must be discovered in real time. When the control law Lc is controlled in real time, a real-time calculation is carried out to control the variable focal length optics and the position of the image pickup device 20 so that all of the images necessary for the reconstruction of a clear composite image is achieved.

La loi de commande Lc peut être configurée de sorte que le dispositif de prise d’image 20 balaie un ensemble de points pour acquérir des images nettes d’une zone complète de toute ou partie d’une surface du corps. Afin d’optimiser le nombre d’images acquises et la gamme de valeurs de la focale de l’optique à focale variable, la loi de commande Lc peut prendre en compte une donnée de topologie au voisinage d’un point P1 dont on souhaite acquérir des images.The control law Lc can be configured so that the image pickup device 20 scans a set of points to acquire sharp images of a complete area of all or part of a surface of the body. In order to optimize the number of images acquired and the range of values of the focal length of the variable focal length optics, the control law Lc can take into account a topology datum in the vicinity of a point P1 from which it is desired to acquire images.

Lorsque la surface 12 du corps est relativement plane au voisinage du point P1, les points au voisinage du point P1 sont dans une plage réduite de valeurs de la focale. Au sein de cette gamme, la focale de l’optique est pilotée pour acquérir des images nettes à proximité du point P1. Typiquement, si la gamme de valeurs de la focale permet d’acquérir des images haute définition nettes dans une profondeur de champ de 1mm, le nombre d’images à acquérir pour obtenir un ensemble d’images nettes au voisinage du point P1 peut être réduit. La prise d’images se limite à la variation de la focale sur une plage de valeurs de focales réduite. Une telle zone peut correspondre à celle d’un ventre plat d’une personne en forme et non en surpoids.When the surface 12 of the body is relatively flat in the vicinity of the point P 1 , the points in the vicinity of the point P1 are in a reduced range of focal length values. Within this range, the focal length of the optics is controlled to acquire sharp images close to the point P1. Typically, if the range of focal length values makes it possible to acquire sharp high definition images in a depth of field of 1mm, the number of images to be acquired to obtain a set of sharp images in the vicinity of the point P1 can be reduced. . The capture of images is limited to the variation of the focal length over a range of reduced focal length values. Such an area can correspond to that of a flat stomach of a fit person and not overweight.

Lorsque la surface 12 du corps est relativement courbée au voisinage du point P1, les points au voisinage du point P1sont dans une large plage de valeurs de la focale. Au sein de cette gamme plus large que la gamme réduite, la focale de l’optique est pilotée pour acquérir des images nettes à proximité du point P1. Afin d’acquérir des images nettes sur une profondeur de champ plus importante, par exemple 20 mm, alors la gamme de valeurs de la focale est configurée de sorte à être élargie et le nombre d’images acquises dans cette zone est plus important que dans le cas précédent. Une telle zone peut correspondre à celle d’un mollet ou d’un bras.When the surface 12 of the body is relatively curved in the vicinity of the point P 1 , the points in the vicinity of the point P 1 are in a wide range of focal length values. Within this wider range than the reduced range, the focal length of the optics is controlled to acquire sharp images close to the point P1. In order to acquire sharp images over a greater depth of field, for example 20 mm, then the range of values of the focal length is configured so as to be widened and the number of images acquired in this zone is greater than in the previous case. Such a zone may correspond to that of a calf or an arm.

Certaines zones peuvent avoir une courbure encore plus importante telles que le coude plié, le nez, les oreilles ou les orteils.Some areas may have even greater curvature such as the bent elbow, nose, ears or toes.

La loi de commande Lc peut également avoir une influence sur la vitesse de déplacement du dispositif de prise d’image 20 selon le nombre d’images à acquérir localement au voisinage d’un point P1et plus généralement pour l’ensemble des points P1d’une trajectoire. Enfin, cette loi de commande Lc peut être configurée à priori ou en temps réel en fonction du taux de recouvrement souhaité des images acquises de la surface du corps humain. Le taux de recouvrement peut être une valeur en pourcentage définissant la proportion de la surface d’image recouverte par exemple sur les bords des images afin de reconstruire une image globale. Le taux de recouvrement peut également être calculé de sorte qu’il définisse une statistique de proportion d’images nettes à un facteur de précision donnée avec un facteur d’erreur donné.The control law Lc can also have an influence on the speed of movement of the imaging device 20 depending on the number of images to be acquired locally in the vicinity of a point P 1 and more generally for all the points P 1 of a trajectory. Finally, this control law Lc can be configured a priori or in real time according to the desired recovery rate of the images acquired from the surface of the human body. The coverage rate can be a percentage value defining the proportion of the image surface covered, for example on the edges of the images in order to reconstruct an overall image. The recovery rate can also be calculated so that it defines a statistic of proportion of sharp images at a given precision factor with a given error factor.

Le taux de recouvrement peut également être défini de proche en proche entre deux acquisitions successives. A titre d’exemple, le taux de recouvrement peut être un pourcentage de la proportion d’une image répétée au sein d’une image en fonction d’une image précédemment acquise.The recovery rate can also be defined step by step between two successive acquisitions. For example, the overlap rate can be a percentage of the proportion of a repeated image within an image based on a previously acquired image.

Un intérêt de cette dernière configuration est d’obtenir une zone recouvrée avec deux images acquises obtenues avec des focales différentes. Dans cette réalisation, il est possible de reconstruire un gradient pour générer une image reconstruite qui sera nette sur une plus grande dimension que chaque image acquise séparément.An advantage of this last configuration is to obtain an area covered with two acquired images obtained with different focal lengths. In this embodiment, it is possible to reconstruct a gradient to generate a reconstructed image which will be sharp over a larger dimension than each image acquired separately.

Lorsque la courbure de la zone augmente, l’acquisition des images peut être réalisée de manière plus rapide avec un échantillonnage d’une plage plus importante de la focale de l’optique à focale variable, le mouvement du dispositif de prise d’image 20 peut ralentir et le recouvrement peut être configuré de sorte à être plus important entre deux images successives.As the curvature of the area increases, image acquisition can be performed more quickly with sampling of a larger range of the focal length of the varifocal optics, the movement of the imaging device 20 can slow down and the overlap can be configured to be more important between two successive images.

Ainsi selon un exemple la loi de commande Lc peut être configurée avec les variables suivantes :Thus, according to an example, the control law Lc can be configured with the following variables:

  • La vitesse de déplacement Vdest sélectionnée dans une gamme de vitesse [Vd min; Vd max] ;The movement speed V d is selected from a speed range [V d min ; V d max ];
  • Le taux de recouvrement d’image TRest sélectionné dans une gamme de taux de recouvrement d’image [Tmin; Tmax] ;The image overlap rate T R is selected from a range of image overlap rates [T min ; T max ];
  • La focale de l’optique à focale variable FVest sélectionnée dans une gamme de focales [Fmin; Fmax] ;The focal length of the varifocal optics F V is selected from a range of focal lengths [F min ; F max ];
  • Le descripteur topologique ou le coefficient de forme local calculé à partir de plusieurs descripteurs topologiques locaux Cf FVest sélectionné dans une gamme de coefficients de forme [Cmin; Cmax] ;The topological descriptor or the local shape coefficient calculated from several local topological descriptors Cf F V is selected from a range of shape coefficients [C min ; C max ];
  • La distance df entre l’optique à focale variable et le point de visée P1de la surface 12 du corps est sélectionnée dans une gamme de distance [dmin; dmax].The distance df between the variable focal length optics and the aiming point P 1 of the surface 12 of the body is selected from a distance range [d min ; d max ].
  • La vitesse d’acquisition ou de délai entre deux acquisitions successives TAest sélectionné dans une gamme de durées [Tmin; Tmax].The acquisition speed or delay between two successive acquisitions T A is selected from a range of durations [T min ; T max ].

Dans un mode d’exemple, l’angle de vue et la taille d’image sont considérés comme prédéfinis. Toutefois, selon d’autres exemples, les dimensions d’images et les angles de vues peuvent varier comme des paramètres.In an example mode, the viewing angle and image size are considered predefined. However, according to other examples, the dimensions of images and the viewing angles may vary as parameters.

Selon différents modes de réalisation, l’une ou plusieurs de ces variables sont utilisées pour définir ou paramétrer la loi de commande Lc permettant d’acquérir les images. La loi de commande Lc peut être elle-même une loi de commande complexe dépendant de plusieurs lois de commande Lc1, Lc2, etc… selon la prise en compte des variables d’entrées.According to different embodiments, one or more of these variables are used to define or parameterize the control law Lc making it possible to acquire the images. The control law Lc can itself be a complex control law depending on several control laws Lc1, Lc2, etc… depending on the consideration of the input variables.

Par exemple, pour un point de la trajectoire comprenant une pluralité de points cible P1, on peut écrire par exemple que la focale est définie par une première loi de commande Lc1 définie par une relation de type : Fv = Lc1(df, Cf). Et pour une trajectoire donnée, le délai entre deux acquisitions TAet la vitesse de déplacement Vddu dispositif de prise d’images 20 sont commandés selon une seconde loi de commande Lc2 définie par une relation de type : {Vd ;TA}= Lc2(TR, Cf}.For example, for a point of the trajectory comprising a plurality of target points P 1 , one can write for example that the focal length is defined by a first control law Lc1 defined by a relation of the type: Fv = Lc1(df, Cf) . And for a given trajectory, the delay between two acquisitions T A and the displacement speed V d of the imaging device 20 are controlled according to a second control law Lc2 defined by a relation of the type: {V d ; T A }= Lc2(T R , Cf}.

Construction d’une image netteBuilding a sharp image

Selon un mode de réalisation, l’invention comporte une étape de construction d’une image nette de toute ou partie de la surface 12 du corps 10 à partir de la pluralité d’images acquises de ladite surface 12. Cette image est une image composite formée à partir d’une pluralité de portions d’images acquises par le dispositif de prise d’image 20.According to one embodiment, the invention comprises a step of constructing a sharp image of all or part of the surface 12 of the body 10 from the plurality of images acquired of said surface 12. This image is a composite image formed from a plurality of portions of images acquired by the image pickup device 20.

Afin de sélectionner les portions d’images ou les groupes de pixels, voire un pixel d’une image, le procédé de l’invention comprend une étape de comparaison d’un critère de netteté de chaque pixel ou chaque groupe de pixels d’une image avec ceux d’une autre image comportant un recouvrement de ce ou ces pixel(s). Lorsqu’un pixel ayant une netteté suffisante est détecté, par exemple lorsque la valeur du critère est supérieure à un seuil prédéfini, alors le pixel est retenu dans l’image composite. Lorsqu'aucun pixel n’a une netteté suffisante, c’est-à-dire dont le critère de netteté dépasse un certain seuil, alors le pixel le plus net est sélectionné.In order to select the portions of images or the groups of pixels, or even a pixel of an image, the method of the invention comprises a step of comparing a sharpness criterion of each pixel or each group of pixels of a image with those of another image comprising an overlap of this or these pixel(s). When a pixel with sufficient sharpness is detected, for example when the value of the criterion is greater than a predefined threshold, then the pixel is retained in the composite image. When no pixel has sufficient sharpness, i.e. whose sharpness criterion exceeds a certain threshold, then the sharpest pixel is selected.

Afin de comparer la netteté ou le flou de pixels d’images différentes couvrant une même zone, un algorithme d’alignement des images peut être utilisé pour calibrer les images entre elles et plus particulièrement les portions d’images couvrant les mêmes zones de la surface du corps.In order to compare the sharpness or the blurring of pixels of different images covering the same area, an image alignment algorithm can be used to calibrate the images to each other and more particularly the portions of images covering the same areas of the surface. from the body.

La construction d’une image nette comprend un découpage d’images acquises selon leurs portions les plus nettes tout en contrôlant que les zones découpées non retenues sont comprises dans d’autres images acquises recouvrant la partie retirée d’une image. Ce contrôle peut être réalisé automatiquement à partir du taux de recouvrement des images acquises et d’un marquage des zones recouvrées.The construction of a sharp image includes a clipping of acquired images according to their sharpest portions while checking that the unretained clipped areas are included in other acquired images covering the removed part of an image. This control can be carried out automatically from the coverage rate of the acquired images and a marking of the covered areas.

L’invention permet de générer une carte de netteté de chaque image de la pile d’images afin de sélectionner les pixels les plus nets de la pile d’images acquises recouvrant une zone donnée. Il est donc possible de générer une image à partir de la ou des carte(s) de netteté dans laquelle les pixels les plus nets sont sélectionnés.The invention makes it possible to generate a sharpness map of each image of the stack of images in order to select the sharpest pixels of the stack of acquired images covering a given area. It is therefore possible to generate an image from the sharpness map(s) in which the sharpest pixels are selected.

Selon un mode de réalisation, une étape d’estimation de la netteté est réalisée pour générer des zones nettes et retirer les zones floues. Afin de réaliser cette étape, un algorithme d’estimation de la netteté peut être mis en œuvre. Parmi les algorithmes possiblement utilisables au sein de l’invention, différentes solutions peuvent être mises en œuvre telles qu’un calcul de la moyenne ou la variance d’un gradient. Une autre méthode peut être mise en œuvre au moyen d’un apprentissage automatique à partir d’une fonction apprenante. La fonction apprenante peut être un apprentissage de type deep learning. Selon un exemple, un réseau de neurones convolutif CNN peut être mis en œuvre. Un tel algorithme permet de générer des cartes de netteté de l’ensemble des images afin de permettre d’identifier dans un second temps les pixels les plus nets pour générer une image 3D entièrement nette ou du moins la plus nette possible. Un tel algorithme de deep learning, i.e. d’apprentissage profond, peut également mis en œuvre pour traiter l’alignement des images acquises successivement. Lorsqu’un réseau de neurones est utilisé de cette manière il est dit fonctionnel dans la présente demande dans la mesure où il permet de réaliser une fonction intermédiaire telle que la génération d’une carte de netteté ou une carte de profondeur ou encore pour réaligner des images.According to one embodiment, a sharpness estimation step is performed to generate sharp areas and remove blurred areas. In order to achieve this step, a sharpness estimation algorithm can be implemented. Among the algorithms that can be used within the invention, different solutions can be implemented such as a calculation of the mean or the variance of a gradient. Another method can be implemented by means of automatic learning from a learning function. The learning function can be deep learning type learning. According to one example, a CNN convolutional neural network may be implemented. Such an algorithm makes it possible to generate sharpness maps of all the images in order to identify the sharpest pixels in a second step to generate a completely sharp 3D image or at least the sharpest possible. Such a deep learning algorithm, i.e. deep learning, can also be implemented to process the alignment of successively acquired images. When a neural network is used in this way, it is said to be functional in the present application insofar as it makes it possible to perform an intermediate function such as the generation of a sharpness map or a depth map or even to realign pictures.

La prise d’images successives ayant un taux de recouvrement entre elles permet d’améliorer l’estimation de la netteté. Enfin, la connaissance à priori d’une part de la distance entre le point cible P1et l’optique à focale variable 20 et d’autre part de la focale permet également de réaliser une bonne estimation de la netteté puisqu’il existe des zones références pouvant être définies comme nette.The capture of successive images having a rate of overlap between them makes it possible to improve the estimation of the sharpness. Finally, the a priori knowledge on the one hand of the distance between the target point P 1 and the variable focal length optics 20 and on the other hand of the focal length also makes it possible to carry out a good estimation of the sharpness since there are reference areas that can be defined as net.

Lorsque les zones les plus nettes sont identifiées et les images découpées selon ces zones, le procédé de l’invention comprend une étape d’assemblage des zones nettes pour construire une image nette de la surface de toute ou partie du corps.When the sharpest zones are identified and the images cut out according to these zones, the method of the invention comprises a step of assembling the sharp zones to construct a sharp image of the surface of all or part of the body.

L’étape d’assemblage peut être vue comme une étape d’agrégation de portion d’image provenant de différentes prises de vues. Une autre manière de réaliser un assemblage est de réaliser une fusion des zones de recouvrement en adressant chaque point par les pixels les plus nets et en supprimant les pixels de ces zones de recouvrement les plus flous.The stitching step can be seen as a step of aggregating image portions from different shots. Another way of carrying out an assembly is to carry out a fusion of the zones of covering by addressing each point by the sharpest pixels and by removing the pixels of these zones of covering more fuzzy.

Selon un mode de réalisation, les images assemblées peuvent l’être dans un espace de deux dimensions ou dans un espace de trois dimensions. En effet, connaissant l’information de profondeur soit à partir d’un modèle de corps soit à partir d’une estimation lors de l’acquisition des images, une image 3D peut être automatiquement reconstruite.According to one embodiment, the assembled images can be assembled in a two-dimensional space or in a three-dimensional space. Indeed, knowing the depth information either from a body model or from an estimate during image acquisition, a 3D image can be automatically reconstructed.

L’image 3D peut être reconstruite consécutivement à l’assemblage lors d’un traitement appliqué à l’image finale agrégée.The 3D image can be reconstructed following assembly during processing applied to the final aggregated image.

Selon un autre exemple, un algorithme apprenant de bout-en-bout peut être utilisé pour générer à partir d’une pile d’images acquises, également appelée dans la terminologie anglosaxonne « stack » d’images, correspondant à la pluralité d’images collectée, en sortie une image nette d’une part et une carte de profondeur d’autre part. L’apprentissage d’une telle fonction apprenante, par exemple de type CNN, peut être réalisé à partir d’une part d’images acquises par une optique ou d'images générées par un calculateur d’un corps ou d’un modèle de corps et d’autre part une image 3D totalement nette obtenue à partir de l’ensemble des images. On parle alors ici d’un réseau de neurones de bout-en-bout pour désigner un réseau de neurones capable de générer directement en sortie une image 3D nette en tout point.According to another example, an end-to-end learning algorithm can be used to generate from a stack of acquired images, also called in English terminology “stack” of images, corresponding to the plurality of images collected, outputting a sharp image on the one hand and a depth map on the other. The learning of such a learning function, for example of the CNN type, can be carried out on the basis of images acquired by optics or images generated by a computer of a body or of a model of body and on the other hand a totally clear 3D image obtained from all the images. We then speak here of an end-to-end neural network to designate a neural network capable of directly generating a clear 3D image at any point.

Le passage par la carte de netteté de chacune des images de la pile d’images acquise est alors implicite dans la mise en œuvre d’un tel algorithme de bout en bout. Selon un mode de réalisation, ce dernier algorithme peut être entrainé sur des données synthétiques.The passage through the sharpness map of each of the images of the acquired image stack is then implicit in the implementation of such an end-to-end algorithm. According to one embodiment, this last algorithm can be trained on synthetic data.

On a en entrée les images de la pile de la zone au voisinage proche du point P1acquise et en sortie une image composite de cette même zone et la carte de profondeur. Un réseau de type réseau neuronal convolutif CNN peut être par exemple mis en œuvre.There are at input the images of the stack of the zone in the vicinity close to the acquired point P 1 and at the output a composite image of this same zone and the depth map. A network of the CNN convolutional neural network type can for example be implemented.

L’ensemble des données d’apprentissage permet d’entrainer le réseau de neurones pour obtenir une fonction apprenante configurée ou apprise avec des coefficients de pondération. Dans ce cas de figure, l’image 3D totalement nette peut être calculée à partir d’un autre algorithme de manière à superviser l’apprentissage du réseau de neurones. Un tel apprentissage peut également entrainer la génération d’une carte de profondeur.The set of learning data makes it possible to train the neural network to obtain a learning function configured or learned with weighting coefficients. In this case, the completely clean 3D image can be calculated from another algorithm in order to supervise the training of the neural network. Such learning can also lead to the generation of a depth map.

Le réseau de neurones utilisé qu’il soit de type fonctionnel ou de type bout-en-bout peut être configuré de différentes manières.The neural network used, whether functional or end-to-end, can be configured in different ways.

Selon un mode de réalisation, la configuration du réseau de neurones CNN peut comprendre :According to one embodiment, the configuration of the CNN neural network may include:

  • Des convolutions ou des couches de réseau de neurones comportant une pluralité de multiplications de matrices comportant des coefficients de pondération obtenus à partir d’un procédé d’apprentissage ;Convolutions or neural network layers comprising a plurality of multiplications of matrices comprising weighting coefficients obtained from a learning process;
  • des opérations non-linéaires.nonlinear operations.

Selon un mode de réalisation, la configuration du réseau de neurones CNN comprend en entrées des images acquises par l’optique.According to one embodiment, the configuration of the CNN neural network includes as inputs images acquired by the optics.

Le réseau de neurones CNN peut comprendre dans ses premières couches des convolutions puis des couches de neurones entièrement connectées, dite « fully connected layers » à la fin du modèle. Dans ce dernier cas, ce sont des neurones connectés à tous les neurones de la couche précédente et connectés à tous ceux de la couche suivante.The CNN neural network can include in its first layers convolutions then layers of fully connected neurons, called “fully connected layers” at the end of the model. In the latter case, they are neurons connected to all the neurons of the previous layer and connected to all those of the following layer.

Les couches de convolutions peuvent comprendre un balayage d’une matrice d’entrée produisant une série de calculs matriciels. Les autres couches du réseau de neurones comprennent, elles généralement des calculs matriciels sur la taille de la matrice d’entrée.The convolution layers can include a scan of an input matrix producing a series of matrix calculations. The other layers of the neural network generally include matrix calculations on the size of the input matrix.

Selon un exemple, chaque convolution comprend un produit de matrice entre une matrice d’entrées et une matrice de poids et la prise en compte d’un biais additionnel.According to one example, each convolution includes a matrix product between an input matrix and a weight matrix and the consideration of an additional bias.

L’application d’un traitement par couches successives au sein du réseau de neurones CNN comprend l’application d’une série de multiplications matricielles qui sont suivies d’une fonction non linéaire pour produire une sortie de ladite couche. La succession de ces opérations définit la profondeur du réseau de neurones.Applying layered processing within the CNN neural network includes applying a series of matrix multiplications which are followed by a nonlinear function to produce an output of said layer. The succession of these operations defines the depth of the neural network.

Selon un exemple de réalisation, le réseau de neurones est un perceptron multicouche, connu sous l’acronyme MLP et dans la terminologie anglo-saxonne par « multi-layers perceptron ». Selon un exemple, le réseau de neurones peut être un réseau équivalent au MLP.According to an exemplary embodiment, the neural network is a multilayer perceptron, known by the acronym MLP and in English terminology by “multi-layers perceptron”. According to one example, the neural network can be a network equivalent to the MLP.

Un avantage de l’invention est également de reconstruire une carte de profondeur relative de toute ou partie du corps. Par « carte de profondeur relative », on entend une carte où chaque point de l’image, par exemple chaque pixel, peut être positionné vis-à-vis d’un autre point de l’image reconstruite. Un des avantages de cette caractéristique est de permettre de supprimer les effets de perspective ou de déformation des images liés à l’angle de vue ou à l’optique elle-même. Un autre avantage de cette méthode est d’obtenir une estimation précise de la géométrie locale de la surface imagée. Cela permet d’augmenter et d’affiner le modèle 3D de corps lorsque ce dernier modèle de corps est disponible en entrée du système. Ces informations de profondeur estimée peuvent avoir une résolution comprise entre 500um et 1cm. Le modèle de corps en entrée peut alors être affiné afin de définir un modèle de corps 3D de haute résolution.An advantage of the invention is also to reconstruct a relative depth map of all or part of the body. By “relative depth map”, we mean a map where each point of the image, for example each pixel, can be positioned vis-à-vis another point of the reconstructed image. One of the advantages of this characteristic is to make it possible to eliminate the effects of perspective or deformation of the images linked to the viewing angle or to the optics themselves. Another advantage of this method is to obtain an accurate estimation of the local geometry of the imaged surface. This allows to augment and refine the 3D body model when this latest body model is available as input to the system. This estimated depth information can have a resolution between 500um and 1cm. The input body model can then be refined to define a high resolution 3D body model.

PlateformesPlatforms

Selon un exemple de réalisation, le dispositif de prise d’image 20 est monté sur une plateforme mobile. Selon un premier mode de réalisation, la plateforme mobile peut être agencée au bout d’un bras robotique mobile dans l’espace et comportant une pluralité de degré de liberté. Selon un second mode de réalisation, la plateforme est un drone commandé par une télécommande sans fil.According to an exemplary embodiment, the image pickup device 20 is mounted on a mobile platform. According to a first embodiment, the mobile platform can be arranged at the end of a robotic arm mobile in space and comprising a plurality of degrees of freedom. According to a second embodiment, the platform is a drone controlled by a wireless remote control.

Selon un autre mode de réalisation, la plateforme est un pistolet manuel comportant un embout distal sur lequel est agencé le dispositif de prise d’image 20 et notamment l’optique à focale variable.According to another embodiment, the platform is a manual gun comprising a distal end piece on which is arranged the image pickup device 20 and in particular the variable focal length optics.

Selon un autre mode, le dispositif est fixe et le patient est tourné au moyen d’une plateforme tournante ou inversement. L’invention s’adresse à tout type de plateforme mobile dynamique comportant un embout distal sur lequel est agencée l’optique à focale variable.According to another mode, the device is fixed and the patient is turned by means of a rotating platform or vice versa. The invention is intended for any type of dynamic mobile platform comprising a distal end piece on which the variable focal length optics are arranged.

Claims (21)

Procédé d’acquisition d’images d’une première surface (12) d’un corps humain à l’aide d’un dispositif de prise d’image (20) comportant une optique à focale variable (40), ledit procédé comportant les étapes de :
  • acquisitions (ACQ) d’une pluralité d’images à l’aide du dispositif de prise d’image (20), lesdites acquisitions étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande ;
  • construction d’une image nette d’une portion de la surface (12) du corps humain (10) à partir de la pluralité d’images acquises de ladite surface (12),
  • estimation de la carte de profondeur de la géométrie locale de la première surface (12).
Method for acquiring images of a first surface (12) of a human body using an image pickup device (20) comprising variable focal length optics (40), said method comprising the steps of:
  • acquisitions (ACQ) of a plurality of images using the image pickup device (20), said acquisitions being carried out by varying the focal distance (d f ) of the variable focal length optics (40) according to a control law;
  • construction of a sharp image of a portion of the surface (12) of the human body (10) from the plurality of acquired images of said surface (12),
  • estimation of the depth map of the local geometry of the first surface (12).
Procédé d’acquisition d’images selon la revendication 1 caractérisé en ce que la construction d’une image d’une portion de la surface (12) du corps (10) comprend:
  • découpage des images de la pluralité d’images à partir d’une information de netteté estimée pour générer des zones nettes et des zones floues ;
  • assemblage des zones nettes desdites images pour construire une image nette de la surface de la portion du corps.
Image acquisition method according to Claim 1, characterized in that the construction of an image of a portion of the surface (12) of the body (10) comprises:
  • cropping the images of the plurality of images from estimated sharpness information to generate sharp areas and blurred areas;
  • assembling the sharp areas of said images to construct a sharp image of the surface of the portion of the body.
Procédé d’acquisition selon l’une quelconque des revendications précédentes, caractérisé en ce que le procédé comprend une mesure ou une estimation (MES) d’une distance entre l’optique à focale variable et d’un premier point (P1) de la surface du corps, la loi de commande prenant en compte ladite distance mesurée ou estimée entre l’optique à focale variable (40) et le premier point (P1) pour modifier la focale de l’optique entre au moins deux images acquises au voisinage du point (P1) de la surface du corps.Acquisition method according to any one of the preceding claims, characterized in that the method comprises a measurement or an estimation (MES) of a distance between the variable focal length optics and a first point (P 1 ) of the surface of the body, the control law taking into account said measured or estimated distance between the variable focal length optics (40) and the first point (P 1 ) to modify the focal length of the optics between at least two images acquired at the vicinity of the point (P 1 ) of the surface of the body. Procédé d’acquisition selon la revendication précédente, caractérisé en ce que la mesure ou l’estimation (MES) de la distance entre l’optique à focale variable (40) et d’un premier point (P1) de la surface du corps est réalisée :
  • par une mesure de distance par point et/ou ;
  • par une mesure de distance combinée à une information topologique connue du modèle de corps de la surface du corps et/ou ;
  • par une information topologique connue du modèle de corps de la surface du corps et une information de position de l’optique par rapport au modèle 3D et/ou ;
  • par une mesure de distance combinée à une mesure de la géométrie locale de la zone imagée de la surface du corps et/ou,
  • par une mesure de la géométrie locale de la zone imagée de la surface du corps et une information de position de l’optique par rapport au modèle 3D.
Acquisition method according to the preceding claim, characterized in that the measurement or estimation (MES) of the distance between the variable focal length optics (40) and a first point (P1) of the surface of the body is carried out:
  • by a distance measurement per point and/or;
  • by a distance measurement combined with known topological information of the body model of the body surface and/or;
  • by known topological information of the body model of the surface of the body and position information of the optics with respect to the 3D model and/or;
  • by a distance measurement combined with a measurement of the local geometry of the imaged area of the body surface and/or,
  • by a measurement of the local geometry of the imaged zone of the surface of the body and information on the position of the optics with respect to the 3D model.
Procédé d’acquisition selon la revendication précédente, caractérisé en ce que le calcul de la distance entre l’optique à focale variable (40) et un premier point (P1) de la surface du corps est réalisée soit par une mesure ou par une estimation:
  • à l’aide d’un moyen de mesure de la distance (42) ;
  • à partir d’une information de netteté de l’ensemble des images acquises et d’un algorithme d’estimation du flou et/ou de la netteté.
Acquisition method according to the preceding claim, characterized in that the calculation of the distance between the variable focal length optics (40) and a first point (P1) of the surface of the body is realized either by a measurement or by an estimation:
  • using a distance measuring means (42);
  • from sharpness information of all the images acquired and from an algorithm for estimating the blur and/or the sharpness.
Procédé d’acquisition selon la revendication précédente, ledit procédé comportant en outre les étapes de :
  • Réception (REC) d’un modèle 3D d’au moins une partie d’un corps (10), ledit modèle 3D modélisant au moins une première surface (12) dudit corps (10);
  • Récupération (RECUP) de données topologiques locales du voisinage d’au moins le premier point (P1), lesdites données topologiques locales étant extraites du modèle 3D ou calculées à partir du modèle 3D ;
  • Les acquisitions (ACQ) d’une pluralité d’images étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande prenant en compte en outre les données topologiques locales (DTOPO) du voisinage du premier point (P1) de la première surface (12).
Acquisition method according to the preceding claim, said method further comprising the steps of:
  • receiving (REC) a 3D model of at least a part of a body (10), said 3D model modeling at least a first surface (12) of said body (10);
  • Recovery (RECUP) of local topological data from the neighborhood of at least the first point (P 1 ), said local topological data being extracted from the 3D model or calculated from the 3D model;
  • The acquisitions (ACQ) of a plurality of images being carried out by varying the focal distance (d f ) of the variable focal length optics (40) according to a control law also taking into account the local topological data (D TOPO ) of the neighborhood of the first point (P1) of the first surface (12).
Procédé d’acquisition d’images selon la revendication précédente, ledit procédé comportant en outre les étapes de :
  • Génération (GEN1) d’une trajectoire de traitement (30) à la surface (12) du modèle 3D au moyen d’un calculateur, ladite trajectoire de traitement (30) comportant au moins deux points à la surface (12) du modèle 3D ;
  • Construction d’une image d’une portion de la surface du corps au voisinage de la trajectoire de traitement (30).
Image acquisition method according to the preceding claim, said method further comprising the steps of:
  • Generation (GEN 1 ) of a treatment trajectory (30) on the surface (12) of the 3D model by means of a computer, said treatment trajectory (30) comprising at least two points on the surface (12) of the model 3D;
  • Construction of an image of a portion of the surface of the body in the vicinity of the treatment trajectory (30).
Procédé d’acquisition d’images selon l’une quelconque des revendications précédentes caractérisé en ce que la gamme de valeurs de la focale de l’optique à focale variable (40) est définie en fonction des données topologiques locales du modèle 3D au voisinage du premier point (P1) de la trajectoire de traitement (30).Image acquisition method according to any one of the preceding claims, characterized in that the range of values of the focal length of the variable focal length optics (40) is defined as a function of the local topological data of the 3D model in the vicinity of the first point (P 1 ) of the processing trajectory (30). Procédé d’acquisition d’images selon l’une quelconque des revendications précédentes caractérisé en ce que les images acquises sont traitées de manière à générer des informations de gradient de netteté entre les pixels d’une même image, lesdits gradients étant exploités de sorte à générer des consignes d’alignement entre les images acquises successives, lesdites images réalignées pour produire un ensemble de portions d’image couvrant des mêmes zones de pixels, les informations de netteté ou de flou ou de ces portions étant comparées pour sélectionner les pixels les plus nets, lesdits pixels sélectionnés étant fusionnées pour construire une image 2D ou 3D composite.Image acquisition method according to any one of the preceding claims, characterized in that the acquired images are processed so as to generate sharpness gradient information between the pixels of the same image, the said gradients being exploited so as to generating alignment instructions between the successive acquired images, said realigned images to produce a set of image portions covering the same areas of pixels, the sharpness or blur information or of these portions being compared to select the most sharp, said selected pixels being merged to construct a composite 2D or 3D image. Procédé d’acquisition d’images selon l’une quelconque des revendications précédentes caractérisé en ce que :
  • la construction de l’image d’une portion de la surface (12) du corps (10) comprenant le découpage et l’assemblage des images est réalisée à partir d’un algorithme apprenant, de type réseau de neurones, entrainé de sorte à produire une image 3D nette en sortie à partir d’une pluralité d’images acquises en entrée et/ou,
  • l’algorithme apprenant estimant la netteté ou le flou de chaque point des images de la pluralité d’images, ledit algorithme apprenant étant mis en œuvre par une première fonction apprenante (CNN1), par exemple une méthode d’apprentissage automatique.
Image acquisition method according to any one of the preceding claims, characterized in that:
  • the construction of the image of a portion of the surface (12) of the body (10) comprising the cutting and the assembly of the images is carried out using a learning algorithm, of the neural network type, trained so as to produce a sharp 3D image as output from a plurality of images acquired as input and/or,
  • the learning algorithm estimating the sharpness or the blur of each point of the images of the plurality of images, said learning algorithm being implemented by a first learning function (CNN 1 ), for example an automatic learning method.
Procédé d’acquisition d’images selon la revendication 10 caractérisé en ce que l’algorithme de traitement d’image comporte une sélection et un découpage de chaque groupe de pixels de chaque image ayant une netteté supérieure à un seuil prédéfini ou une netteté supérieure à la netteté de pixels d’au moins une autre image de la même zone.Image acquisition method according to Claim 10, characterized in that the image processing algorithm comprises a selection and a division of each group of pixels of each image having a sharpness greater than a predefined threshold or a sharpness greater than the pixel sharpness of at least one other image of the same area. Procédé d’acquisition d’images selon l’une quelconque des revendications précédentes caractérisé en ce qu’il comporte une étape d’estimation de la valeur de la distance entre l’optique à focale variable (40) et d’au moins un premier point (P1) de la trajectoire de traitement (30) à partir d’une estimation de la netteté de points des images de la pluralité d’images, ladite estimation étant réalisée à partir d’un algorithme de traitement d’images.Image acquisition method according to any one of the preceding claims, characterized in that it comprises a step of estimating the value of the distance between the variable focal length optics (40) and at least one first point (P 1 ) of the processing path (30) from an estimate of the sharpness of points of the images of the plurality of images, said estimate being made from an image processing algorithm. Procédé d’acquisition d’images selon la revendication précédente caractérisé en ce qu’il comprend une estimation de la profondeur relative entre les pixels d’une même image et une calibration de la mesure d’au moins un pixel pour générer une information de profondeur absolue d’au moins un pixel.Image acquisition method according to the preceding claim, characterized in that it comprises an estimation of the relative depth between the pixels of the same image and a calibration of the measurement of at least one pixel to generate depth information absolute of at least one pixel. Procédé d’acquisition d’images selon la revendication précédente caractérisé en ce qu’il comporte, entre les étapes de génération (GEN1) d’une trajectoire de traitement (30) et de mesure de la distance (MES), les étapes de :
  • Calcul (CALC) d’une trajectoire de guidage (32) de l’optique à focale variable (40) ;
  • Génération (GEN2) d’une cinématique de l’élément de guidage (50) de sorte qu’un point de l’optique à focale variable (40) soit asservi sur la trajectoire de guidage (32) ;
  • Activation (ACT) de la cinématique de l’élément de guidage (50) pour parcourir la trajectoire de guidage (32), ladite trajectoire de guidage (32) étant calculée en temps réel à partir du modèle 3D de surface.
Image acquisition method according to the preceding claim, characterized in that it comprises, between the generation steps (GEN1) of a processing trajectory (30) and distance measurement (MES), the steps of:
  • Calculation (CALC) of a guide path (32) of the variable focal length optics (40);
  • Generation (GEN 2 ) of a kinematics of the guide element (50) so that a point of the variable focal length optics (40) is slaved on the guide path (32);
  • Activation (ACT) of the kinematics of the guide element (50) to traverse the guide trajectory (32), said guide trajectory (32) being calculated in real time from the 3D surface model.
Dispositif de prise d’image (20) caractérisé en ce qu’il comporte une optique à focale variable (40) pour acquérir une pluralité d’images de la surface d’un corps d’un individu à l’aide du dispositif de prise d’image (20), lesdites acquisitions étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande, ledit dispositif (20) comportant au moins un calculateur configuré pour mettre en œuvre un algorithme de traitement d’images pour générer une image 3D nette.Image pickup device (20) characterized in that it includes variable focal length optics (40) for acquiring a plurality of images of the surface of an individual's body with the aid of the image (20), said acquisitions being made by varying the focal distance (d f ) of the variable focal length optics (40) according to a control law, said device (20) comprising at least one computer configured to put implements an image processing algorithm to generate a sharp 3D image. Dispositif de prise d’image (20) selon la revendication 15 caractérisé en ce qu’il comporte des moyens pour mesurer une distance entre l’optique à focale variable et d’un premier point (P1) de la surface du corps, lesdites acquisitions étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande prenant en compte la distance entre l’optique à focale variable (40) et le premier point (P1).Image pick-up device (20) according to Claim 15, characterized in that it comprises means for measuring a distance between the variable focal length optics and a first point (P 1 ) on the surface of the body, said acquisitions being carried out by varying the focal distance (d f ) of the variable focal length optics (40) according to a control law taking into account the distance between the variable focal length optics (40) and the first point (P 1 ). Dispositif de prise d’image (20) selon la revendication 15 caractérisé en ce qu’il comporte en outre une interface pour réceptionner un modèle 3D d’au moins une partie d’un corps humain (10), ledit modèle modélisant au moins une première surface (12) du corps et une plateforme mobile, ledit ou lesdits calculateurs étant configuré(s) pour :
  • Récupérer des données topologiques locales du voisinage d’au moins le premier point (P1), lesdites données topologiques locales étant extraites du modèle 3D ou calculées à partir du modèle 3D ;
  • Commander l’acquisition d’une pluralité d’image par le dispositif de prise d’image (20), lesdites acquisitions étant réalisées en faisant varier la distance focale (df) de l’optique à focale variable (40) selon une loi de commande prenant en compte la distance entre l’optique à focale variable (40) et le premier point (P1), et données topologiques locales (DTOPO) du voisinage du premier point (P1) de la première surface (12).
Image pickup device (20) according to claim 15, characterized in that it further comprises an interface for receiving a 3D model of at least one part of a human body (10), said model modeling at least one first surface (12) of the body and a mobile platform, said one or more computers being configured to:
  • Retrieving local topological data from the neighborhood of at least the first point (P 1 ), said local topological data being extracted from the 3D model or calculated from the 3D model;
  • Control the acquisition of a plurality of images by the image pickup device (20), said acquisitions being carried out by varying the focal distance (d f ) of the variable focal length optics (40) according to a law command taking into account the distance between the variable focal length optics (40) and the first point (P 1 ), and local topological data (D TOPO ) of the vicinity of the first point (P 1 ) of the first surface (12) .
Dispositif de prise d’image (20) selon l’une quelconque des revendications 15 à 17 caractérisé en ce qu’il comporte un élément de guidage (50) comportant l’optique à focale variable (40), et en ce que le ou les calculateur(s) est/sont configuré(s) pour :
  • Générer une trajectoire de traitement (30) à la surface du modèle 3D, ladite trajectoire de traitement (30) comportant au moins deux points à la surface (12) du modèle 3D ;
  • Calculer une trajectoire de guidage (32) de l’optique à focale variable (40) ;
  • Générer une cinématique de l’élément de guidage (50) de sorte qu’un point de l’optique à focale variable (40) soit asservi sur la trajectoire de guidage (32) ;
  • Activer une cinématique de l’élément de guidage (50) pour parcourir la trajectoire de guidage (32), ladite trajectoire de guidage (32) étant calculée en temps réel à partir du modèle 3D de surface.
Image pickup device (20) according to any one of Claims 15 to 17, characterized in that it comprises a guide element (50) comprising the variable focal length optics (40), and in that the the computer(s) is/are configured for:
  • generating a processing path (30) on the surface of the 3D model, said processing path (30) comprising at least two points on the surface (12) of the 3D model;
  • Calculate a guide trajectory (32) of the variable focal length optics (40);
  • Generate a kinematics of the guide element (50) so that a point of the variable focal length optics (40) is slaved to the guide path (32);
  • Activate a kinematics of the guide element (50) to traverse the guide trajectory (32), said guide trajectory (32) being calculated in real time from the 3D surface model.
Dispositif de prise d’image (20) selon la revendication 18 caractérisé en ce que l’optique à focale variable (40) est une lentille liquide, ladite lentille liquide étant agencée sur un élément de guidage (50) configuré pour déplacer ladite lentille.Image pickup device (20) according to claim 18 characterized in that the variable focal length optics (40) is a liquid lens, said liquid lens being arranged on a guide element (50) configured to move said lens. Plateforme mobile comportant un dispositif de prise d’image (20) selon l’une quelconque des revendications 15 à 19, ladite plateforme comportant une interface de commande pour recevoir des consignes de guidage calculées notamment à partir du modèle de corps calculé en temps réel.Mobile platform comprising an image pickup device (20) according to any one of claims 15 to 19, said platform comprising a command interface for receiving guidance instructions calculated in particular from the body model calculated in real time. Plateforme mobile selon la revendication 20 caractérisé en qu’elle est :
  • un bras robot comportant une pluralité de degré de liberté ;
  • Un drone comportant une optique formant un dispositif de prise d’image (20) ;
  • Un rail de guidage sur lequel le dispositif de prise d’image (20) est mobile ou :
  • Une cabine d’accueil d’un sujet humain comportant des moyens de guidage d’un dispositif de prise d’image (20),
  • Une plateforme comportant une partie fixe accueillant le dispositif de prise d’image (20) une partie mobile entrainant un individu en mouvement vis-à-vis de la partie fixe,
  • Un pistolet comportant un embout maintenant le dispositif de prise d’image (20).
Mobile platform according to Claim 20, characterized in that it is:
  • a robot arm having a plurality of degrees of freedom;
  • A drone comprising optics forming an image pickup device (20);
  • A guide rail on which the imaging device (20) is movable or:
  • A reception booth for a human subject comprising means for guiding an image pickup device (20),
  • A platform comprising a fixed part accommodating the image pickup device (20) a mobile part causing an individual to move vis-à-vis the fixed part,
  • A gun having a tip holding the imaging device (20).
FR2105767A 2021-06-01 2021-06-01 Process for constructing an image from a variable focal length optical device. Pending FR3123486A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR2105767A FR3123486A1 (en) 2021-06-01 2021-06-01 Process for constructing an image from a variable focal length optical device.
PCT/EP2022/064972 WO2022253925A1 (en) 2021-06-01 2022-06-01 Method for constructing an image from an optical device with variable focal length
EP22731608.0A EP4377880A1 (en) 2021-06-01 2022-06-01 Method for constructing an image from an optical device with variable focal length
AU2022286641A AU2022286641A1 (en) 2021-06-01 2022-06-01 Method for constructing an image from an optical device with variable focal length

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2105767A FR3123486A1 (en) 2021-06-01 2021-06-01 Process for constructing an image from a variable focal length optical device.
FR2105767 2021-06-01

Publications (1)

Publication Number Publication Date
FR3123486A1 true FR3123486A1 (en) 2022-12-02

Family

ID=77710904

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2105767A Pending FR3123486A1 (en) 2021-06-01 2021-06-01 Process for constructing an image from a variable focal length optical device.

Country Status (1)

Country Link
FR (1) FR3123486A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US20190353886A1 (en) * 2017-01-09 2019-11-21 Carl Zeiss Microscopy Gmbh Method for generating a three-dimensional model of a sample in a digital microscope and a digital microscope

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US20190353886A1 (en) * 2017-01-09 2019-11-21 Carl Zeiss Microscopy Gmbh Method for generating a three-dimensional model of a sample in a digital microscope and a digital microscope

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHOI DAVID ET AL: "Improved image selection for focus stacking in digital photography", 2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), IEEE, 17 September 2017 (2017-09-17), pages 2761 - 2765, XP033323078, DOI: 10.1109/ICIP.2017.8296785 *
DAVID E JACOBS ET AL: "Focal Stack Compositing for Depth of Field Control", 31 January 2012 (2012-01-31), XP055654614, Retrieved from the Internet <URL:https://graphics.stanford.edu/papers/focalstack/focalstack.pdf> [retrieved on 20191220] *
LI HENGJIA ET AL: "Perspective-Consistent Multifocus Multiview 3D Reconstruction of Small Objects", 2019 DIGITAL IMAGE COMPUTING: TECHNIQUES AND APPLICATIONS (DICTA), IEEE, 2 December 2019 (2019-12-02), pages 1 - 8, XP033683098, DOI: 10.1109/DICTA47822.2019.8946006 *
SUWAJANAKORN SUPASORN ET AL: "Depth from focus with your mobile phone", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), IEEE, 7 June 2015 (2015-06-07), pages 3497 - 3506, XP032793800, DOI: 10.1109/CVPR.2015.7298972 *
WANG CHENGYU ET AL: "Deep Learning for Camera Autofocus", IEEE TRANSACTIONS ON COMPUTATIONAL IMAGING, IEEE, vol. 7, 16 February 2021 (2021-02-16), pages 258 - 271, XP011843835, ISSN: 2573-0436, [retrieved on 20210313], DOI: 10.1109/TCI.2021.3059497 *
ZHAO XU ET AL: "3D visual sensing technique based on focal stack for snake robotic applications", RESULTS IN PHYSICS, vol. 12, 1 March 2019 (2019-03-01), NL, pages 1520 - 1528, XP055893346, ISSN: 2211-3797, Retrieved from the Internet <URL:https://www.sciencedirect.com/science/article/pii/S2211379718321144/pdfft?md5=b166fb3390b6c0d3b0048d2f8864b67e&pid=1-s2.0-S2211379718321144-main.pdf> DOI: 10.1016/j.rinp.2019.01.045 *

Similar Documents

Publication Publication Date Title
CN109451244B (en) Automatic focusing method and system based on liquid lens
CA2785405C (en) System and method for depth from defocus imaging
JP5866383B2 (en) Focus error estimation in images
EP2766872B1 (en) Method of calibrating a computer-based vision system onboard a craft
EP3941690A1 (en) Method for guiding a robot arm, guidance system
FR3013487A1 (en) METHOD OF ESTIMATING THE SPEED OF MOVING A CAMERA
FR3069690A1 (en) ELECTRONIC DEVICE AND METHOD OF GENERATING FROM AT LEAST ONE PAIR OF SUCCESSIVE IMAGES OF A SCENE, A SCENE DEPTH CARD, DRONE AND COMPUTER PROGRAM
CN109671031B (en) Multispectral image inversion method based on residual learning convolutional neural network
CN114353946B (en) Diffraction snapshot spectrum imaging method
FR3021127A1 (en) SYSTEM AND METHOD FOR ACQUIRING HYPERSPECTRAL IMAGES
EP2909671B1 (en) Method for designing a single-path imager able to estimate the depth of field
EP3143583B1 (en) System and method for improved computational imaging
CN108305290B (en) Accurate spectrum measuring method for moving target
FR3055727B1 (en) METHOD AND DEVICE FOR CHARACTERIZING ABERRATIONS OF AN OPTICAL SYSTEM
FR3123486A1 (en) Process for constructing an image from a variable focal length optical device.
WO2022253925A1 (en) Method for constructing an image from an optical device with variable focal length
FR2729236A1 (en) Robot positioning in three-dimensional space by active lighting
EP3942532A1 (en) Method for generating a three-dimensional working surface of a human body, system
US11578968B1 (en) Compact metalens depth sensors
US20190004283A1 (en) Plenoptic zoom with optimised range
CN108921053B (en) Scene target automatic analysis detection processing method and device
JP2016109489A (en) Image processing device, image processing method, and program and storage medium storing the same
Li et al. Deep neural network based shape reconstruction for application in robotics
FR2675330A1 (en) A METHOD AND A SYSTEM FOR AUTOMATICALLY FOCUSING A CAMERA USING TCD.
Liang et al. Wavefront coded-aperture pixel super-resolution imaging based on circular patterns

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221202

PLFP Fee payment

Year of fee payment: 3