WO2020016812A1 - Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel - Google Patents

Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel Download PDF

Info

Publication number
WO2020016812A1
WO2020016812A1 PCT/IB2019/056127 IB2019056127W WO2020016812A1 WO 2020016812 A1 WO2020016812 A1 WO 2020016812A1 IB 2019056127 W IB2019056127 W IB 2019056127W WO 2020016812 A1 WO2020016812 A1 WO 2020016812A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference plane
image
skin
projection
reconstruction
Prior art date
Application number
PCT/IB2019/056127
Other languages
English (en)
French (fr)
Inventor
Javier Avelino MARRUGO CANO
Andrés Guillermo MARRUGO HERNÁNDEZ
Jaime Enrique MENESES FONSECA
Lenny Alexandra ROMERO PÉREZ
Original Assignee
Universidad De Cartagena
Universidad Industrial De Santander
Universidad Tecnológica De Bolívar
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad De Cartagena, Universidad Industrial De Santander, Universidad Tecnológica De Bolívar filed Critical Universidad De Cartagena
Publication of WO2020016812A1 publication Critical patent/WO2020016812A1/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/444Evaluating skin marks, e.g. mole, nevi, tumour, scar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/02Devices for withdrawing samples
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Definitions

  • This invention relates to optical 3D reconstruction devices, particularly to devices and methods of image processing for 3D reconstruction on a surface, in particular a skin surface for detecting or analyzing papules formed by allergic skin reactions.
  • Skin tests for allergies are very important in the medical field because they allow you to determine the risks of certain treatments on people who need them.
  • Skin tests to diagnose allergic diseases serve to establish the etiology of allergic rhinitis, asthma, hives, food allergy and contact dermatitis.
  • the puncture test for type I reaction and the patch test for type IV reaction are the most used tests.
  • the traditional technique in this type of test involves the application of a drop of the allergenic extract on the skin, usually the forearm or back.
  • the skin is then punctured with a lancet so that the allergen penetrates under the surface of the skin and triggers the allergic reaction.
  • the reading is done after 15 to 20 minutes, where the result is positive if a papule with a diameter greater than 3mm and a variable area erythema is observed.
  • the skin is cleaned with 70% isopropyl or ethyl alcohol and allowed to dry by evaporation.
  • the points are marked, in which the test will be practiced, with a pen leaving a separation of 2 cm between them.
  • a drop of allergen substance solution is placed next to each mark made.
  • a needle or lancet is inserted through the drop and the skin is raised slightly preventing blood.
  • Document W02014140215 discloses a method that includes applying a first filter over the area and a second intermediate filter thereof. With these filters, any irregularity of the three-dimensional representation is filtered, below the predetermined size to generate the first intermediate representation. A second filter is applied to find a second default size. Next, the first intermediate representation is subtracted from the second intermediate representation and a three-dimensional representation of the papules is obtained, and finally the dimensions to be measured of the papules, diameter or volume are measured.
  • These intermediate representations can be noise reduction filters such as hair, and other skin imperfections.
  • the second filter may include a smoothing filter that can eliminate very small or larger papules depending on a maximum anticipation of size.
  • the device disclosed in document W02014140215 comprises a resting base for receiving a forearm from a person in a first direction; a light beam generator for emitting a light beam, the moving light beam generator being along the first direction and a sensor that is operatively coupled to the light beam generator to move with the light beam generator and receive the reflection from the beam of light emitted on the forearm, in which the device is configured to generate a three-dimensional representation of at least a portion of said forearm.
  • a disadvantage of this invention is that the scan is performed on a single papule on the skin, and is not able to scan a desired surface, such as a whole forearm or a patient's back, to make a single scan, a Complete test of papules on the skin.
  • an invention is required that improves the study of allergies and the study of papule detection in the skin that is versatile, in a way that only an instant photograph on the study surface is necessary, and obtaining data 3D of the skin surface without the patient's movement being able to interfere with the acquisition of the data and decrease the possibility of errors in the measurements.
  • the present invention refers to a device and a method implemented by computer for the 3D reconstruction of skin papules made for a skin allergy test. Unlike the prior art, the scanning of the present invention is performed with a single image, which reduces the possibility of human errors during measurement. Likewise, the present invention solves the need to come into contact with the patient and less immobile time is required, which further improves the measurement and the reconstruction process.
  • a 3D skin reconstruction device for the measurement of papules resulting in an allergy skin test, which includes: a projection device; a reference plane where the projection device projects; an observation device that observes the projection of the projection device; and a computing unit configured to perform a 3D reconstruction method of the skin surface, connected to the observation device and the projection device.
  • FIG. 1 Diagram of the device for 3D reconstruction of papules on the skin.
  • FIG. 2 Diagram of an embodiment of the invention.
  • FIG. 3 Flowchart of the method of 3D reconstruction of papules on the skin.
  • FIG. 4 Flow chart for the system calibration step.
  • FIG. 5 Flowchart of the Continuous Phase Recovery (RFC) process.
  • FIG.6 Flowchart of the 3D reconstruction step of the object.
  • FIG. 8 Orientation of the guide lines on the surface of the object.
  • FIG. 9 Calibration coefficients.
  • FIG. 10 Acquisition in a camera (a) Image of strips projected on the forearm of the subject, (b) Image of the projection of the guideline.
  • FIG. 11 The segmentation of the papules is shown, (a) and (b) are two different shots of the fringe images captured with a camera; (c) and (d) show the top views of the 3D reconstructions of the papules that are obtained, respectively, from the images (a) and (b).
  • FIG. 12 Shows the segmentation of the papules of the skin test performed on a subject.
  • FIG. 13 Shows the 3D reconstructions of the skin test performed on a subject.
  • the present invention teaches a device and a method of 3D reconstruction of the skin surface for the measurement of papules resulting from a skin allergy examination; where the reconstruction device widely includes: a projection device (1); a reference plane (3) where the projection device (1) projects; an observation device (2) that observes the projection of the projection device (1); and a computing unit (4) configured to perform a 3D reconstruction method of the skin surface, connected to the observation device (2) and the projection device (1).
  • the method of 3D reconstruction of papules by strip projection includes widely; a first step (a) of calibration; and a second step (b) of 3D reconstruction.
  • 3D is well known, not only in art but also colloquially, and it means three-dimensional.
  • 3D reconstruction we are talking about a digital representation, stored in the memory of a computer, of a real object previously sampled by a device designed for this purpose.
  • the projection device (1) includes: a projector (5) that projects a strip pattern (6) and guide lines (7) to the reference plane (3); a computing unit (4) connected to an observation device (2).
  • FIG. 2 shows another embodiment of the device for 3D reconstruction of papules, where the projection device (1) preferably, but not limited to, is composed of: a collimation lens (8) inside the projection device (1) in front of a source lighting (9); a strip projection element (10) placed behind a projection lens (11) that projects the strip pattern (6) onto the reference plane (3); an additional projector (12) projecting at least two guide lines (7) on the reference plane (3) within the visual field (13) of the observation device (2).
  • the projection device (1) preferably, but not limited to, is composed of: a collimation lens (8) inside the projection device (1) in front of a source lighting (9); a strip projection element (10) placed behind a projection lens (11) that projects the strip pattern (6) onto the reference plane (3); an additional projector (12) projecting at least two guide lines (7) on the reference plane (3) within the visual field (13) of the observation device (2).
  • the collimation lens (8) or collimator is a lens that obtains an organized or homogeneous beam of light from a divergent beam of light.
  • a light source (9) which can be a light source, for example, but is not limited to: a commercially used light bulb of the variety of commercial light bulbs, artificial light such as incandescent light; LED (for its acronym in English Light Emitting Diode), among other sources of light or combinations of these.
  • the strip projection pattern (10) can be a film with a pattern of lines consisting of parallel lines of the same thickness separated by the same distance between them, these values preferably vary within the ranges: for line thickness between 0.005 mm and 0.05 mm, and for separation between centers of consecutive lines of 0.005 mm and 0.01 mm with these ranges it is possible to obtain a projection of a strip pattern with a separation and thickness value close to 0.3mm above the reference plane (3).
  • the projection lens (11) is a projection lens for commercial use.
  • the additional projector (12) is a commercially used projector configured to project at least two guide lines (7) on the reference plane (3) detected in the field of vision (13) of the observation device (2).
  • the projector (12) can be connected to the computer unit (4) to control the projection of the guide lines (7).
  • the guide lines (7) are preferably two straight lines parallel to each other, pointed on each half of the field of view (13) of the observation device (2).
  • the observation device (2) preferably comprises two cameras (14) connected to a computing unit (4), said cameras (14) point their field of vision (13) towards the reference plane (3), and preferably the fields of vision (13) of the cameras (14) are perpendicular to the reference plane (3).
  • additional cameras (14) can be used in order to increase the field of view (13).
  • the cameras are 80mm apart from each other, and the field of vision (13) is the sum of the fields of vision of each camera (14).
  • the cameras are computer controlled and the acquisition is synchronized with the projection systems.
  • the field of vision (known as FOV) of a camera refers to the extent of the observable world that is seen at a given time, particularly in the case of optical instruments or sensors is a solid angle through which a detector is sensitive to electromagnetic radiation, for example, light.
  • the reference plane (3) is the place where the object to be reconstructed in 3D is located. In a preferred embodiment, it is located at a distance OD of the observation device (2) between 100mm and 400mm distance, preferably 250mm.
  • the computing unit (4) in one embodiment of the invention is a computer that implements the 3D reconstruction method as taught by this document.
  • the computing unit (4) can be a machine, with memory, configured only to perform image processing according to the 3D reconstruction method explained below.
  • the observation device (2) includes: a camera (14) connected to a computing unit (4); where its field of vision (13) is located perpendicularly towards the reference plane (3); and where more cameras can be included to widen the field of vision (13).
  • the distance between a first projector (5) and an additional projector (12) is 37mm, likewise, the distance between the projector (12) and the camera (14) closest to the projector is of l53mm.
  • the strip projection pattern (10) consists of 550 lines 0.01 mm thick and 0.02 mm apart between centers.
  • the projection lens (11) projects the strip pattern (6) on the reference plane (3) with an average separation between centers of 0.3mm between the projected bands.
  • the guide lines (7) must be pre-adjusted so that when they are projected on the reference plane (3) they coincide with the center lines of the fields of vision (13) of the cameras (14) of the observation device .
  • the reference plane (3) is removed and said object is placed in the place of the reference plane (3).
  • the purpose of these guide lines (7) is to locate the surface to be digitized approximately in the position and orientation where the reference plane (3) was.
  • the positioning of said object to be reconstructed can be done in several ways, for example: by moving the entire device, with the observation device (2) and the projection device (1) until the guide lines (7) projected on the object get to touch the center lines of the fields of vision of the cameras, preferably, as shown in FIG. 8; or it can also be positioned by moving and orienting the object, until the guide lines (7) projected on the object are touched to touch the center lines of the fields of vision of the cameras, in the preferred embodiment of the invention, as shown in the FIG 8. When this orientation is achieved, the object is ready for the 3D reconstruction method.
  • the absolute phase of an image that represents the shape of the object to be reconstructed is first obtained, and then those phase values in radians are mapped, to height values in millimeters. This means that it is necessary to make a continuous phase recovery of the images obtained and then develop it and obtain a continuous function with the height values of the pixels of the image to be reconstructed.
  • a continuous phase recovery method from a fringe image includes the following steps: (40) capture the fringe image with the observation device (2); (41) apply the Fourier transform on the image; (42) apply a bandpass filter; (26) apply the inverse Fourier transform; extract phase f (c, y) (27); unwrap the phase (28); The output of the method is the continuous phase (29) of the strip image the input image. It should be clarified that in the method described, the topography of the target surface is encoded in the images taken by the stripes, so with this method of phase recovery, 3D reconstruction of the image surface can be done in a unit of calculation.
  • the present invention teaches a method of 3D reconstruction of the papules on the skin, which is a process of digitization of the external surface of the papules, from the projection and acquisition of stripes and obtaining a 3D digital model of the sampled surface.
  • the 3D reconstruction of the papules in the present invention includes a step (a) of calibration of the device (15) and a step (b) of 3D reconstruction (30).
  • the calibration step (a) of the device (15) comprises the following steps to calibrate a 3D reconstruction device as taught in this document:
  • step (20) capture and save in memory the image of the stripe pattern (6); (22) translate the reference plane (3) in a DeltaZ value in the direction of the Z axis, and repeat N times from step (20);
  • step (16) consists in locating a flat surface at a distance DO of the observation device, this surface will be used as a reference plane (3), for the rest of the method.
  • the reference plane (3) is located perpendicularly under the observation device (2), but is not limited and could be inclined towards the reference plane
  • Step (17) the reference plane must be moved and rotated in such a way that, when projecting the guide lines, they coincide in the central columns of the images obtained from the cameras (14) of the visual field of the observation device (2). ), in the embodiment of FIG2.
  • step (18) in which the values of: the DeltaZ offset interval and the number of N displacements are entered. These values can be entered by a user and set the calibration volume where the objects to be reconstructed will be located. It is understood that DeltaZ is a numerical value that corresponds to a distance, likewise, N is also a numerical value that preferably corresponds to an even number, see glossary.
  • step (20) the strip pattern (6) is projected on the reference plane (3) with the projection device (1).
  • step (21) each image of each position is captured and stored in memory, it is understood that i is a number value and corresponds to each image captured by each position of the reference plane (3) on the coordinate axis Z.
  • step (22) the reference plane is transferred a DeltaZ value, and steps (20, 21 and 22) are repeated until N displacements are completed.
  • step (23) the continuous phase f (c, y) of each image stored in a memory register is obtained, with the fringe images acquired by the Continuous Phase Recovery (RFC) method FIG. 5, described above.
  • RRC Continuous Phase Recovery
  • step (24) the coefficients of the nonlinear calibration equation are calculated using the least squares method:
  • a ⁇ p (x, y) a (x, y) Z 2 + b (x, y) Z + c (x, y)
  • N the number of data of Af (c, y) and Z are obtained by image point (x, y).
  • the calibration ratio defined by the polynomial of order 2, described above, is adjusted by least squares. Referring to FIG. 7, the planes are observed with data of the images of the stripes (50) and continuous phases (51) as a function of Z, for a point (x 0 , and 0 ), in the Figure the graph (52) of Af vs Z.
  • the conversion factor per camera which relates millimeter / pixel, in horizontal and vertical directions, is calculated from the grid images obtained. In an example of the present method, 110 millimeters on the plane equals 1280 pixels in the camera in the horizontal direction and 88 millimeters per 1024 pixels in the vertical direction. These factors are stored in the memory of the computing unit.
  • a step (30) of scanning the object or skin surface is required, which includes the steps:
  • (37) solve the second order polynomial of the calibration equation by entering Acp obj and using the coefficients a, b and c stored in memory of the unit of computation, to obtain roots of the polynomial of order 2;
  • step (388) choose the root that has Z values in the calibration range, obtaining an image in coordinates (X, Y) in pixels and for each point a value of Z in mm.
  • the X and Y axes are scaled from pixels to millimeters using a scale factor obtained from step (a).
  • step (d) of 3D reconstruction are described in detail below:
  • step (30) an image of the object, which is the surface of the skin, is taken with the observation device, and this image is stored in memory.
  • two cameras (14) are used in the observation device (2).
  • step (32) an image of the projection of the fringe pattern on the object is captured, and in consequence another image with the guide lines (7) on the object.
  • the order of image capture is interchangeable.
  • step (35) the value of the phase difference Af is extracted from the interception point (xo, i) calculated in step (33), obtaining Af (c 0 , g 0 ).
  • the “z” axis corresponds to an axis parallel to a vector normal to the surface of the reference plane (3) ”.
  • step (37) the non-linear calibration equation is solved, clearing Z in the non-linear calibration equation by replacing the phase difference corrected in step (36) Af and using the coefficients a, b and c stored in a register of memory of the computing unit, obtaining a value of Z in the calibration range.
  • 3D reconstruction and automated measurements are carried out. From the 3D reconstruction of the surface of the skin region, for example, the forearm of a subject, an automatic 3D segmentation is performed.
  • Automatic 3D segmentation consists in obtaining an initial position of each papule from a search process by templates, correlations, or even by selecting a user. In the preferred embodiment from this initial seed position, segmentation is performed by a region growth algorithm that allows the papule to be digitally segmented. From the contome obtained the area is determined, the largest distance between two points of the contome and the volume.
  • FIG. 10 are shown the images of strips and guide lines captured by one of the cameras (14) of the observation device (2) for a skin pmeba performed on a subject, using the embodiment shown in FIG 2.
  • FIG. 11 the images of captive strips are shown by the two cameras (14) of the observation device (2) and their corresponding segmentations in a cutaneous pmeba performed in another subject.
  • Figure 13 shows the 3D reconstructions of the strips captured by the cameras (14) of the observation device (2) in a test performed on a subject.
  • the maximum distance in the contour of the demarcated papule can be calculated as DR and corresponds to a value of 11.70 mm.
  • Tests of the device and 3D reconstruction method were performed for the measurement of papules on the skin, in which the skin is prepared in advance by means of a scarification skin test.
  • the scarification skin test is a routine test in the allergist's office. It is practiced with an allergen panel that is generally defined according to the epidemiology of the region.
  • the technique consists in selecting a region of healthy skin of a subject and that does not present scoriation or signs of inflammatory or tumor skin disorders.
  • this skin test is performed in the dorsal region (back), in the face of the forearm, however, it can be performed in any other part of the body.
  • a scarification skin test was performed on a subject (FIGs 10 and 11).
  • a panel of 11 allergens was used (Blomia tropicalis, Dermatophagoides pteronyssinus, Dermatophagoides farinae, Dog epithelium, Cat epithelium, cockroach epithelium, grasses, egg, Milk of cow, shrimp, peanut), a positive control (Histamine 10mg / ml) and a negative one (Diluente).
  • the average diameter of the papule formed by the allergen was measured with the 3D reconstruction device that implements the method of the present invention. Referring to FIG.
  • an image (a) captured by the observation device (2) is shown, said image corresponds to the surface of the skin of the flying face of the left forearm of a subject subjected to the projection of the strips (6) projected by the projection device (1) of the embodiment of FIG. 2, on the left side of the figure an image (b) similar to that of the image (a) is shown in which the projection of guide lines is also observed.
  • images of capturing strips are shown by two cameras (14) of the observation device (2) and their corresponding segmentations in a skin test performed on the same subject.
  • the maximum distance in the contour of the demarcated papule can be calculated as DR and corresponds to a value of 11.70 mm.
  • FIG 13 shows the 3D reconstructions of the strips captured by the cameras (14) of the observation device (2) in a test performed on a subject.
  • the method was implemented in a program with image processing capacity, in the following case the commercial program LabVIEW 2014 of National Instruments was used in conjunction with a program like Matlab.
  • the interface is based on a hybrid programming approach which allows the integration of MATLAB instances into the LabVIEW graphical environment.
  • LabVIEW allows to acquire images from multiple cameras of the observation device and the control of the projection device.
  • 3D scanning is performed by the 3D reconstruction device that implements the 3D reconstruction method of the present invention.
  • the subject's arm With the help of the projection of the guide lines (7) the subject's arm is positioned so that it is centered in the field of vision of the cameras.
  • the images of stripes (7) and the center line are automatically acquired. The details of this procedure have been described above.
  • a panel of 11 extracts was applied to the patient, a positive and a negative control.
  • 8 papules caused by 8 extracts could be measured.
  • FIG. 11 shows the segmentation of the papules in a subject: (a) and (b) are two different shots captured with the system cameras; (c) and (d) shows the top views of the reconstructions of the papules that are obtained from images (a) and (b), respectively.
  • the measurements of the diameters of the papules are recorded in the following table.
  • FIG. 13 shows the perspective view of the 3D reconstructions of the images of the first patient and the segmentation of the papules.
  • the texture of the captured image has been mapped to the 3D reconstruction of the skin surface.
  • ⁇ Field of vision It is a portion of the space that a camera captures at a given time, refers to the angle that can be covered through which a camera can detect electromagnetic radiation; • Transversal field of view: refers to the observable portion of a flat object, which cuts the field of vision, located at a certain distance from the camera. It is usually specified with respect to the distance to the camera and its width and height dimensions, or only the width if it is symmetrical;
  • DeltaZ refers to a distance between a position of the reference plane from a previous position, so a DeltaZ interval refers to the change of position in Z with a value equal to DeltaZ;
  • N is used as an integer, which indicates a number of displacements to perform the method calibration, preferably the value of N is even;
  • Coefficients a, b and c are the numerical coefficients that are used on the calibration equation.

Abstract

Esta invención comprende dispositivos y métodos de procesamiento de imágenes para hacer una reconstrucción 3D de una superficie cutánea para detectar o analizar pápulas formadas por reacciones alérgicas. El método incluye: un método de calibración del dispositivo y uno de reconstrucción 3D. El método de calibración incluye: ubicar un objeto de superficie plana a una distancia determinada y perpendicular al dispositivo de observación (plano de referencia); proyectar un patrón de franjas sobre el mismo; capturar una imagen de la proyección; desplazar el plano de referencia tomando imágenes; obtener la fase continua de cada imagen; y calcular la ecuación no lineal que mapea cada fase de la imagen capturada. El método de reconstrucción 3D incluye: posicionar la superficie de la piel; capturar una imagen con el patrón de franjas proyectado y otra con las líneas guía; obtener la fase de la primera imagen y la diferencia de fases respecto a una referencia; y calcular una imagen con los valores en rango correspondientes a la solución de la ecuación de calibración.

Description

DISPOSITIVO Y MÉTODO DE RECONSTRUCCIÓN 3D PARA LA MEDICIÓN DE PÁPULAS EN LA PIEL
CAMPO DE LA INVENCIÓN
Esta invención se relaciona con dispositivos ópticos de reconstrucción 3D, particularmente a dispositivos y métodos de procesamiento de imágenes para hacer una reconstrucción 3D sobre una superficie, en particular una superficie cutánea para detectar o analizar pápulas formadas por reacciones alérgicas en la piel.
DESCRIPCIÓN DEL ESTADO DE LA TÉCNICA
Las pruebas cutáneas para alergias son muy importantes en el campo de la medicina porque permiten determinar los riesgos de ciertos tratamientos sobre las personas que los necesitan. Las pruebas cutáneas para diagnosticar enfermedades alérgicas sirven para establecer la etiología de rinitis alérgica, asma, urticaria, alergia a los alimentos y dermatitis de contacto. La prueba cutánea de puntura para reacción tipo I y la prueba de parche para la reacción tipo IV, son los test más usados.
La técnica tradicional en este tipo de prueba consiste en la aplicación de una gota del extracto alergénico sobre la piel, generalmente el antebrazo o la espalda. Luego se pincha la piel con una lanceta para que el alérgeno penetre bajo la superficie de la piel y desencadena la reacción alérgica. La lectura se realiza pasados 15 a 20 minutos, en donde el resultado es positivo si se observa una pápula con un diámetro superior a 3mm y un eritema de área variable.
Para realizar el procedimiento se limpia la piel con alcohol isopropílico o etílico al 70% y se deja secar por evaporación. Se marcan los puntos, en que se practicará la prueba, con un bolígrafo dejando una separación de 2 cm entre ellos. Se coloca una gota de solución de la sustancia alergénica, al lado de cada marca efectuada. Se introduce una aguja o lanceta, a través de la gota y se levanta ligeramente la piel evitando que sangre.
En muchos servicios de procedimientos que realizan pruebas cutáneas para la detección o diagnóstico de alergias, continúan utilizando las escalas donde se considera la prueba positiva +: diámetro de 3-9 mm; positiva ++: diámetro de 10-14 mm; positiva +++: diámetro de 15-19 mm y positiva ++++: diámetro superior a 19 mm.
Así, en el estado de la técnica se encuentran métodos para medir pápulas y detectar alergias a través de la representación tridimensional de la superficie de la piel, como por ejemplo los divulgados por el documento W02014140215 y el artículo DOI: 10.111 l/j .1365-2230.2008.02897.X.
El documento W02014140215, divulga un método que incluye aplicar un primer filtro sobre el área y un segundo filtro intermedio de la misma. Con estos filtros, se filtra cualquier irregularidad de la representación tridimensional, por debajo del tamaño predeterminado para generar la primera representación intermedia. Un segundo filtro se aplica para encontrar un segundo tamaño predeterminado. A continuación, la primera representación intermedia es restada a la segunda representación intermedia y se obtiene una representación tridimensional de las pápulas, y finalmente se miden las dimensiones que se quieran medir de las pápulas, diámetro o volumen. Estas representaciones intermedias pueden ser filtros de reducción de ruido como pelo, y otras imperfecciones de la piel. El segundo filtro puede incluir un filtro de suavizado que puede eliminar las pápulas muy pequeñas o las más grandes dependiendo de una anticipación máxima de tamaño.
Además, el dispositivo divulgado en el documento W02014140215, comprende una base en reposo para recibir un antebrazo de una persona en una primera dirección; un generador de haz de luz para emitir un haz de luz, siendo el generador de haz de luz móvil a lo largo de la primera dirección y un sensor que está acoplado operativamente al generador de haz de luz para moverse con el generador de haz de luz y recibir la reflexión desde el haz de luz emitido sobre el antebrazo, en el que el dispositivo está configurado para generar una representación tridimensional de al menos una porción de dicho antebrazo.
Esta configuración presenta una unidad que debe moverse mientras escanea sobre la piel del paciente, esto requiere que cuando la unidad está en movimiento el paciente debe mantenerse quieto ya que de no hacerlo puede agregar ruido a la lectura, lo que puede obligar a realizar el escaneo otra vez, lo cual representa una desventaja El documento R. V. Dos Santos, A. Mlynek, H. C. Lima, P. Martas, M. Maurer Beyond fíat weals: validation of a three - dimensional imaging technology that will improve skin allergy research, doi: 10.1 l l l/j.1365-2230.2008.02897. x (Pl), enseña que se pueda utilizar un dispositivo de reconstrucción 3D comercial, para medir pápulas en la piel y obtener resultados más consistentes en las pruebas cutáneas de alergias. Una desventaja de esta invención es que el escaneo lo realiza sobre una sola pápula en la piel, y no es capaz de escanear una superficie deseada, como por ejemplo todo un antebrazo o la espalda de un paciente, para hacer en un solo escaneo, una prueba completa de pápulas en la piel.
La idea de digitalizar y medir las pápulas con ayuda de un computador es válida para mejorar el diagnóstico y otorgar más datos para futuros estudios al respecto de alergias.
Lo anterior indica que se requiere una invención que mejore el estudio de las alergias y el estudio de detección en pápulas en la piel que sea versátil, de una manera en la que sólo sea necesario una fotografía instantánea sobre la superficie de estudio, y obteniendo datos 3D de la superficie de la piel sin que el movimiento del paciente pueda interferir en la adquisición de los datos y disminuir la posibilidad de errores en las medidas.
Breve descripción de la invención
La presente invención hace referencia a un dispositivo y un método implementado por computador para la reconstrucción 3D de pápulas en la piel hechas para una prueba cutánea de alergias. A diferencia del arte previo, el escaneo del presente invento se realiza con una sola imagen, lo que reduce la posibilidad de errores humanos durante la medición. Así mismo, el presente invento solventa la necesidad de entrar en contacto con el paciente y se le exige menos tiempo inmóvil, lo que mejora aún más la medición y el proceso de reconstrucción.
Además se enseña un dispositivo de reconstrucción 3D de la superficie de la piel para la medición de pápulas resultantes en un examen cutáneo de alergia, que incluye: un dispositivo de proyección; un plano de referencia dónde el dispositivo de proyección proyecta; un dispositivo de observación que observa la proyección del dispositivo de proyección; y una unidad de cómputo configurada para realizar un método de reconstrucción 3D de la superficie de la piel, conectada al dispositivo de observación y al dispositivo de proyección.
Y un método para la reconstrucción 3D de la superficie de la piel, que consiste en los siguientes pasos: a, calibrar un dispositivo de reconstrucción 3D de acuerdo con cualquier reivindicación anterior mediante los siguientes pasos: ubicar un objeto de superficie plana a una distancia DO dispuesta de manera perpendicular al dispositivo de observación, el cual sirve de plano de referencia o Z=0 mm; proyectar mediante un dispositivo de proyección, líneas guía sobre el plano de referencia de tal manera que estén centradas respecto a dos mitades del campo de visión del dispositivo de observación, esta posición del plano de referencia corresponde a Z=0 mm; introducir valores de intervalo DeltaZ y número N de desplazamientos, cuyos valores corresponden respectivamente al valor del incremento en dirección del plano de referencia Z que se debe desplazar el plano de referencia y al número N total de desplazamientos para calibrar el dispositivo; desplazar el plano de referencia a la posición -DeltaZ*N/2, esto fija la dirección del eje Z; la posición -DeltaZ*N/2 corresponde a la posición en Z más lejana de las cámaras; realizar la proyección del patrón de franjas sobre el plano de referencia con el dispositivo de proyección; capturar y guardar en memoria la imagen del patrón de franjas; trasladar el plano de referencia en un valor DeltaZ en dirección del eje Z, y repetir N veces desde el paso; obtener la fase continua f(c, y) de cada imagen mediante RFC (Recuperación de Fase Continua) una vez se han desplazado N veces el plano de referencia, adquiriendo así N+l imágenes de franjas asociadas a posiciones Z que varían secuencialmente en el rango de (-Zm, ... , 0, ... +Zm), donde Zm=DeltaZ*N/2, a intervalos DeltaZ; calcular por mínimos cuadrados los coeficientes a, b y c de la ecuación de calibración no lineal: Af(c , y ) = a(x , y )Z2 + b(x , y )z + c(x , y ) para cada punto (x , y ) de la imagen de cada cámara; y b, reconstruir en 3D la superficie de la piel.
Breve descripción de las figuras FIG.1 Diagrama del dispositivo para la reconstrucción 3D de pápulas en la piel.
FIG.2 Diagrama de una modalidad de la invención.
FIG.3 Diagrama de flujo del método de reconstrucción 3D de pápulas en la piel.
FIG.4 Diagrama de flujo para el paso de calibración del sistema.
FIG.5 Diagrama de flujo del proceso de Recuperación de Fase Continua (RFC).
FIG.6 Diagrama de flujo del paso de reconstrucción 3D del objeto.
FIG.7 Calibración no lineal. Recorrido lineal en z de [-25.00, +25.00] mm en Dz = 0.250 mm.
FIG.8 Orientación de las líneas guía sobre la superficie del objeto.
FIG. 9 Coeficientes de calibración.
FIG.10 Adquisición en una cámara (a) Imagen de franjas proyectadas sobre el antebrazo del sujeto, (b) Imagen de la proyección de la línea guía.
FIG.11 Se muestra la segmentación de las pápulas, (a) y (b) son dos tomas diferentes de las imágenes de franjas capturadas con una cámara; (c) y (d) muestran las vistas superiores de las reconstrucciones 3D de las pápulas que se obtienen, respectivamente, de las imágenes (a) y (b).
FIG.12 Muestra la segmentación de las pápulas de la prueba cutánea realizada en un sujeto.
FIG.13 Muestra las reconstrucciones 3D de la prueba cutánea realizada en un sujeto.
Descripción detallada de la invención
Haciendo referencia a la FIG. 1, la presente invención enseña un dispositivo y un método de reconstrucción 3D de la superficie de la piel para la medición de pápulas que resultan de un examen cutáneo de alergia; donde el dispositivo de reconstrucción incluye ampliamente: un dispositivo de proyección (1); un plano de referencia (3) dónde el dispositivo de proyección (1) proyecta; un dispositivo de observación (2) que observa la proyección del dispositivo de proyección (1); y una unidad de cómputo (4) configurada para realizar un método de reconstrucción 3D de la superficie de la piel, conectada al dispositivo de observación (2) y al dispositivo de proyección (1).
Y donde el método de reconstrucción 3D de pápulas por proyección de franjas, incluye ampliamente; un primer paso (a) de calibración; y un segundo paso (b) de reconstrucción 3D. Para efectos del presente documento el término 3D es muy conocido, no solo en el arte sino también coloquialmente, y quiere decir tridimensional. Similarmente, cuando se hace referencia a reconstrucción 3D, se está hablando de una representación digital, almacenada en la memoria de un computador, de un objeto real previamente muestreado por un dispositivo diseñado para tal fin.
Haciendo referencia a la FIG.1 se puede apreciar un diagrama del dispositivo para la reconstrucción 3D en una de sus realizaciones. En esta realización de la invención, el dispositivo de proyección (1) incluye: un proyector (5) que hace una proyección de un patrón de franjas (6) y líneas de guía (7) al plano de referencia (3); una unidad de cómputo (4) conectada a un dispositivo de observación (2).
La FIG. 2 muestra otra realización del dispositivo para la reconstrucción 3D de pápulas, donde el dispositivo de proyección (1) preferiblemente, más no limitadamente, está compuesto por: un lente de colimación (8) dentro del dispositivo de proyección (1) frente a una fuente de iluminación (9); un elemento de proyección de franjas (10) colocado detrás de un lente de proyección (11) que realiza la proyección del patrón de franjas (6) sobre el plano de referencia (3); un proyector adicional (12) que proyecta al menos dos líneas de guía (7) sobre el plano de referencia (3) dentro del campo visual (13) del dispositivo de observación (2).
El lente de colimación (8) o colimador, como es de conocimiento general es un lente que obtiene un haz organizado u homogéneo de luz de un haz divergente de luz. Una fuente de iluminación (9) que puede ser una fuente de luz, por ejemplo, pero no se limita a: un bombillo de uso comercial de la variedad de bombillos comerciales, luz artificial como por ejemplo, luz incandescente; LED (por sus siglas en ingles Light Emitting Diode), entre otras fuentes de luz o combinaciones de estas.
El patrón de proyección de franjas (10), puede ser una filmina con un patrón de líneas que consiste en líneas paralelas de un mismo grosor separadas una misma distancia entre ellas, estos valores varían preferiblemente dentro de los rangos: para grosor de línea entre 0,005 mm y 0,05 mm, y para separación entre centros de líneas consecutivas de 0,005 mm y 0,01 mm con estos rangos es posible obtener una proyección de un patrón de franjas con un valor de separación y de grosor cercano a los 0,3mm sobre el plano de referencia (3).
El lente de proyección (11) es un lente de proyección de uso comercial.
Haciendo referencia a la FIG.2 se muestra en un ejemplo particular, el proyector adicional (12) es un proyector de uso comercial configurado para proyectar al menos dos líneas guía (7) sobre el plano de referencia (3) detectadas en el campo de visión (13) del dispositivo de observación (2). El proyector (12) puede estar conectado a la unidad de cómputo (4) para controlar la proyección de las líneas guía (7). Las líneas guía (7) preferiblemente son dos líneas rectas paralelas entre sí, apuntadas sobre cada mitad del campo de visión (13) del dispositivo de observación (2).
El dispositivo de observación (2) preferiblemente comprende dos cámaras (14) conectadas a una unidad de cómputo (4), dichas cámaras (14) apuntan su campo de visión (13) hacia el plano de referencia (3), y preferiblemente los campos de visión (13) de las cámaras (14) son perpendiculares al plano de referencia (3).
Por otra parte, en otra realización, se pueden usar cámaras (14) adicionales con el fin de incrementar el campo de visión (13). En una configuración preferida las cámaras están distanciadas 80mm entre sí, y el campo de visión (13) es la suma de los campos de visión de cada cámara (14).
En una realización preferida del dispositivo de reconstrucción 3D, el campo de visión (13) de cada cámara abarca 25 grados lo que para una distancia D0=250 mm corresponde a un campo de visión transversal aproximado de l lO mm. Las cámaras son controladas por computador y la adquisición se sincroniza con los sistemas de proyección.
Se entiende que el campo de visión (conocido como FOV por sus siglas en ingles“Field Of View”) de una cámara, hace referencia a la extensión del mundo observable que es visto en un momento dado, particularmente, en el caso de instrumentos ópticos o sensores es un ángulo solido a través del cual un detector es sensible a la radiación electromagnética, por ejemplo, la luz. El plano de referencia (3) es el lugar dónde se ubica el objeto que va a ser reconstruido en 3D. En una realización preferida se ubica a una distancia DO del dispositivo de observación (2) entre lOOmm y 400mm de distancia, preferiblemente de 250mm.
La unidad de cómputo (4) en una modalidad de la invención, es un computador que implementa el método de reconstrucción 3D como el enseñado por este documento. En otras realizaciones, la unidad de cómputo (4) puede ser una máquina, con memoria, configurada únicamente para realizar el procesamiento de la imagen según el método de reconstrucción 3D explicado más adelante.
El dispositivo de observación (2) incluye: una cámara (14) conectada a una unidad de cómputo (4); donde su campo de visión (13) se ubica perpendicularmente hacia el plano de referencia (3); y donde se pueden incluir más cámaras para ampliar el campo de visión (13).
Haciendo referencia a la FIG. 2, en una realización del dispositivo, la distancia entre un primer proyector (5) y un proyector adicional (12) es de 37mm, así mismo, la distancia entre el proyector (12) y la cámara (14) más cercana al proyector es de l53mm. El patrón de proyección de franjas (10) consta de 550 líneas de 0.01 mm de grosor y 0.02 mm de separación entre centros. La lente de proyección (11) realiza la proyección del patrón de franjas (6) sobre el plano de referencia (3) con una separación entre centros promedio de 0.3mm entre las franjas proyectadas.
En la realización de la FIG. 2, las líneas de guía (7), deben estar ajustadas previamente para que al ser proyectadas sobre el plano de referencia (3) coincidan con las líneas centrales de los campos de visión (13) de las cámaras (14) del dispositivo de observación. Cuando se va a reconstruir un objeto se retira el plano de referencia (3) y se coloca dicho objeto en el lugar del plano de referencia (3). La finalidad de estas líneas de guía (7) es ubicar la superficie a digitalizar aproximadamente en la posición y orientación donde estaba el plano de referencia (3).
El posicionamiento de dicho objeto a reconstruir, se puede hacer de varias maneras, por ejemplo: desplazando todo el dispositivo, con el dispositivo de observación (2) y el dispositivo de proyección (1) hasta conseguir que las líneas de guía (7) proyectadas sobre el objeto toquen las líneas centrales de los campos de visión de las cámaras, preferiblemente, como se muestra en la FIG. 8; o también se puede posicionar desplazando y orientando el objeto, hasta conseguir que las líneas guía (7) proyectadas sobre el objeto toquen las líneas centrales de los campos de visión de las cámaras, en la realización preferida de la invención, como se muestra en la FIG 8. Cuando se consigue esta orientación el objeto está listo para el método de reconstrucción 3D.
En el método de reconstrucción 3D se obtiene primero la fase absoluta de una imagen que representa la forma del objeto a reconstruir, y luego se mapean esos valores de fases en radianes, a valores de altura en milímetros. Esto quiere decir que es necesario hacer una recuperación de fase continua de las imágenes obtenidas para luego desenvolverla y obtener una función continua con los valores de alturas de los píxeles de la imagen a reconstruir.
Así, refiriéndose a la FIG. 5, un método de recuperación de fase continua a partir de una imagen de franjas, incluye los siguientes pasos: (40) capturar la imagen de franjas con el dispositivo de observación (2); (41) aplicar la transformada de Fourier sobre la imagen; (42) aplicar un filtro pasa-banda; (26) aplicar la transformada inversa de Fourier; extraer la fase f(c, y) (27); desenvolver la fase (28); La salida del método es la fase continua (29) de la imagen de franjas la imagen de entrada. Cabe aclarar, que en el método descrito la topografía de la superficie objetivo queda codificada en las imágenes tomadas por las franjas por lo que con este método de recuperación de fase continúa se puede hacer la reconstrucción 3D de la superficie de la imagen en una unidad de cómputo.
Particularmente, la presente invención enseña un método de reconstrucción 3D de las pápulas en la piel, el cual es un proceso de digitalización de la superficie externa de las pápulas, a partir de la proyección y adquisición de franjas y la obtención de un modelo digital 3D de la superficie muestreada. Haciendo referencia a la FIG. 3, la reconstrucción 3D de las pápulas en la presente invención incluye un paso (a) de calibración del dispositivo (15) y un paso (b) de reconstrucción 3D (30).
Calibración del dispositivo (15):
Haciendo referencia a la FIG.4, el paso (a) de calibración del dispositivo (15) comprende los siguientes pasos para calibrar un dispositivo de reconstrucción 3D como el enseñado en este documento:
(16), ubicar un objeto de superficie plana a una distancia DO perpendicular al dispositivo de observación (2), el cual sirve de plano de referencia (3) con Z = Omm;
(17), proyectar, mediante dispositivo de proyección (1) las líneas guía (7) sobre el plano de referencia (3) de tal manera que estén centradas respecto a dos mitades del campo de visión (13) del dispositivo de observación (2) en la FIG. l, o en los centros del campo de visión (13) de las cámaras (14) que conforman el dispositivo de observación (2) de la FIG.2. De esta manera, en el caso de FIG. 2 la imagen de las líneas guía en cada cámara (14) se ubicarán en la columna central de cada imagen. Esta posición del plano de referencia corresponde a Z=0 mm;
(18), introducir valores de intervalo DeltaZ y número N de desplazamientos cuyos valores corresponden respectivamente al valor del incremento en dirección de Z que se debe desplazar el plano de referencia y al número N total de desplazamientos para calibrar el dispositivo;
(19), desplazar el plano de referencia a la posición -DeltaZ*N/2, esto fija la dirección del eje Z; la posición -DeltaZ*N/2 corresponde a la posición en Z más lejana de las cámaras (14);
(20) realizar la proyección del patrón de franjas (6) sobre el plano de referencia (3) con el dispositivo de proyección (1);
(21), capturar y guardar en memoria la imagen del patrón de franjas (6); (22) trasladar el plano de referencia (3) en un valor DeltaZ en dirección del eje Z, y repetir N veces desde el paso (20);
(23) obtener la fase continua f(c, y) de cada imagen, mediante RFC (Recuperación de Fase Continua) una vez se ha desplazado N veces el plano de referencia. En total se han adquirido N+l imágenes de franjas asociadas a posiciones Z que varían secuencialmente en el rango de (-Zm,... , 0, ...+Zm), donde Zm=DeltaZ*N/2, a intervalos DeltaZ;
(24), calcular por mínimos cuadrados los coeficientes a, b y c de la ecuación de calibración no lineal: Af(c , y ) = a(x , y )Z2 + b(x , y )Z + c(x , y ) para cada punto (x , y ) de la imagen de cada cámara (14).
En el paso (a) de calibración del dispositivo (15), el paso (16) consiste en ubicar una superficie plana a una distancia DO del dispositivo de observación, esta superficie será utilizada como plano de referencia (3), para el resto del método. En la modalidad de la FIG. 2, el plano de referencia (3) se ubica perpendicularmente bajo el dispositivo de observación (2), pero no se limita y podría estar inclinado hacia el plano de referencia
(3).
El paso (17), se debe desplazar y rotar el plano de referencia de tal manera que, al proyectar las líneas guía, coincidan en las columnas centrales de las imágenes obtenidas de las cámaras (14) del campo visual del dispositivo de observación (2), en la realización de la FIG2. Esta posición de plano de referencia define la posición Z=0 mm.
En el paso (18) en el que se introducen los valores de: el intervalo de desplazamiento DeltaZ y el número de desplazamientos N. Estos valores pueden ser ingresados por un usuario y fijan el volumen de calibración donde se ubicarán los objetos a reconstruir. Entiéndase que DeltaZ es un valor numérico que corresponde con una distancia, así mismo, N es también un valor numérico que preferiblemente corresponde a un número par, ver glosario. En el paso (19) se desplaza paralelamente el plano de referencia a la posición Z= -DeltaZ*N/2, esto fija la dirección del eje Z, que en una realización corresponde a la posición en Z más lejana de las cámaras (14).
En el paso (20) se hace la proyección del patrón de franjas (6) sobre el plano de referencia (3) con el dispositivo de proyección (1).
En el paso (21) se capturan y almacenan cada imagen de cada posición en memoria, entiéndase que i es un valor número y corresponde con cada imagen capturada por cada posición del plano de referencia (3) en el eje coordenado Z.
En el paso (22), se traslada el plano de referencia un valor de DeltaZ, y se repiten los pasos (20, 21 y 22) hasta completar N desplazamientos. El desplazamiento DeltaZ*N/2 a partir de la posición definida en el paso (19) debe coincidir con la posición Z=0 definida en el paso (17). Al completar los N desplazamientos de una secuencia i=0,l,2,...N, corresponden a los valores de posiciones Z=-DeltaZ*N/2, -DeltaZ*(N/2-l), ..., -DeltaZ, 0, DeltaZ,..., DZ*(N/2 -1), DeltaZ*N/2, y se han adquirido N+l imágenes de franjas, de tal manera que cada posición Z tiene una imagen de franjas correspondiente.
Para la realización de la FIG 2, el rango de los valores de la posición en Z se encuentra entre (-25 mm...+25 mm) a intervalos de DeltaZ=0.25 mm, el número de desplazamientos N es de 200 y el número de imágenes es de 201.
En el paso (23) se obtiene la fase continua f(c, y) de cada imagen almacenada en un registro memoria, con las imágenes de franjas adquiridas mediante el método de Recuperación de Fase Continua (RFC) FIG. 5, descrito anteriormente.
En el paso (24) se calcula, empleando el método de mínimos cuadrados, los coeficientes de la ecuación de calibración no lineal:
A<p(x,y) = a(x, y)Z2 + b(x, y)Z + c(x, y) Para cada punto (x,y) de la imagen i tomada por cada cámara (14) del dispositivo de observación que posee información de fase f(c, y) calculada en el paso (23), se calcula Af(c, y) restando la fase para un valor Z con la fase para Z=0. De esta manera se obtiene por punto imagen (x,y) dos vectores con N+l datos de Af(c, y) y Z. Se ajusta por mínimos cuadrados la relación de calibración definida por el polinomio de orden 2, descrita anteriormente. Haciendo referencia a la FIG. 7, se observan los planos con datos de las imágenes de las franjas (50) y fases continuas (51) en función de Z, para un punto (x0,y0), en la Figura se observa la gráfica (52) de Af vs Z.
Entonces, del paso (24) se obtienen los valores de los coeficientes a, b y c de la ecuación a partir de los puntos con coordenadas (x, y) resultantes del paso (a) y se guardan en una memoria de la unidad de cómputo (4) tres matrices con los valores de a, b y c por cada cámara (14), y la fase continua del plano de referencia (3) como posición Z = 0 mm; y
Haciendo referencia a la FIG. 9 se observan los valores de las matrices con coeficientes a, b y c para una cámara (14) de la realización de la FIG. 2 de la invención.
Del resultado del paso (a) de calibración del dispositivo (15) se obtiene por cada punto (x,y) en pixeles de las imágenes del paso (21), los valores de los coeficientes a, b y c de la ecuación anterior. Por lo tanto, las tres matrices con los valores de a, b y c por cada cámara (14) se guardan en memoria de la unidad de cómputo del sistema (4). De igual forma, también se guarda en memoria la fase continua del plano de referencia (3) para la posición Z=0 mm.
Con el fin de convertir pixeles de la cámara a milímetros sobre el plano de referencia, se requiere un paso de calibración XY (25), que consiste en ubicar, en la posición Z = 0 mm, una superficie plana con una cuadricula de dimensiones conocidas, para determinar cuántos pixeles por milímetro hay en la imagen, y almacenar estos valores en memoria. A partir de las imágenes de la cuadrícula obtenidas se calcula el factor de conversión por cámara, que relaciona milímetro/pixel, en direcciones horizontal y vertical. En un ejemplo del presente método, 110 milímetros sobre el plano equivalen a 1280 pixeles en la cámara en dirección horizontal y 88 milímetros por 1024 pixeles en dirección vertical. Estos factores son almacenados en memoria de la unidad de cómputo
(4).
Reconstrucción 3D
Una vez se han obtenido los coeficientes de calibración a, b y c de la ecuación de calibración no lineal, por cada cámara (14) del dispositivo de observación (2), se obtiene un modelo 3D de las pápulas sobre el cual se pueden realizar las mediciones de distancia, área y volumen.
Haciendo referencia a la FIG. 6, en una modalidad del método inventivo, en la reconstrucción 3D de la superficie de la piel se requiere un paso (30) de escanear el objeto o la superficie de la piel, que incluye los pasos:
(31), posicionar el objeto o la superficie de la piel;
(32), capturar una primera imagen de franjas con el patrón de franjas (6), y una segunda imagen de franjas con las líneas de guía (7) consecutiva a la primera captura, cuando se detecte la orientación correcta de la superficie de la piel;
(33), obtener la fase f(c, y) mediante RFC FIG.5 de la imagen capturada que corresponde a las franjas sobre el objeto y se le resta la fase del plano de referencia a Z=0 mm recuperada de la memoria de la unidad de cómputo, previamente almacenada en el paso (a);
(34), buscar un punto de intercepción (xo,yo) en la imagen de la línea guía con la columna central de la imagen, el cual se ha definido como coordenada Z=0 mm en el paso (a) de calibración del dispositivo;
(35), extraer el valor de la diferencia de fase para el punto de intercepción (xo,yo),
A<po6; ( ,y); (36) reemplazar z = 0 mm en la ecuación de calibración para el punto de intercepción (xo,yo) con los valores de a, b y c obtenidos del paso (a) de calibración:
Figure imgf000017_0001
a diferencia de fase Af , calculada en el paso (33), se le resta el valor de la diferencia de fase Aq ob] (x, y) calculada en el paso (35) y se le suma A pobj(xo,yo). corrigiendo los valores de Af(c, y) de tal manera que puntos de la superficie de la piel que intercepten el plano de referencia en Z=0 tengan valores de Af iguales a
Figure imgf000017_0002
y0):
(37) resolver el polinomio de segundo orden de la ecuación de calibración introduciendo Acpobj y usando los coeficientes a, b y c almacenados en memoria de la unidad de cómputo, para obtenerdos raíces del polinomio de orden 2;
(38) escoger la raíz que posee valores de Z en el rango de calibración, obteniendo una imagen en coordenadas (X,Y) en pixeles y para cada punto un valor de Z en mm. Los ejes X y Y se escalan de pixeles a milímetros mediante un factor de escala obtenido del paso (a).
Para mayor entendimiento a continuación se describen en detalle cada uno de los pasos del paso (d) de reconstrucción 3D:
En el paso (30) se toma una imagen del objeto, que es la superficie de la piel, con el dispositivo de observación, y se trabaja con esta imagen almacenada en memoria.
En el paso (31) el posicionamiento del objeto o de la superficie de la piel, se realiza de tal manera que la superficie de estudio se encuentre horizontalmente a la altura del plano de referencia (3) a Z=0 mm. Como en el paso (a), se ajustó el plano de referencia a Z=0 mm con línea central del campo visual (13) de cada una de las cámaras (14) del dispositivo de observación (2), posicionar la superficie de la piel consiste en trasladarlo en dirección de Z de tal manera que la línea guía proyectada sobre la superficie de la piel intercepte la línea central del campo visual (13) de cada una de las cámaras (14) del dispositivo de observación (2).
Haciendo referencia a la FIG.2, en una realización de la invención, se emplean dos cámaras (14) en el dispositivo de observación (2). Haciendo referencia a la FIG. 8, en otro ejemplo de la invención, es posible ajustar la posición y orientación del dispositivo de observación (2), para hacer coincidir la posición Z=0mm del plano de referencia con la superficie del objeto y su orientación promedio haciendo coincidir la imagen de las líneas guía proyectadas sobre la superficie del objeto con las columnas centrales de las imágenes de cada cámara (14).
En el paso (32), se captura una imagen de la proyección del patrón de franjas sobre el objeto, y en consecución otra imagen con las líneas guía (7) sobre el objeto. El orden de captura de las imágenes es intercambiable.
En el paso (33), con el método de recuperación de fase continua, ilustrado en la FIG.5, se obtiene la fase continua de la imagen con el patrón de franjas deformado por el objeto, y se le resta la fase del plano de referencia a Z=0 mm, almacenada en memoria de la unidad de cómputo durante el paso (a) de calibración, de esta manera se calcula Af(c, g).
En el paso (34) a partir de las líneas guía (7) proyectadas por el dispositivo de proyección (2) se busca un punto de intercepción (xo,yo), entre las líneas guía y las columnas centrales de las imágenes de las cámaras (14) del dispositivo de observación (2). Para cada punto de intercepción se sabe que es Z=0 mm desde el paso a de calibración.
En el paso (35) se extrae el valor de la diferencia de fase Af del punto de intercepción (xo,yo) calculada en el paso (33), obteniéndose Af(c0, g0). Dicho punto corresponde a un desplazamiento en el eje“z” de Z=0 mm. El eje“z” corresponde a un eje paralelo a un vector normal a la superficie del plano de referencia (3)”.
En el paso (36), se calcula D <ro6;· para el punto de intercepción (xo,yo) usando la ecuación de calibración no lineal D <po6;- (x0, y0) = a(x0, y0)Z2 + b(x0, y0)Z + c(x0, Vo), haciendo Z = 0 mm y usando los valores de los coeficientes de a. b y c para el punto de intercepción definido en el paso (35). A la diferencia de fase Af. calculada en el paso (33), se le resta el valor de la diferencia de fase Af(c0, y0) calculada en el paso (35) y se le suma A(pobj(x0, y0). De esta manera, se corrigen todos los valores de Af(c, y) de tal manera que puntos de la superficie del objeto que intercepten el plano de referencia en Z=0 mm tengan valores de Af iguales a D<ro6;·(c0, y0).
Finalmente, en el paso (37) se resuelve la ecuación de calibración no lineal, despejando Z en la ecuación de calibración no lineal reemplazando la diferencia de fase corregida en el paso (36) Af y usando los coeficientes a, b y c almacenados en un registro de memoria de la unidad de cómputo, obteniendo un valor de Z en el rango de calibración.
De esta manera se obtiene una imagen en coordenadas (X,Y) en pixeles y para cada punto un valor de Z en milímetros. Los ejes X y Y se escalan de pixeles a milímetros mediante un factor de escala obtenido del paso (a).
Una vez se ha realizado una prueba cutánea de alergias y se espera el tiempo correspondiente con este tipo de pruebas para que aparezcan pápulas sobre la piel, se procede a realizar la reconstrucción 3D y las mediciones automatizadas. A partir de la reconstrucción 3D de la superficie de la región de piel, por ejemplo, el antebrazo de un sujeto, se realiza una segmentación automática en 3D.
La segmentación automática en 3D consiste en obtener una posición inicial de cada pápula a partir de un proceso de búsqueda por plantillas, correlaciones, o incluso por selección de un usuario. En la realización preferida a partir de esta posición inicial semilla se realiza la segmentación por un algoritmo de crecimiento de regiones que permite segmentar la pápula digitalmente. Del contomo obtenido se determina el área, la distancia más grande entre dos puntos del contomo y el volumen. En la FIG. 10 se muestran las imágenes de franjas y de líneas guía capturadas por una de las cámaras (14) del dispositivo de observación (2) para una pmeba cutánea realizada en un sujeto, usando la realización mostrada en la FIG 2.
En la FIG. 11 se muestran las imágenes de franjas capturaras por las dos cámaras (14) del dispositivo de observación (2) y sus correspondientes segmentaciones en una pmeba cutánea realiza en otro sujeto. En la FIG.13 se muestran las reconstrucciones 3D de las franjas capturadas por las cámaras (14) del dispositivo de observación (2) en una prueba realizada en un sujeto. En la FIG.11 se puede calcular la distancia máxima en el contomo de la pápula demarcada como DR y corresponde a un valor de 11,70 mm.
Se realizaron pruebas del dispositivo y método de reconstrucción 3D para la medición de pápulas en la piel, en la que se prepara la piel de forma previa mediante una prueba cutánea por escarificación.
La prueba cutánea por escarificación es una prueba rutinaria en el consultorio del alergólogo. Se practica con un panel de alérgenos que generalmente es definido de acuerdo a la epidemiología de la región. La técnica consiste en seleccionar una región de piel sana de un sujeto y que no presente escoriación ni signos de trastornos cutáneos inflamatorios ni tumorales.
A continuación, se esteriliza dicha región de la piel con alcohol antiséptico, se aplica un panel de los extractos alergénicos. Luego que el alcohol se seque, se marcan los sitios en los que se aplican las gotas de los extractos separados por entre 2,5 y 5,0 cm entre cada uno de ellos. Posteriormente se realiza la punción de la piel bajo cada una de las gotas de alérgenos y se espera la reacción para su lectura a los quince minutos. Siempre se coloca un control negativo (diluente de los extractos y uno positivo (Histamina l0mg/ml) esto con el fin de poder determinar la confiabilidad de la prueba.
Generalmente ésta prueba cutánea se realiza en la región dorsal (espalda), en cara volar del antebrazo, no obstante, se puede realizar en cualquier otra parte del cuerpo.
Se realizó una prueba cutánea por escarificación en un sujeto (FIGs 10 y 11) se usó un panel de 11 alérgenos (Blomia tropicalis, Dermatophagoides pteronyssinus, Dermatophagoides farinae, Epitelio de perro, Epitelio de gato, epitelio de cucaracha, gramíneas, huevo, Leche de vaca, camarón, maní), un control positivo (Histamina l0mg/ml) y uno negativo (Diluente). Después de 15 minutos, el diámetro promedio de la pápula formada por el alérgeno fue medido con el dispositivo de reconstrucción 3D que implementa el método de la presente invención. Haciendo referencia a la FIG.10 en el lado izquierdo se enseña una imagen (a) capturada mediante el dispositivo de observación (2), dicha imagen corresponde a la superficie de la piel de la cara volar del antebrazo izquierdo de un sujeto sometida a la proyección de las franjas (6) proyectadas por el dispositivo de proyección (1) de la realización de la FIG. 2, en el lado izquierdo de la figura se muestra una imagen (b) similar a la de la imagen (a) en la que además se observa la proyección de líneas guía.
Haciendo referencia a la FIG 11 se muestran las imágenes de franjas capturaras por dos cámaras (14) del dispositivo de observación (2) y sus correspondientes segmentaciones en una prueba cutánea que se realiza en el mismo sujeto.
En la FIG 11 se puede calcular la distancia máxima en el contomo de la pápula demarcada como DR y corresponde a un valor de 11,70 mm.
En la FIG 13 se muestran las reconstrucciones 3D de las franjas capturadas por las cámaras (14) del dispositivo de observación (2) en una prueba realizada en un sujeto.
Para la adquisición de imágenes y el control de los sistemas de proyección se implemento el método en un programa con capacidad de procesamiento de imágenes, en el caso siguiente se utilizó el programa comercial LabVIEW 2014 de National Instruments en conjunto con un programa como Matlab. La interfaz está basada en un enfoque híbrido de programación el cual permite la integración de instancias de MATLAB al entorno gráfico de LabVIEW. LabVIEW permite adquirir imágenes de múltiples cámaras del dispositivo de observación y el control del dispositivo de proyección.
Después de realizada la prueba cutánea se procede a la digitalización en 3D por el dispositivo de reconstrucción 3D que implementa el método de reconstrucción 3D de la presente invención. Con ayuda de la proyección de las líneas de guía (7) se posiciona el brazo del sujeto para que esté centrado en el campo de visión de las cámaras. Una vez se ha centrado el brazo y se ha ubicado a la distancia adecuada del dispositivo de observación (1) se adquieren de manera automática las imágenes de franjas (7) y de la línea central. Los detalles de este procedimiento han sido descritos anteriormente. Al paciente se le aplicó un panel de 11 extractos, un control positivo y uno negativo. Por medio de la reconstrucción 3D se pudieron medir 8 pápulas ocasionadas por 8 extractos.
En la FIG.11 se muestra la segmentación de las pápulas en un sujeto: (a) y (b) son dos tomas diferentes capturadas con las cámaras del sistema; (c) y (d) muestra las vistas superiores de las reconstrucciones de las pápulas que se obtienen de las imágenes (a) y (b), respectivamente. Las medidas de los diámetros de las pápulas están registradas en la siguiente tabla.
Figure imgf000022_0001
La FIG. 13 muestra la vista en perspectiva de las reconstrucciones 3D de las imágenes del primer paciente y la segmentación de las pápulas. A la reconstrucción 3D de la superficie de la piel se le ha mapeado la textura de la imagen capturada.
Glosario de términos:
· Campo de visión: Es una porción del espacio que una cámara captura en un momento determinado, se refiere al ángulo abarcable a través del cual una cámara puede detectar radiación electromagnética; • campo de visión transversal: se refiere a la porción observable de un objeto plano, que corta el campo de visión, ubicado a una cierta distancia de la cámara. Se suele especificar respecto de la distancia a la cámara y por sus dimensiones de ancho y alto, o sólo el ancho en caso que sea simétrico;
• DO: se refiere a la distancia entre las cámaras y el plano de referencia.
• Z: Se refiere a una posición o distancia perpendicular al plano de referencia, por lo que Z = 0 señala el lugar donde se encuentra el plano de referencia;
• Af: Hace referencia a un valor de fase y calculada como la diferencia entre un valor de fase para una posición en Z y la fase para Z=0, D pobj hace referencia al valor de la fase medida para el objeto sobre el que se hará la reconstrucción 3D y calculada como la diferencia entre un valor de fase del objeto y la fase para Z=0.
• DeltaZ: se refiere a una distancia entre una posición del plano de referencia respecto a una posición anterior, por lo que un intervalo DeltaZ se refiere al cambio de posición en Z con valor igual a DeltaZ;
• N: se utiliza como un número entero, el cual indica un número de desplazamientos para realizar la calibración del método, preferiblemente el valor de N es par;
• Coeficientes a, b y c: son los coeficientes numéricos que se utilizan sobre la ecuación de calibración.
Se debe entender que la presente invención no se halla limitada a las modalidades descritas e ilustradas, pues como será evidente para una persona versada en el arte, existen variaciones y modificaciones posibles que no se apartan del espíritu de la invención, el cual sólo se encuentra definido por las siguientes reivindicaciones.

Claims

REIVINDICACIONES
1. Un dispositivo de reconstrucción 3D de la superficie de la piel para la medición de pápulas resultantes en un examen cutáneo de alergia, que incluye:
- un dispositivo de proyección (1);
- un plano de referencia (3) dónde el dispositivo de proyección (1) proyecta;
- un dispositivo de observación (2) que observa la proyección del dispositivo de proyección (1); y
- una unidad de cómputo (4) configurada para realizar un método de reconstrucción 3D de la superficie de la piel, conectada al dispositivo de observación (2) y al dispositivo de proyección (1).
2. El dispositivo de la reivindicación 1, donde el dispositivo de proyección (1) comprende:
- una fuente de iluminación (9);
- un lente de colimación (8) dispuesto operacionalmente frente a la fuente de iluminación (9);
- un elemento de proyección de franjas (10) dispuesto operacionalmente frente al lente de colimación (8);
- un lente de proyección (11) dispuesto operacionalmente frente al elemento de proyección de franjas (10), que hace la proyección del patrón de franjas (6) sobre el plano de referencia (3); y
- un proyector adicional (12) que proyecta al menos dos líneas guía (7) sobre el plano de referencia (3) dentro del campo de visión (13) del dispositivo de observación (2).
3. El dispositivo de la reivindicación 1 donde el patrón de proyección de franjas (10), es una filmina con un patrón de líneas que consiste en líneas paralelas de un mismo grosor separadas una misma distancia entre ellas.
4. El dispositivo de la reivindicación 3, donde las líneas del patrón de franjas tienen un rango de grosor de línea entre 0,005mm y 0,05mm, y un rango para separación de centros de líneas entre 0,005mm y 0,0 lmm.
5. El dispositivo de la reivindicación 1 donde el proyector adicional (12), es un proyector de uso comercial configurado para proyectar al menos dos líneas guía sobre el campo de visión (13) del dispositivo de observación (2);
y donde las líneas guía (7) son dos líneas rectas paralelas entre sí.
6. El dispositivo de la reivindicación en 1, donde el dispositivo de observación (2) incluye:
a. una cámara (14) conectada a una unidad de cómputo (4);
donde su campo de visión (13) se ubica perpendicularmente hacia el plano de referencia (3); y donde se pueden incluir más cámaras para ampliar el campo de visión (13).
7. Un método para la reconstrucción 3D de la superficie de la piel, que consiste en los siguientes pasos:
a- calibrar un dispositivo de reconstrucción 3D de acuerdo con cualquier reivindicación anterior mediante los siguientes pasos:
(16) ubicar un objeto de superficie plana a una distancia DO dispuesta de manera perpendicular al dispositivo de observación (2), el cual sirve de plano de referencia (3) o Z=0 mm;
(17) proyectar mediante un dispositivo de proyección, líneas guía (7) sobre el plano de referencia (3) de tal manera que estén centradas respecto a dos mitades del campo de visión (13) del dispositivo de observación (2), esta posición del plano de referencia corresponde a Z=0 mm;
(18) introducir valores de intervalo DeltaZ y número N de desplazamientos, cuyos valores corresponden respectivamente al valor del incremento en dirección del plano de referencia Z que se debe desplazar el plano de referencia y al número N total de desplazamientos para calibrar el dispositivo;
(19) desplazar el plano de referencia a la posición -DeltaZ*N/2, esto fija la dirección del eje Z; la posición -DeltaZ*N/2 corresponde a la posición en Z más lejana de las cámaras (14);
(20) realizar la proyección del patrón de franjas (6) sobre el plano de referencia con el dispositivo de proyección (1);
(21) capturar y guardar en memoria la imagen del patrón de franjas (6); (22) trasladar el plano de referencia (3) en un valor DeltaZ en dirección del eje Z, y repetir N veces desde el paso (20);
(23) obtener la fase continua f (c, y) de cada imagen mediante RFC (Recuperación de Fase Continua) una vez se han desplazado N veces el plano de referencia, adquiriendo así N+l imágenes de franjas asociadas a posiciones Z que varían secuencialmente en el rango de (-Zm, ... , 0, ... +Zm), donde Zm=DeltaZ*N/2, a intervalos DeltaZ;
(24) calcular por mínimos cuadrados los coeficientes a, b y c de la ecuación de calibración no lineal:
Af(c , y ) = a(x , y )Z2 + b(x , y )z + c(x , y ) para cada punto (x , y ) de la imagen de cada cámara (14); b- reconstruir en 3D la superficie de la piel.
8. El método de la reivindicación 7, donde el valor de intervalo DeltaZ y número N de desplazamientos son introducidos por un usuario.
9. El método de la reivindicación 7, donde el número N del paso (22) del paso (a) de calibrar es un número par.
10. El método de la reivindicación 7, donde el paso (a) de calibrar incluye un paso adicional de calibración (25) que consiste en ubicar, en la posición Z = 0 mm, una superficie plana con una cuadricula de dimensiones conocidas, para determinar cuántos pixeles por milímetro hay en la imagen, y almacenar estos valores en memoria.
11. El método de la Reivindicación 7, donde el paso (23) de recuperación de fase continúa incluye:
(40) capturar la imagen de franjas con el dispositivo de observación (2);
(41) hacer una transformación de Fourier;
(42) aplicar un filtro pasa-banda;
(26) aplicar una transformada inversa de Fourier;
(27) extraer la fase F (x,y); y
(28) desenvolver la fase resultando en una función continua (c, y);
12. El método de la Reivindicación 7, donde en el paso (24) se obtienen los valores de los coeficientes a, b y c de la ecuación a partir de los puntos con coordenadas (x, y) resultantes del paso (a) y se guardan en una memoria de la unidad de cómputo (4) tres matrices con los valores de a, b y c por cada cámara (14), y la fase continua del plano de referencia (3) como posición Z = 0 mm;
13. El método de la Reivindicación 7, en el que el paso (b) de reconstrucción 3D de la superficie de piel, incluye:
(31) posicionar la superficie de la piel;
(32) capturar una primera imagen de franjas con el patrón de franjas (6), y una segunda imagen de franjas con las líneas de guía (7) consecutiva a la primera captura, cuando se detecte la orientación correcta de la superficie de la piel;
(33) obtener la fase f(c, y) de la primera imagen mediante recuperación de fase continua, restarle la fase continua del plano de referencia f(c, y) en la posición Z=0 mm, recuperada de la memoria de la unidad de cómputo, para obtener Af(c, g :
(34) buscar un punto de intercepción (xo,yo) en la imagen de la línea guía con la columna central de la imagen, el cual se ha definido como coordenada Z=0 mm en el paso (a) de calibración del dispositivo;
(35) extraer el valor de la diferencia de fase para el punto de intercepción (xo,yo),
A<po6; ( ,y);
(36) reemplazar Z=0 en la ecuación de calibración para el punto de intercepción (xo,yo) con los valores de a, b y c obtenidos del paso (a) de calibración:
Figure imgf000027_0001
diferencia de fase Af , calculada en el paso (33), se le resta el valor de la diferencia de fase A pobj(x, y) calculada en el paso (35) y se le suma A pobj(xo, yo). corrigiendo los valores de Af(c, y) de tal manera que puntos de la superficie de la piel que intercepten el plano de referencia en Z=0 tengan valores de Af iguales a Af^(c0, y0):
(37) resolver el polinomio de segundo orden de la ecuación de calibración introduciendo Acpoh¡ y usando los coeficientes a, b y c almacenados en memoria de la unidad de cómputo, para obtenerdos raíces del polinomio de orden 2;
(38) escoger la raíz que posee valores de Z en el rango de calibración, obteniendo una imagen en coordenadas (X,Y) en pixeles y para cada punto un valor de Z en milímetros. Los ejes X y Y se escalan de pixeles a milímetros mediante un factor de escala obtenido del paso (a).
14. El método de acuerdo con la Reivindicación 13, donde en el paso (31) el posicionamiento del objeto o de la superficie de la piel, se realiza de tal manera que la superficie de estudio se encuentre horizontalmente a la altura del plano de referencia (3) a Z=0 mm. Como en el paso (a), se ajustó el plano de referencia a Z=0 mm con línea central del campo de visión (13) de cada una de las cámaras (14) del dispositivo de observación (2), posicionar la superficie de la piel consiste en trasladarlo en dirección de Z de tal manera que la línea guía proyectada sobre la superficie de la piel intercepte la línea central del campo visual (13) de cada una de las cámaras (14) del dispositivo de observación (2).
15. El método de la Reivindicación 7, donde luego de realizar el paso (b) de reconstrucción 3D se realiza una segmentación automática en 3D que consiste en: obtener una posición inicial de cada pápula a partir de un proceso de búsqueda por plantillas, correlaciones, o por selección de un usuario;
realizar a partir de la posición inicial de la pápula la segmentación utilizando un algoritmo de crecimiento de regiones que permita segmentar la pápula; y medir la distancia más larga entre dos puntos del contomo de la pápula digitalizada, igualmente medir el volumen y el área de cada pápula.
PCT/IB2019/056127 2018-07-18 2019-07-17 Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel WO2020016812A1 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CONC2018/0007546 2018-07-18
CONC2018/0007546A CO2018007546A1 (es) 2018-07-18 2018-07-18 Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel

Publications (1)

Publication Number Publication Date
WO2020016812A1 true WO2020016812A1 (es) 2020-01-23

Family

ID=69164328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2019/056127 WO2020016812A1 (es) 2018-07-18 2019-07-17 Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel

Country Status (2)

Country Link
CO (1) CO2018007546A1 (es)
WO (1) WO2020016812A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488998A (zh) * 2020-11-19 2021-03-12 安徽农业大学 一种基于条纹投影的苹果果梗和花萼检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104111039A (zh) * 2014-08-08 2014-10-22 电子科技大学 用于任意摆放条纹投影三维测量系统的标定方法
US20170262979A1 (en) * 2016-03-14 2017-09-14 Sensors Unlimited, Inc. Image correction and metrology for object quantification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104111039A (zh) * 2014-08-08 2014-10-22 电子科技大学 用于任意摆放条纹投影三维测量系统的标定方法
US20170262979A1 (en) * 2016-03-14 2017-09-14 Sensors Unlimited, Inc. Image correction and metrology for object quantification

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DILPREET KAUR ET AL.: "Various Image Segmentation Techniques: a Review", INT. JOURNAL OF COMPUTER SCIENCE AND MOBILE COMPUTING, vol. 3, no. 5, 31 May 2014 (2014-05-31), pages 809 - 814, XP055676028, [retrieved on 20191112] *
G. GUIDI ET AL.: "Tridimensional digitizing of Donatello's Maddalena", PROC. INT. CONF. IMAGE PROCESS., vol. 1, 7 October 2001 (2001-10-07), Thessaloniki, Greece, pages 578 - 581, XP010564925, [retrieved on 20191112], DOI: 10.1109/ICIP.2001.959082 *
GEOMETRIC PLANE, 9 July 2017 (2017-07-09), Retrieved from the Internet <URL:https://web.archive.org/web/20170709204033> [retrieved on 20191111] *
OPTO ENGINEERING, 13 May 2019 (2019-05-13), Retrieved from the Internet <URL:http://www.opto-e.com/products/LED-patterns-projectors#Parternsfigs> [retrieved on 20191104] *
OPTO ENGINEERING, 13 May 2019 (2019-05-13), Retrieved from the Internet <URL:https://www.opto-e.com/products/LTPRHP3W-W> [retrieved on 20191104] *
R. ANCHINI ET AL.: "A New Calibration Procedure for 3D Shape Measurement System based on Phase-Shifting Projected Fringe Profilometry", IEEE TRANS. ON INSTRUMENTATION AND MEASUREMENT, vol. 58, no. 5, 31 May 2009 (2009-05-31), pages 1291 - 1297, XP011250838, [retrieved on 20191112] *
XIANYUSU, WENJING CHEN: "Fourier transform profilometry: a review", OPTICS AND LASERS IN ENGINEERING, vol. 35, 31 May 2001 (2001-05-31), pages 263 - 284, XP008161675, Retrieved from the Internet <URL:https://www.sciencedirect.com/science/article/pii/S0143816601000239> [retrieved on 20191104], DOI: 10.1016/S0143-8166(01)00023-9 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488998A (zh) * 2020-11-19 2021-03-12 安徽农业大学 一种基于条纹投影的苹果果梗和花萼检测方法

Also Published As

Publication number Publication date
CO2018007546A1 (es) 2020-01-31

Similar Documents

Publication Publication Date Title
ES2699529T3 (es) Detección de un objeto móvil al escanear en 3D un objeto rígido
ES2950643T3 (es) Sistemas y métodos para el análisis de afecciones cutáneas
ES2747371T3 (es) Sistema de diagnóstico por imagen tridimensional (3D) por ultrasonidos para evaluar la escoliosis
ES2921128T3 (es) Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota
ES2349921T3 (es) Registro digitalizado tridimensional de la forma espacial de cuerpos y partes de los cuerpos con sensores generadores de imágenes posicionados de modo mecánico.
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
Treuillet et al. Three-dimensional assessment of skin wounds using a standard digital camera
ES2841508T3 (es) Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada
CA2809002C (en) Method and system for roentgenography-based modeling
US20120259204A1 (en) Device and method for determining the position of an instrument in relation to medical images
WO2009090291A1 (es) Método y cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales
US20080045807A1 (en) System and methods for evaluating and monitoring wounds
JP6304970B2 (ja) 画像処理装置、画像処理方法
JP6485964B2 (ja) モーションキャプチャー方法及びモーションキャプチャーシステム
ES2884222T3 (es) Método de caracterización de los volúmenes de la piel
CN107249427A (zh) 医疗装置、医疗图像生成方法以及医疗图像生成程序
ES2898936T3 (es) Procedimiento de imagen radiográfica, dispositivo de procesamiento de imagen radiográfica y dispositivo de imagen radiográfica
ES2625729T3 (es) Sistema y método de medición estereoscópica
ES2914529T3 (es) Método y dispositivo para medir la forma, las dimensiones y las propiedades elásticas, así como también para la generación de un modelo tridimensional de la superficie interior de un objeto hueco
Lu et al. A system for limb-volume measurement using 3D models from an infrared depth sensor
KR101239294B1 (ko) 좌표공간 상에서의 영상정합장치 및 영상정합방법
ES2680587T3 (es) Mediciones 3-D intraorales usando un procedimiento óptico de múltiples líneas
WO2020016812A1 (es) Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel
CN108186017B (zh) 一种用于确定内窥镜胶囊体内位姿的检测系统和方法
Malian et al. Medphos: A new photogrammetric system for medical measurement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19837642

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19837642

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 11.06.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19837642

Country of ref document: EP

Kind code of ref document: A1