WO2020169853A1 - Sistema de captura de imágenes de microescala - Google Patents

Sistema de captura de imágenes de microescala Download PDF

Info

Publication number
WO2020169853A1
WO2020169853A1 PCT/ES2019/000016 ES2019000016W WO2020169853A1 WO 2020169853 A1 WO2020169853 A1 WO 2020169853A1 ES 2019000016 W ES2019000016 W ES 2019000016W WO 2020169853 A1 WO2020169853 A1 WO 2020169853A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
sample
lens
light unit
module
Prior art date
Application number
PCT/ES2019/000016
Other languages
English (en)
French (fr)
Inventor
Carlos ALIAGA
Raúl ALCAIN
Carlos Heras
Iñigo SALINAS
Sergio SUJA
Elena GARCÉS
Jorge LÓPEZ
Original Assignee
Seddi, Inc.
Desilico S.L.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seddi, Inc., Desilico S.L. filed Critical Seddi, Inc.
Priority to PCT/ES2019/000016 priority Critical patent/WO2020169853A1/es
Priority to EP19720135.3A priority patent/EP3929570A1/en
Publication of WO2020169853A1 publication Critical patent/WO2020169853A1/es
Priority to US17/389,456 priority patent/US20210356407A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/06Special arrangements of screening, diffusing, or reflecting devices, e.g. in studio
    • G03B15/07Arrangements of lamps in studios
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8444Fibrous material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8812Diffuse illumination, e.g. "sky"
    • G01N2021/8816Diffuse illumination, e.g. "sky" by using multiple sources, e.g. LEDs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources
    • G01N2201/06146Multisources for homogeneisation, as well sequential as simultaneous operation
    • G01N2201/06153Multisources for homogeneisation, as well sequential as simultaneous operation the sources being LED's
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/063Illuminating optical parts
    • G01N2201/0633Directed, collimated illumination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/10Scanning

Definitions

  • This disclosure generally relates to computer modeling systems and, more specifically, to a system and method for micro-scale imaging of geometric and optical properties of materials to use computer graphics and other applications.
  • optical capture systems are needed to accurately extract the geometric and optical properties of materials that allow modeling the appearance of these materials in any lighting environment.
  • One approach is to use optical imaging to extract geometric and appearance parameters from materials to, for example, create virtual models of materials that will be used in computer graphics applications.
  • BRDF bidirectional reflectance
  • SV-BRDF spatial variation
  • the relevant parameters of the microscale capture systems are the divergence of the incident lights and e! acceptance angle of the captured light.
  • exposure times are also important. They all relate to the size of the sample and the distances from the light sources and the chamber to the sample. As the distances get shorter and / or the samples get larger, the divergences and acceptability angles increase. The impact of these optical factors on the precision of the measured refleetance may be relevant, altering the final results of the rendering processes.
  • Other approaches to capturing material characteristics for computer modeling include systems, for example, to extract models volumetric measurements of fabrics using computerized axial tomography (CT) to obtain fabric parameters. For example, one such system is described in Zhao, S., Jakob, W., Marschner, S., and Bala K.
  • No current system is capable of obtaining images of material samples with a magnification ratio close to I: 1 with illumination from multiple angles of incidence and from a distance sufficient to ensure frontal illumination of plane wave, minimizing auto -occlusions.
  • an optical capture system is provided.
  • a microscale optical capture system is provided with little divergence (i G ) of the incident light and a low acceptance angle ( ⁇ 8 °) of the captured light.
  • a microscale optical capture system is provided with a large number of high-power white LEDs collimated as light sources, for example, between 60 and 100 units that can be located at distances of around 650 mm from the sample in a modality.
  • a digital camera using a 50mm focal lens with a 25mm length extension tube captures images of the sample. This provides a working distance of approximately 100mm while maintaining G.5x magnification for microscale shooting, with an image size of 4 x 4 microns per pixel.
  • a micro-scale image processing system comprising an image processing module.
  • the image processing module includes an optical sensor, an extension tube, and a lens. The lens attaches to the extension tube and e!
  • the optical sensor includes a plurality of pixels of one size.
  • the lens is configured so that the optical sensor captures, for each pixel of the plurality of pixels. an area of a tissue sample essentially the same size as the size of the pixels.
  • the system may also include a holder configured to hold the sample during processing. The holder is also configured to present the tissue sample to the imaging module without obstruction of incident light or reflected light.
  • the system also includes a lighting module with a plurality of light units spatially arranged around the sample holder and oriented towards the sample holder. Each light unit is configured to provide planar wavefront illumination of the incident light on the tissue sample.
  • the lens of the imaging module is positioned relative to the optical sensor and extension tube so that the imaging module can be positioned relative to the specimen holder in a manner that avoids occlusion of light. incident to the lighting module and that captures the reflected light in a considerably flat wavefront.
  • each light unit may include a collimated lens sized to maximize an intensity of incident light projected by each light unit on the tissue sample.
  • the collimated lens in each light unit can have a diameter between 0.5 and 1.5 inches.
  • the collimated lens in each light unit can have a focal length between 15 and 20 mrn.
  • the collimated lens in each light unit, can be positioned at a distance from a light source in the light unit that is between 5% and 20% of the nominal focal length of the collimated lens.
  • each light unit comprises one or more high-power white LEDs.
  • the . Optical sensor can be a monochrome sensor or a color sensor.
  • the image processing module may include a monochrome sensor and a filter module, the filter module comprises a plurality of filters, each configured to filter a wavelength of light.
  • the image processing module it also comprises a filter module, which includes a polarization filter configured to filter reflected light before it reaches the optical sensor.
  • it also includes a focusing system that is made up of a linear displacement platform!
  • this linear displacement platform mechanically supports the image processing module and is coupled to the motor to linearly move the image processing module towards the tissue sample, closer or further away, to focus the imaging module.
  • Image processing on the tissue sample may also comprise a focusing system, which is formed by a membrane lens configured to modify a focal point based on the change in refractive index.
  • the sample holder also comprises a mount and an electronically controlled motor.
  • This mount is configured to be moved by the electronically controlled motor and automatically scan the tissue sample with the imaging module.
  • each light unit of the plurality of light units can also comprise a rotatable clamping structure, this rotary clamping structure mechanically couples the light unit to the lighting module and allows the rotary movement of the unit. light to direct the light unit towards the sample holder
  • Figure 1 illustrates an ieroscale image capture system according to one of the modalities.
  • Figure 2 illustrates an image acquisition module according to one of the modalities.
  • Figure 3 illustrates a perspective of a myeroscale imaging system according to one of the modalities.
  • Figure 4 illustrates a lighting unit according to one of the embodiments.
  • Figure 5A illustrates a standard IJSAF 1951 resolution test according to one of the modalities
  • Figure 5B illustrates a chromatic aberration using different filters according to one of the modalities.
  • Figure 5C illustrates image shifting using different fiitors according to one of the modalities.
  • Figure 6 illustrates the average color temperatures in a batch of LEDs according to one of the modalities.
  • Figure 7 shows images obtained with a camera for a certain illumination angle according to one embodiment.
  • Figure 8 shows composite images obtained by combining images taken in each of 76 possible input light directions according to one modality.
  • an automated image capture system is provided with a 1: 1 magnification ratio from multiple points of flat wave frontal illumination, which minimizes auto-occlusions.
  • the system 100 includes an image capture subsystem 101, a lighting subsystem 105, and a sample holder 110.
  • the subsystem Image capture sensor 101 includes a lens arrangement 102, which is connected to an image capture sensor 103 to capture the image of the sample.
  • the image capture subsystem may also include a motor 104, connected to a lens array 102 and to the image capture sensor 103 to move the! Combined set in the direction of the sample closer or further away, to focus the desired image.
  • the imaging subsystem 101 includes additional sets of imaging lenses and sensors to simultaneously capture larger areas of the sample.
  • the lighting subsystem includes a set of lighting units ⁇ 06a-! 0on, configured to illuminate the sample from a plurality of angles.
  • the lighting subsystem includes a housing 105.
  • housing 105 is a hemisphere-shaped structure, constructed of black anodized aluminum profiles lQ7a-Q? N
  • the sample holder 1 10 can be moved with a translation mount Y to capture different sections of the sample. In one embodiment, the holder 1 10 can also be rotated to capture both sides of the sample. In the XY displacement and / or rotation modes, one or more electronically controlled motors can also be achieved to provide repeatable precision in sample movement.
  • the support 1 10 has a dimension that conforms to the minimum light occlusion requirement that could obstruct the objective. According to the modalities, the sample holder 1 10 is of the necessary size to support samples of materials up to 150 x 150 mm.
  • the mechanical structure of the holder 1 10 is designed in small size but robust, which minimizes the possibility of casting shadows on the sample when illuminated by light sources from multiple directions.
  • the system provides automatic characterization of the various measurement points along the surface of a sample on sample holder 1 10 This is accomplished by providing automatic positioning of sample holder 110 to capture each variation along the way. over multiple areas of the sample.
  • the motorized sample holder 1 10 moves the sample in front of the lens, moving it in X and Y directions along the frontal plane of capture. In this way, the sample can completely cross the capture zone of! close-up imaging module.
  • the system includes a remote imaging module for analyzing an entire sample and determining a set of measurement points in the sample as will be described in detail below.
  • the sample holder 1 10 and the image capture subsystem may be supported on pedestals 108a and 108b.
  • the housing structure 105 is completely isolated from the pedestals 108a and 108b, to avoid any mechanical vibration during the image capture process.
  • the image capture subsystem includes a close-up module 200 with an optical system 202 connected to an image sensor 203 through a filter module 205
  • a controller 206 controls capture via sensor 203, the module filter 205 and focus motor 204.
  • these components are connected to a sliding mechanical base 207 that can be moved in both directions by means of a motor 204 at e! axis perpendicular to the sample holder.
  • the first piano module 200 works on small areas of the sample, for example,
  • the image sensor 203 may include a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or similar camera sensors.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • the image sensor 203 can be from a few megapixels to several tens of megapixels and monochrome or color.
  • the image sensor 203 includes a 2 micron pixel size monochrome camera, and a 1 micron pixel size color camera.
  • the color camera has the advantage that it does not require color filters for red-green-blue (RGB) captures (as will be explained below), which eliminates filter alignment and distortion corrections and also reduces the times of capture of the material by a third party.
  • RGB red-green-blue
  • the modulus of Foreground 200 provides a resolution of 4 x 4 microns per pixel.
  • the system is able to capture images of approximate size 10 x 10 mm, in order to determine the structure of the fabric at the level of the thread, which is generally in that size range.
  • the 203 image sensor includes a Mightex SME-B050 monochrome camera, with 2560 x 1920 resolution and 2.2 x 2.2 pixel size.
  • the foreground module 200 also includes an optical system 202 to capture light reflected by the sample and direct it to the image sensor 203.
  • the optical system 202 includes a lens and an extension tube to ensure a ratio of approximately 1 11 .and a working distance large enough to minimize light occlusions in the sample.
  • the extension tube is sized to position the sensor 203 and lens at a specific distance such that the sample is in focus at another specified distance, allowing shadow-free illumination of the sample from the camera.
  • a 50m focal lens with a 25mm extension gap provides a magnification of 0.5-100mm away.
  • This space acts as an extension tube and is key to achieving a longer working distance without losing magnification.
  • Such a long distance is necessary to prevent the systems from casting shadows on the tissue sample, that is, by reducing light occlusions to! minimum possible.
  • optical systems have to work with an X: Y magnification ratio of the distances between the object and the image.
  • the image distance is determined by the distance from the main plane of the lens outlet to the image sensor. If the lens is mounted directly on the sensor body, very close to it, the resulting image distance is short. If the ratio is 1: 1, the distance to the object is also short, which forces the optical system to be very close to the sample, causing occlusions of many illumination points.
  • Extension tubes are placed between the lens and the sensor housing, so that the optical system can be positioned away from the sample and maintain the magnification ratio at the same time.
  • the magnification properties of microesala imaging systems allow the system to capture details of the material, such as characteristics of the fibers in a thread, and for the camera to be far enough away from the sample to allow uniform illumination
  • a microscope the fine details of the fibers of a thread could be captured, but it would take a long time to process a typical sample (eg 150 x 150 mrn). It would also have to be very close to the sample, so it would be very difficult to achieve uniform illumination of the sample.
  • the microscope's shallow depth of field would require processing a cloth of average thickness to! process all focused images; therefore, it would be necessary to take several images with different focal lengths to capture the full thickness of the fabric sample.
  • the optical capture process requires the variation of the light direction along the captured hemisphere in different images. The working distance of a microscope does not allow this, since much of the hemisphere is obstructed by the device itself and the available illumination tends to be close to the sample and from only one direction.
  • a monochrome camera sensor 203 and a color filter system 205 are used to capture the images.
  • the color filter system 205 includes an electronically controlled rotary motor that positions each of the filters between the camera lens 202 and the image sensor 203.
  • the color filters can correspond to any desirable wavelength of light, including ultraviolet and infrared. Some modalities, post-example, may use three filters for the three primary colors (red, green, and blue [RGB]), but another color or wavelength of light may also be used in any combination. It should be noted that the filter system 205 can be located in front of the optical module 202 in some embodiments.
  • filter system 205 is located in the area of the expansion tube closest to sensor 203 So farthest from the sample as possible to avoid self-occlusion from filters casting shadows on the sample.
  • a multi-position, motorized filter slider with three RGB filters sits in the gap between the camera and lens. With these filters, the system can perform color analysis without loss of resolution, due to the location of the pixels in the mosaic of a color sensor (Bayer mosaic).
  • lenses with color filters themselves can produce a chromatic aberration due to differences or imperfections in lens, resulting in images with different placement and focus for each gray! wavelength of light. and causing possible blur patterns of different colors.
  • the camera takes advantage of a high-precision linear motorized shift unit 204 that provides the correct focus each time the color filter is changed. In this way, it is ensured that the images of each wavelength channel have the highest possible resolution. For example, in one mode, 3 images are taken with the monochrome camera sensor 203 with each of the three RGB filters.
  • post-processing corrects radial distortions per channel and aligns all 3 channels so the image is clean.
  • the filter module 205 includes a polarization system.
  • the filter module 205 uses the motor to place in front of! image sensor 203 a filter parallel to the polarization of the incident light on the sample or a filter perpendicular to it.
  • the purpose is to differentiate in captures between specular light reflection from the sample and diffuse light reflection, since multiple scatters are known to depolarize light after a number of light bounces.
  • optical sample material useful isolate each component light as possible so that they can optimize the parameters of the overall system. For an optically thick material, light interacts with the material entering at one point and exiting at a different point, in a different direction, after various optical events, such as diffusion and absorption, within the material.
  • polarized light depolarizes after various interactions of the light within the material.
  • the polarization system separates the first light bounce, the specular term that is always the color of the illuminant (eg, white), from 1 remainder of the light that results from multiple diffusions.
  • specular term that is always the color of the illuminant (eg, white)
  • tint color
  • the foreground module 200 also includes a focusing system 204.
  • the focusing system 204 can be implemented in different ways according to various embodiments.
  • the focusing system includes a plurality of lenses (not shown) with varying focal lengths to change the plane of focus.
  • a focal membrane is provided (not shown).
  • the focal membrane comprises a planar-convex lens arrangement for modifying the refractive index and in turn modifying the focus point of the foreground camera.
  • the focus system 204 includes a mechanical focus system.
  • the mechanical focusing system includes a high precision linear displacement platform 207 on which the camera 203, optics 202 and filters 205 (RGB, polarized, etc.) are placed.
  • This linear displacement platform 207 is driven by a stepper motor. Therefore, it is possible to focus and blur the captured image in an automatic and controlled manner, a) move the capture system closer to or further from the sample. This controlled movement also enables deep analysis of samples using focal stacking and depth blurring techniques.
  • an auto focus lens can be used in the lens system.
  • the autofocus lens is not always compatible with the extender tube, as the mechanical connections between the focus motors that move the lenses and the actual lenses must be separated by the tube.
  • placing filters 205 between said autofocus lens and image sensor 203 will also create difficulties. Therefore, in modalities that use an extender tube and filters between the lens and the image sensor, the system focuses by moving the entire foreground module with a stepper motor 204, moving it closer to or further from the sample.
  • the system 300 includes a close-up imaging module 301 and a remote imaging module 302.
  • the far imaging module 302 captures images of the larger material sample 33 1 that is held through the sample holder 310.
  • one or more cameras can capture a sample of material of approximately 150mm X 150m in the far imaging module 302
  • the far imaging module 302 captures an Image of the entire material sample to identify all different areas of the sample, for example due to print patterns, thread structure, etc. Each of the areas identified in the sample will require a capture at micron resolution with the 301 foreground module.
  • the far-imaging module 302 includes a front camera that captures an image of the entire sample, eg, 15 x 15 crn.
  • the camera can be a CCD or CMOS camera and can also include an auto focus optical system.
  • the camera and lens are directly attached and remain fixed in a position remote from the sample holder 310. This position prevents occlusions from illumination and ensured that the capture of the tissue is as perpendicular as possible to the sample so that the images taken provide a representative location of the sample within the support. This reduces the post-processing required to identify the location, for example the coordinates, of the various areas in the sample.
  • the image captured by the front camera is processed by an image processing algorithm, either provided within the far module or in a separate computer system (not shown) to automatically detect any variation in structure, color, tint , patterns, printed patterns, or the like
  • image processing the image is segmented into regions of interest and coordinates of each region are provided. These coordinates, eg, x-y coordinates with reference to a corner of the sample holder 310 are then used to direct the foreground imaging module 301 to each of these regions to obtain microscopic images of the sample. Both systems automatically determine the minimum image cropping that represented the minimum tileable structure that can be worked with.
  • each image in a sequence provides one image
  • the far-imaging module 302 may also include additional cameras (not shown).
  • additional cameras are positioned at the angles of incidence (about -80 degrees from the normal direction of the sample 1 to 10 degrees from the plane of the sample), one perpendicular to the other. These cameras capture images of the entire sample to provide additional reference data to optimize the optical properties of a given sample characterization session, in which a rendering engine generates variable optical parameters from synthetic images so that the simulations match the real captures of said cameras at critical angles, in this mode, a front camera and two incidence cameras.
  • the system comprises a lighting module with a plurality of lighting units 306a-3Q6n.
  • Illumination units 3Góa-3Gón are arranged around the sample holder.
  • the lighting units 106/306 are located at regular intervals, for example every 18 or 20 degrees, around the arms of a spherical mechanical frame pointing to the sample holder 310.
  • the backlight 312 can be scattered by a diffuser 313.
  • the diffused backlight allows the transmittance of the backlight illumination to be captured.
  • the backlight 312 and diffuser 31 may be removable to avoid introducing a white surface at the bottom of the sample that can be seen through the gaps between the wires.
  • the backlight 312 and diffuser 313 are configured in a location that does not fit within the image of the camera.
  • the backlight 312 and diffuser 313 are provided in a diffuse backlight assembly (not shown) that attaches to the system in a removable manner.
  • the diffuse backlight assembly can be attached to the sample holder 310.
  • the diffuse backlight assembly includes a backlight 312 from the light source, a diffuser layer 313, and an electrochromic layer between the light source and the diffuser.
  • the light source can be a white area LED light source, such as a slim LED fixture that emits a homogeneous, diffuse white light across its surface.
  • the diffuser can be a layer of translucent glass. For example, a glass with a rough surface and anii-reflectan coating, to minimize reflection from overhead light sources, especially at angles of incidence. He! diffuser also shows enough transmittance to allow light from the white area LED to pass through.
  • the electrochromic layer can be located between the white area LED source and the diffuser.
  • the electrochromic layer becomes opaque (eg, black) when electrical current is established in order to minimize bounce and secondary reflections when the sample is illuminated from the dome.
  • the electrochromic layer becomes transparent when the electrical current is turned off, and in this way, light passes through the sample from behind, and the camera can capture the transmittance properties of the sample.
  • the diffuse backlight assembly is located as close as possible to the sample holder 310, such that the divergence of the rays emitted from an area
  • the differential of the backlight set is as similar as possible to a complete hemisphere of outgoing directions.
  • the diffuse backlight assembly is. can separate from the specimen holder so that the specimen holder can be rotated 180 degrees to capture the back side of the tissue. The separation can be done automatically or manually.
  • each lighting unit 400 includes a source of. light 401, a collimated lens 402 and a linear pointer 403, which can optionally be housed in an integrated housing 404.
  • light source 401 is a high power phosphor-based white LED.
  • the light source 401 can be of different colors depending on the intended application. For example, if the material is known to be a specific color, light sources can be used to highlight the characteristics of the sample. However, for a more generic system, a white light source allows light reflection from samples of any color or combination of colors, making it a good choice for such a system.
  • a high-power source such as a high-power phosphor-based LED, enables fast processing by providing enough light for longer exposure times and is essentially uniform in light power, intensity, and color. departure. For example, a conventional flash light source, while it may be used in some applications, will not be as uniform as a high power phosphor-based white LED.
  • Illumination unit 400 also includes lens 402.
  • lens 402 may be a light. spherical condenser, or other collimated lens. In other embodiments, different types of lens can be used.
  • Housing 404 maintains the distance between the light source. 401 and lens 402.
  • the preferred distance between the light source 401 and the lens 402 is a distance that ensures that the illumination in the sample has a uniform power distribution and with 1a maximum possible power density in image capture dimensions. The distance also depends on the diameter of the lens and the focal length as will be described later.
  • the lens 402 is positioned at its focal length from the light source 401, the collimation of the light beams is at the theoretical maximum, that is, the divergence is the minimum. If lens 402 is positioned at a distance that causes an image from light source 401 to project onto sample 411, the amount of light reaching the sample is at its maximum.
  • the relationship between the focal length of the lens 402 and the distances between the lens 402 and the light source 401 and the lens 402 and sample 1 1 are determined by the following equation:
  • the distance between the light source 401 and the lens 402 is between 5% and 20% of the nominal focal length of the lens 402, preferably around 10%.
  • the placement can be up to 17-18mm from the 401 light source. In that position, the divergence of the light beam is not ideal, but it is sufficient and the amount of light on sample 41 1 does not decrease considerably.
  • lens 402 can be positioned further away from or closer to light source 403, without losing performance.
  • optimization of image capture requires improving the uniformity of the power distribution in the area of the sample to be captured, and maximizing the optical power density, which reduces the exposure time of the captures.
  • directional light sources are preferred.
  • most light sources such as ios L.ED, emit light in multiple directions. For example, some LEDs emit light practically in hemispheres around each point source.
  • collimated lenses 402 that collect the light emitted by the light source 401 and direct it towards the sample.
  • the lens diameter is selected to optimize the trade-off between maximizing the amount of light released into the sample and minimizing the divergence of the light rays. The larger the diameter of the lens, the greater the amount of light that reaches the sample, but the smaller the diameter of the lens, the smaller
  • a diameter of 1 inch provides about 1 or 2 degrees of divergence
  • Microscale imaging In accordance with the modalities described herein, a considerably flat wavefront is provided with lenses 402 with diameters in the range of 0.5 to 1.5 inches.
  • lenses 402 are provided with short focal lengths.
  • the focal length 5 defines the divergence of the light exiting the lens, which is determined by the following equation:
  • the focal length the smaller the divergent rays exiting the lens and therefore the greater the concentration of light in the sample.
  • the shorter the focal length the more light will collect on the lens. Therefore, according to the modalities, the amount of light reaching the sample is limited by a focal length between 15 and 20 mrn, with an acceptable range between 10 and 50 nm in various modalities.
  • the illumination modules 400 are designed to produce a low divergence incident Hz with lenses of rare 20 effective diameter and 16 mm focal length combined with 3 x 3 LF.D mm. In total, according to equation 3, these light units result in an output beam divergence of
  • the size of the captured target image is 10 x 7.5 rare, at a distance of 650 mm from the source. Therefore, according to equation 2, the divergence of the beam incident on the sample is about 1, 3 to horizontal or vertical I.
  • the 0 distance between light source 401 and lens 402 is around 18 rare.
  • the Housing 404 includes a fastening system 405 to the mechanical structure (for example, element 105 in figure 1) that allows directing the light beam in sample 41 1 in a simple and stable manner over time.
  • the clamping system 405 includes a rotatable clamping structure that allows limited rotation. de Sa casing 404 around a central point. In this mode, a user can manually rotate the. housing toward sample 41 1.
  • a motorized clamping system 405 that is controlled by a remote controller (not shown) can be provided to the units.
  • a remote controller (not shown)
  • a computer can be provided running software
  • Control commands are included to control each 405 motorized clamping system.
  • a 405 clamping system with springs and clamping screws is used, which allows the plane of Sa light source 403 to rotate in 3D in a simple way, while it is fixed with the screw to retain position and remain stable over time.
  • Other modalities include fixed clamping systems 405 manufactured to maintain the necessary position for each lighting unit 400 relative to the sample holder.
  • the lighting units 400 are calibrated to optimize 3rd illumination of the sample 41 1 with a forward plane wave illumination.
  • the maximum power density in sample 41 1 is obtained when lens 402 forms an image of illumination source 401 in sample 41 1.
  • the lens 402 of each illumination unit 400 is slightly out of focus. This will slightly blur the image of the light sources on the sample and reduce or eliminate smudging, thereby providing more uniform illumination on the sample.
  • the lens 402 may also include a polarizing filter 403,
  • the polarizing filter 403 may be a line polarizer; which is rotated to adjust polarization according to the polarization analyzer and a corresponding polarizer filter module 205 located in the camera unit.
  • the combination of the polarizing filters in the lighting units 400 and the foreground module 300 allows the light components to be separated in post-processing as mentioned above.
  • Chromaticity is corrected by changing the camera working distance for each filter with the motorized linear stage.
  • the offset is fixed during post image processing. These corrections remain constant, so they only need to be determined once, during a calibration process.
  • the illumination system comprised LEO targets CREE XP-L2. Their uniformity, both in power and in color, was tested with a 2000 Smini laser spectrometer, with a spectral range of 225 to 1000 n. Average color of the LED batch was 5639 K with a standard deviation of 367 K (as shown in Figure 6). The luminous flux was 245 Im on average with a standard deviation of 43 Im. These variations were calibrated and the results were used during the subsequent image processing stage to correct for necessary non-uniformities.
  • Figure 7 shows images obtained directly from the camera for a certain angle of illumination according to this modality. It shows how certain types of specific fibers (eg aerial fibers) emerge during particular lighting conditions. For the purposes of geometric extraction, diffuse lighting becomes very useful in place of light direct colsmada. Taking advantage of the additive nature of light, Figure 8 shows the composite images obtained by combining the images taken in each of the 76 possible input light directions.
  • the data obtained with this modality of the optical capture system is adjusted to extract the geometric and optical properties of a tissue sample at the fiber level. These properties are then used as input to a realistic photographic rendering engine based on volumetric path tracing. Basically, the engine simulates the transport of light at the fiber scale, also modeling the anisotropic light scattering patterns at the micron scale. These properties are perfectly extracted with the presented device, which provides sufficient resolution, sufficiently small pixel size and good level of light collimation to meet our requirements.
  • a software module is implemented with a product of computer program comprising computer readable medium including a computer program code that can be executed by a computer processor * to perform any or all ios steps, operations , or processes described.
  • the modalities may also refer to an apparatus for performing the operations described herein. This apparatus may be purpose-built and / or may comprise a general purpose computing device selectively activated or reconfigured by a computer program stored in the computer.
  • Said computer program can be stored on a non-transitory, tangible computer-readable medium or on any type of medium suitable for storing electronic instructions, which can be connected to a bus of the computer system.
  • any computer system referred to in the specification may include a single processor or may be architectures with multiple processor designs to increase the capacity of the computer.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Input (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

De acuerdo con varias modalidades de la presente invención, se proporciona un sistema de captura óptica. En una de las modalidades, se proporciona un sistema de captura óptica de microescala con poca divergencia de la luz incidente y un ángulo de aceptancia bajo de la luz captada. De acuerdo con las modalidades, se proporciona un sistema de captura óptica de microescala con un gran número de LED blancos de alta potencia colimados como fuentes de luz, por ejemplo, entre 60 y 100 unidades, que pueden ubicarse a distancias de alrededor 650 mm desde la muestra, En una modalidad, una cámara digital que utiliza un objetivo focal de 50 mm con un tubo de extensión de 25 mm de longitud capta imágenes de la muestra. Esto proporciona una distancia de trabajo de aproximadamente 100 mm y, al mismo tiempo, mantiene una ampliación de mas de 0,5x para capturas a microescala, con un tamaño de imagen de por ejemplo 4 x 4 micras por píxel.

Description

SISTEMA DE CAPTURA DE IMÁGENES DE MICROESCALA
ANTECEDENTES
[0001 ] Esta revelación se relaciona generalmente con sistemas de modelado por computadoras y, más específicamente, con un sistema y método para la captura de imágenes e microescala de propiedades geométricas y ópticas de materiales para usar cu gráficos por computadora y otras aplicaciones.
[0002] En aplicaciones de gráficos por computadora, el modelado preciso y que se asemeja a la realidad de materiales, tales corno tejidos, ropa y otros artículos hechos de fibras, ha sido un objetivo permanente y un componente clave para animaciones realistas en videojuegos, películas y otras aplicaciones de modelado por computadoras. Por ejemplo, materiales como tejidos se modelaban típicamente co o láminas bidimensionales de composición muy delgada. Los modelos de simulación de materiales diferentes se centraban, generalmente, en la apariencia de k superficie o superficies del modelo de lámina bídimensional. No obstante, estos modelos carecían de detalle y realismo, en particular, al examinar más de cerca o en escenas u otras estampas donde el material se exhibía cerca del espectador. Por ejemplo, en aplicaciones de compra por Internet basada en personajes digitales, un personaje digital modela artículos de ropa para un consumidor que intenta tomar una decisión de compra. En tales aplicaciones, el detalle y la apariencia realista de la ropa es fundamental. Un suéter de hilo de lana grueso no se puede representar exactamente en la superficie de una lámina bídimensional. Con el reconocimiento de estos defectos, más recientemente, se han desarrollado nuevos abordajes para el modeladotridimensional más realista de materiales, como ropa o tejidos.
[0003] No obstante, estos nuevos abordajes de modelado requieren información detallada sobre Las características del material que se modelará. Para obtener esta información, se necesitan sistemas de captura óptica para extraer con exactitud las- propiedades geométricas y ópticas de materiales que permiten modelar la apariencia de estos materiales en cualquier entorno de iluminación. Un abordaje es usar el procesamiento de imágenes ópticas para extraer parámetros geométricos y de apariencia de los materiales para, por ejemplo, crear modelos virtuales de los materiales que se usarán en las aplicaciones de gráficos por computadora.
[0004] La mayoría de los dispositivos están diseñados para captar materiales de superficie genérica a escala milimétrica, orientados generalmente a extraer las perpendiculares de. la superficie y su reflectancia, esta última en la forma de una función de distribución de
reflectancia bidireccional (BRDF, por sus siglas en inglés) con variación espacial (SV-BRDF).
I Para esto, se utilizan cámaras digitales para captar imágenes con básicamente dos abordajes. Un abordaje utiliza múltiples ángulos de observación e iluminación que cubren ei hemisferio centrado en la perpendicular de la superficie del material para recuperar las funciones de distribución de reflectancia bidireccional (BTF). El otro depende una única vista fija y múltiples luminarias. Todos estos sistemas por lo general funcionan con relaciones de ampliación pequeñas (Schwartz ei al., Design and bnplementation of Practical Eidirecíional Textura Fundían Measuremen! Devices Focusing on the Developments at the University o/Bonn. Sensors 2014 (Suiza)), ya que ei interés se basa en recuperar la SV-BRDF o la BTF, ya que necesitan un número de ángulos de observación diferentes. Esto implica numerosos usos relacionados con la profundidad del campo en ios ángulos de incidencia, io que resulta particularmente crítico al intentar alcanzar resoluciones muy finas a nivel de la fibra. Por lo tanto, este tipo de soluciones son muy útiles para el modelado de aspecto de materiales a distancia media pero no proporcionan tamaños de píxeles lo suficientemente pequeños y, por consiguiente, no se adaptan bien cuando el objetivo es extraer propiedades geométricas y ópticas para uso posterior en un contexto de representación realista, por ejemplo, en el caso de tejidos realistas.
[0005] Muy pocos sistemas anteriores presentan un sistema de captura óptica de microescala.
Un ejemplo reciente es el trabajo de Nam y colegas (Nara, G., Lee, J. li , Wu, H., Gutiérrez D. y Kim, M. H. (2016) Simuitamous acquisition of microscale refiectance and normáis ACM Transactions on Graphics. https://doi.Org/10. l 145/2980179 298022.0). !mplementan cámaras con lentes maero, que conducen a distancias de trabajo óptico muy cortas y permiten reducir las dimensiones del sistema hasta unas pocas de decenas de milímetros. Su sistema utiliza múltiples LED y un ángulo de observación fijo, con una ampliación de trabajo hasta 5:1. Todos los componentes están construidos en un domo de 40 raro de radio y los tamaños captados son del orden de 2 milímetros. Sistemas similares también se describen en Mam, G., Lee, 1. H., Wu, H., Gutiérrez. D. y Ki , M. H (201 ó). Simultaneóos acquisition of microscale refiectance and normáis. ACM TrgnscGraph, 35(6), 185,
[0006] Sin embargo. Sos sistemas con dimensiones tan pequeñas no siempre son adecuados para la representación predictiva en algunos contextos, por ejemplo, en la industria textil. La razón es que algunos materiales pueden verse como un mosaico estructurado a lo largo del material que se repite en patrones. Para este tipo de materiales, la estructura de tamaño mínimo de mosaico puede ser, a menudo, mucho mayor que 1-2 mm, co o en el caso de un gran porcentaje de tipos de lelas. Por consiguiente, un sistema de captura operativo para este tipo de materiales necesita un acuerdo entre la ampliación y el tamaño de la muestra. Esto no es sencillo de lograr debido al espesor que tienen algunas fibras, algunas por debajo de las 5 mieras y la auto-oclusión del sistema a esas distancias de trabajo cortas
5 [0007] Los parámetros relevantes de los sistemas de captura de microescala son la divergencia de las luces incidentes y e! ángulo de aceptancia de la luz captada. A los fines de la industria, los tiempos de exposición también son importantes. Todos ellos se relacio nan con la dimensión de la muestra y las distancias desde las fuentes de luz y la cámara hasta la muestra A medida que las distancias se acortan y/o las muestras se agrandan, las divergencias y los ángulos de 10 aceptancia aumentan. El impacto de estos factores ópticos en la precisión de la refleetancia medida puede ser relevante, alterando los resultados finales de los procesos de representación [0008] Otros abordajes para captar características de materiales para el modelado por computadoras incluyen sistemas, por ejemplo, para extraer modelos volumétricos de telas que emplean tomografías axiales computerizadas (TC) para obtener parámetros de la tela. Por Í5 ejemplo, uno de esos sistemas se describe en Zhao, S., Jakob, W., Marschner, S. y Bala K.
(201 1). Building Volumeiric Appearance Models ofFabric Using Micro CT Imagmg. ACM Transactions on Graphics (TÍ3G), 30(4), 44.
[0009] Sin embargo, los sistemas de tomografías computerizadas son muy costosos y requieren espacios amplios para operar. Los sistemas ópticos basados en microscopios también se utilizan 0 en algunas aplicaciones. No obstante, para el análisis de muestras de gran tamaño, en el rango de milímetros a centímetros, los sistemas basados en microscopios no pueden iluminar correctamente toda la muestra y realizar una inspección o captura de parámetros clave llevaría nna excesiva cantidad de tiempo. Por otra parte, los sistemas ópticos sin ampliación suficiente, una ampliación menor que 1 :l, no pueden obtener detalles suficientes como para captar
5 correctamente los parámetros relevantes en una muestra y, por lo tanto, no son óptimos para muchas aplicaciones. Algunos sistemas proporcionan una ampliación cercana a 1 i l con sensores ópticos, pero sus componentes de iluminación no ofrecen una iluminación de onda plana uniforme de las muestras, lo que exige un procesamiento posterior complejo de las Imágenes y la caracterización de fas condiciones de iluminación previo al procesamiento en cada punto0 potencial de la muestra.
[0010] Además de ios usos para el modelado por computadoras, estos tipos de sistemas de procesamiento de imágenes son importantes en otros campos. Por ejemplo, la inspección visual automatizada de objetos y ejemplares de materiales es importante para diversas aplicaciones. Por ejemplo, la inspección visual automatizada para el control de calidad de artículos fabricados se utiliza de forma rutinaria para proporcionar alta precisión y consistencia en la evaluación de actividades de fabricación,
[001 1] Ningún sistema actual es capaz de obtener imágenes de muestras de materiales con una proporción de ampliación cercana a I : 1 con iluminación de múltiples ángulos de incidencia y desde una distancia suficiente para asegurar la iluminación frontal de onda plana, minimizando las auto-oclusiones.
[0012] Por lo tanto, lo que se necesita es un sistema de procesamiento de imágenes óptico de microescala capaz de ofrecer una ampliación básicamente 1 :1 e iluminación de frente de onda plana que aborde las deficiencias de la técnica anterior,
BREVE RESUMEN
[0013] De acuerdo con varias modalidades de la presente invención, se proporciona un sistema de captura óptica. En una de las modalidades, se proporciona un sistema de captura óptica de microescala con poca divergencia ( i G) de la luz incidente y un ángulo de aceptancia bajo (<8°) de la luz captada. De acuerdo corolas modalidades se proporciona un sistema de captura óptica de microescala con un gran número de LED blancos de alta potencia colimados como fuentes de luz, por ejemplo, entre 60 y 100 unidades que pueden ubicarse a distancias de alrededor 650 mm desde la muestra en una modalidad. En una modalidad, una cámara digital que utiliza un objetivo focal de 50 mm con un tubo de extensión de 25 mm de longitud capta imágenes de la muestra. Esto proporciona una distancia de trabajo de aproximadamente 100 mm y, al mismo tiempo, mantiene una ampliación de G,5x para capturas a microescala, con un tamaño de imagen de 4 x 4 mieras por píxeh
[0014] De acuerdo con las modalidades, el sistema óptico es capaz de ofrecer análisis de polarización ai separar ios componentes de luz difusa y especular, y el análisis de profundidad mediante el apilamiento de enfoques debido a una profundidad de campo muy superficial que se proporciona en algunas modalidades. De acuerdo con las modalidades, el diseño del sistema lo hace robusto a las vibraciones y contempla todos los factores ópticos mencionados para asegurar un sistema adecuado especializado para la captura de materiales fibrosos. Mejora los abordajes anteriores para dichos objetivos, y es ideal para captar datos de alta calidad que puedan utilizarse para lograr telas con una representación realista. [0015] De acuerden con una modalidada, se provee un sistema de procesamiento de imágenes de rnicroescala que comprende un módulo de procesamiento de imágenes. El módulo de procesamiento de imágenes incluye un sensor óptico, un tubo de extensión y una lente. La lente se acopla al tubo de extensión y e! tubo de extensión se dispone en frente del sensor óptico para guiar la luz desde la ¡ente al sensor óptico. El sensor óptico incluye una pluralidad de píxeles de un tamaños. La lente está configurada para que el sensor óptico capte, para cada píxcf de la pluralidad de píxeles. un área de una muestra de tejido esencialmente del mismo tamaño que el tamaño de las píxeles. El sisíe también puede incluir un soporte configurado para mantener la muestra durante el procesamiento. El soporte también está configurado para presentar la muestra de tejido al módulo de procesamiento de imágenes sin obstrucción de luz incidente o luz reflejada. El sistema también incluye un módulo de iluminación con una pluralidad de unidades de luz dispuestas espacialmente alrededor del soporte de muestras y orientadas hacia el soporte de muestras. Cada unidad de luz está configurada para proporcionar una iluminación de frente de onda plana de la luz incidente en la muestra de tejido. En esta modalidad del sistema, la lente del módulo de procesamiento de imágenes está ubicada con respecto al sensor óptico y al tubo de extensión para que el módulo de procesamiento de imágenes pueda ubicarse con respecto al soporte de muestra de manera que evite oclusiones de la luz incidente al módulo de iluminación y que capte la luz reflejada en un frente de onda considerablemente plano.
[001 ó] En un sistema de acuerdo a una modalidad, cada unidad de luz puede incluir una lente colimada dimensionada para maximizar una intensidad de la luz incidente proyectada por cada unidad de luz en la muestra de tejido. Por ejemplo, en variantes de esta modalidad, la lente colimada en cada unidad de luz puede tener un diámetro entre 0,5 y 1 ,5 pulgadas. En varíenles de esta modalidad, la lente colimada en cada unidad de luz puede tener una longitud focal entre 15 y 20 mrn. En variantes, en cada unidad de luz, la lente colimada puede estar posieionadá a una distancia de una fuente de luz en la unidad de luz que es entre 5% y 20% de la longitud focal nominal de la lente colimada.
[0017] En modalidades del sistema, cada unidad de luz comprende uno o más LED blancos de alta potencia. En variantes de modadlidades del sistema, el. sensor óptico puede ser un sensor monocromático o un sensor de color. En variantes de modalidades del sistema, el módulo de procesamiento de imágenes puede incluir un sensor monocromático y un módulo de filtros, el módulo de filtros comprende una pluralidad de filtros, y cada uno está configurado para filtrar una longitud de onda de luz. En variantes del sistema, el módulo de procesamiento de imágenes también comprende un módulo de filtros, que incluye un filtro de polarización configurado para filtrar la luz reflejada antes de que llegue ai sensor óptico. En variantes del sistema, también comprende un sistema de enfoque que está formado por una plataforma de desplazamiento linea! y un motor, esta plataforma de desplazamiento lineal soporta mecánicamente el módulo de procesamiento de imágenes y se acopla al motor para mover linealmente el módulo de procesamiento de imágenes en dirección a la muestra de tejido, más cerca o más lejos, para enfocar el módulo de procesamiento de imágenes en la muestra de tejido. En otras modalidades el sistema también puede comprender un sistema de enfoque, que está formado por una lente de membrana configurada para modificar un punto focal basado en el cambio en el índice de refracción.
[0018] En variantes de modalidades del sistema, el soporte de muestras también comprende una montura y un motor controlado electrónicamente. Esta montura está configurada para ser movida por el motor controlado electrónicamente y escanear automáticamente la muestra de tejido con el módulo de procesamiento de imágenes. En variantes de modalidades del sistema, cada unidad de luz de ía pluralidad de unidades de luz también puede comprender una estructura de sujeción giratoria, esta estructura de sujeción giratoria acopia mecánicamente la unidad de luz al módulo de iluminación y permite el movimiento giratorio de ia unidad de luz para dirigir la unidad de luz hacia el soporte de muestras
BREVE DESCRIPCIÓN DE LAS DISTINTAS VISTAS DE LOS DIBUJOS
[0019] La figura 1 ilustra un sistema de captura de imágenes de ieroescala de acuerdo con una de las modalidades.
[0020] La figura 2 ilustra un modulo de captación de imágenes de acuerdo con una de las modalidades.
[0021 ] La figura 3 ilustra una perspectiva de un sistema de captura de imágenes de mieroescala de acuerdo con una de las modalidades.
[0022] La figura 4 ilustra una unidad de iluminación de acuerdo con una de las modalidades.
[0023 ] La figura 5A ilustra una prueba de resolución estándar IJSAF 1951 de acuerdo can una de las modalidades
[0024] La figura 5B ilustra una aberración cromática utilizando distintos filtros de acuerdo con una de las modalidades.
[0025] La figura 5C ilustra desplazamiento de la imagen utilizando distintos fiítors de acuerdo con una de ías modalidades. [0026] La figura 6 ilustra las temperaturas promedio del color en un lote de LEDs de acuerdo con una de las modalidades.
[0027] La figura 7 muestra imágenes obtenidas con una cámara para un determinado ángulo de iluminación de acuerdo con una modalidad.
[0028] La figura 8 muestra imágenes compuestas obtenidas ai combinar imágenes tomadas en cada una de 76 direcciones de luz de entrada posibles de acuerdo con una modalidad.
[0029] Las figuras representan varias modalidades de ejemplo de la presente revelación únicamente a los fines de ilustración. Una persona con conocimientos básicos en la materia reconocerá fácilmente a partir de la siguiente discusión que pueden implemeníarse otras modalidades de ejemplo basadas en estructuras y métodos alternativos sin desviarse de los principios de esta revelación y que se abarcan dentro del ámbito de esta revelación.
DESCRIPCIÓN DETALLADA
[0030] Las necesidades anteriores y otras están contempladas en los métodos, código ejecutable, y sistemas para la captura óptica de propiedades geométricas y ópticas de materiales para usar en el modelado de materiales en aplicaciones informáticas, incluidos, por ejemplo, diseño de prendas y modelado virtual, aplicaciones de captura de movimiento, biomecánica y diseño ergonómieo y simulación, educación, negocios compras virtuales y de realidad aumentada, y aplicaciones de entretenimiento, que incluyen animación y gráficos por computadora para películas digitales, juegos y videos interactivos, simulaciones de humanos, animales o personajes, aplicaciones virtuales y de realidad aumentada, robótica y similares.
[0031] Las figuras y la siguiente descripción resumen ciertas modalidades solo a título ilustrativo. Una persona con conocimientos básicos en la materia reconocerá fácilmente a partir de la siguiente descripción que pueden utilizarse modalidades alternativas de ¡as estructuras y métodos ilustrados aquí sin desviarse dé los principios descritos. Ahora nos referiremos en detalle a diversas modalidades, cuyos ejemplos se ilustran en las figuras adjuntas.
[0032] Los sistemas y métodos de acuerdo con varias modalidades describen un sistema de captura de imágenes de microescala. En las modalidades, se proporciona un sistema de captura de imágenes automatizado con una relación de ampliación 1 :1 desde múltiples puntos de iluminación frontal de onda plana, que minimiza las auto-oclusiones.
[0033] Con referencia a la figura 1 , se ilustra un sistema de captura de imágenes de microescala de acuerdo con una de las modalidades. El sistema 100 Incluye un subsistema de captura de imágenes 101 , un subsistema de iluminación 105 y un soporte de muestras 110. El subsistema de captura de imágenes 101 incluye una disposición de lente 102, que se conecta a un sensor de captación de imágenes 103 para captar la imagen de la muestra. En algunas modalidades, el subsistema de captura de imágenes también puede incluir un motor 104, conectado a una disposición de lente 102 y al sensor de captación de imágenes 103 para mover e! conjunto combinado en la dirección de la muestra más cerca o más lejos, para enfocar la imagen deseada. En otras modalidades, el subsistema de captura de imágenes 101 incluye conjuntos adicionales de lentes y sensores de captación de imágenes para capturar, en simultáneo, áreas más grandes de ia muestra
[0034] En una modalidad, el subsistema de iluminación incluye un conjunto de unidades de iluminación Í06a-! 0ón, configurado para iluminar la muestra desde una pluralidad de ángulos. En una modalidad, ei subsistema de iluminación incluye una carcasa 105. En una modalidad, la carcasa 105 es una estructura con forma de hemisferio, construida con perfiles de aluminio negro anodizado lQ7a-ÍQ?n En la modalidad ilustrada en la figura 1, hay nueve brazos de aluminio 107a-n, formados por nueve secciones. Los brazos 107 soportan los módulos de luz 106 orientados hacia el objetivo en el soporte de muestra 1 10.
[0035] En una modalidad el soporte de muestra 1 10 se puede desplazar con una montura de traslación Y para captar diferentes secciones de la muestra. En una modalidad, el soporte 1 10 también se puede rotar para captar ambos lados de la muestra. En las odalidades el desplazamiento y/o la rotación XY también se puede lograr COR uno o más motores controlados electrónicamente para proporcionar precisión repetible en ei movimiento de la muestra. En las modalidades, el soporte 1 10 tiene una dimensión que se ajusta al requisito de oclusión de luz mínima que podría tapar el objetivo. De acuerdo con ¡as modalidades, el soporte de muestras 1 10 tiene el tamaño necesario para sostener muestras de materiales de hasta 150 x 150 mm. La estructura mecánica del soporte 1 10 está diseñada en tamaño pequeño pero robusto, lo que minimiza la posibilidad de proyectar sombras sobre la muestra al ser iluminada por fuentes de luz de múltiples direcciones. En una modalidad, el sistema proporciona caracterización automática de los distintos puntos de medición a lo largo de la superficie de una muestra en el soporte de muestras 1 10 Esto se logra al proporcionar el posicionamiento automático del soporte de muestras 110 para captar cada variación a lo largo de múltiples áreas de la muestra.
El soporte de muestras motorizado 1 10 mueve 1a muestra en frente de la lente, desplazándola en direcciones X e Y a lo largo del plano frontal de captura. De esta manera, la muestra puede cruzar completamente la zona de captura de! módulo de captación de imágenes en primer plano. En una modalidad, el sistema incluye un módulo de captación de imágenes distante para analizar una muestra entera y determinar un conjunto de puntos de medición en la muestra como se describirá en detalle a continuación.
[0036] El soporte de muestras 1 10 y el subsistema de captura de imágenes puede estar apoyado sobre pedestales 108a y 108b. En una modalidad, la estructura de la carcasa 105 está completamente aislada de los pedestales 108a y 108b, para evitar cualquier vibración mecánica durante el proceso de captura de imágenes.
[0037] Con referencia a la figura 2, se ilustra un subsistema de captura de imágenes de acuerdo con otra de las modalidades. En una modalidad, el subsistema de captura de imágenes incluye un módulo de primer plano 200 con un sistema óptico 202 conectado a un sensor de imágenes 203 a través de un módulo de filtro 205 Un controlador 206 controla la captura mediante el sensor 203, el módulo de filtro 205 y el motor de enfoque 204. En una modalidad, estos componentes están conectados a una base mecánica deslizabk 207 que se puede mover en ambas direcciones por medio de un motor 204 en e! eje perpendicular al soporte de muestras. El módulo de primer piano 200 trabaja en áreas pequeñas de la muestra, por ejemplo,
aproximadamente 10 10 mra a 100 x 100 mtn, con una ampliación de 1 : 1.
[00.38] En las modalidades, el sensor de imágenes 203 puede incluir un dispositivo de carga acoplada (CCD, por sus siglas en inglés), un semiconductor complementario de óxido metálico (CMOS, por sus siglas en inglés) o sensores de cámara similares. En las modalidades, el sensor de imágenes 203 puede ser de algunos megapíxeles a varias decenas de megapíxeles y monocromático o a color.
[0039] Los sensores con el tamaño más pequeño de píxel ofrecen k mejor capacidad para resolver el tamaño más pequeño posible de material por píxel. Además, para el mismo tamaño de píxel, un CCD monocromático proporciona mejor resolución que un CCD a color, debido a los mosaicos de filtros de color incorporados de este .último. En una modalidad, el sensor de imágenes 203 incluye una cámara monocromática de tamaño de píxel de 2 mieras, y una cámara a color de tamaño de píxel de 1 miera. La cámara a color tiene la ventaja de que para las capturas de color rojo-verde-azul (RGB, por sus siglas en inglés) nó requiere filtros de color (como se explicará a continuación), lo que elimina la alineación del filtro y las correcciones de distorsión y también reduce los tiempos de captura del material por un tercero.
[0040] En una modalidad, para captar los materiales de los tejidos, captar el espesor de las fibras individuales que forman el tejido, por lo general en el orden de unas pocas mieras, el módulo de primer plano 200 proporciona una resolución de 4 x 4 mieras por píxel. En esta modalidad, el sistema es c paz de captar imágenes de 10 x 10 mm de tamaño aproximado, a fin de determinar la estructura deí tejido a nivel del hilo, que generalmente se encuentra en ese rango de tamaño. En esta modalidad, el sensor de imágenes 203 incluye una cámara monocromática Mightex SME-B050, con resolución 2560 x 1920 y tamaño de píxel de 2,2 x 2,2.
[0041 ] Volviendo a ia figura 2, el módulo de primer plano 200 también incluye un sistema óptico 202 para captar luz reflejada por la muestra y dirigirla al sensor de imágenes 203. El sistema óptico 202 incluye una lente y un tubo de extensión para garantizar una proporción de 1 11 .aproximadamente y una distancia de trabajo lo suficientemente grande para minimizar las oclusiones de luz en la muestra. El tubo de extensión tiene el tamaño necesario para colocar el sensor 203 y la lente a una distancia específica de manera tal que 1a muestra esté en foco a otra distancia especifica, permitiendo la iluminación de la muestra sin sombras desde la cámara.
Esto permite ampliar la muestra a expensas de estrechar la profundidad de campo. Por ejemplo, en la modalidad específica del tejido que se mencionó anteriormente, una lente focal de 50 m con un espacio de extensión de 25 mm proporciona una ampliación de 0,5 a 100 mm de distancia. Este espacio actúa como tubo de extensión y es clave para lograr una distancia de trabajo más extensa sin perder ampliación. Dicha distancia extensa es necesaria para evitar que ios sistemas proyecten sombras en la muestra de tejido, es decir, al reducir ias oclusiones de luz a! mínimo posible.
[0042] Para obtener una proporción de ampliación X:Y, los sistemas ópticos tienen que trabajar con una proporción X:Y de las distancias entre el objeto y la imagen. La distancia de la imagen se determina por la distancia desde el plano principal de la salida de ia lente al sensor de imágenes. Si la lente está montada directamente en el cuerpo del sensor, muy cerca de éste, la distancia de imagen resultante es corta. Si la proporción es 1 : 1, la distancia del objeto también es corta, ío que obliga a sistema óptica a estar muy cerca de la muestra, provocando oclusiones de muchos puntos de iluminación. Los tubos de extensión se colocan entre la lente y la carcasa del sensor, de manera que el sistema óptico pueda ubicarse lejos de la muestra y mantener la proporción de ampliación al mismo tiempo. Por lo tanto, d plano de salida principal de la lente se aleja, aumentando la distancia de la imagen y la distancia dd objeto, y permitiendo que la muestra se aleje del sensor, de manera tal que el ángulo sólido de las auto-oclusiones se reduce al mínimo posible. [0043] Las propiedades de ampliación de los sistemas de procesamiento de imágenes de microeseala permiten que el sistema capte detalles del material, como características de las fibras de un hilo, y que la cámara esté lo suficientemente lejos de la muestra para permitir la iluminación uniforme de la muestra, Por ejemplo, con un microscopio se podrían captar ios detalles pequeños de las fibras de un hilo, pero llevaría mucho tiempo procesar una muestra típica (por ej., 150 x 150 mrn). También tendría que estar muy cerca de la muestra, por lo que sería muy difícil de lograr la iluminación uniforme de la muestra, Además, la poca profundidad de campo del microscopio requeriría procesar una tela de espesor promedio a! procesar todas imágenes enfocadas; por lo tanto, sería necesario tomar varias imágenes con distancias focales diferentes para captar d espesor total de la muestra de tela. Por otra paite, para obtener los parámetros ópticos que se necesitan comúnmente para el modelado adecuado del material el proceso de captura óptica requiere la variación de la dirección de luz a lo largo del hemisferio captado en distintas imágenes. La distancia- de trabajo de un microscopio no permite esto, ya que gran paste del hemisferio está obstruido por el dispositivo en sí mismo y la iluminación disponible tiende a estar cerca de la muestra y desde una sola dirección.
[0044] En una modalidad, se utiliza un sensor de cámara monocromática 203 y un sistema de filtros de color 205 para captar las imágenes. El sistema de filtros de color 205 incluye un motor giratoria controlado lectrónicamente que ubica cada uno de los filtros entre la lente de la cámara 202 y el sensor de imágenes 203. Los filtros de color pueden corresponder a cualquier longitud de onda de luz deseable, entre ultravioleta e infrarroja. Algunas modalidades, pos- ejemplo, pueden usar tres filtros para los tres colores primarios (rojo, verde y azul [RGB]), pero también se puede usar otro color o longitud de onda de luz en cualquier combinación. Se debe destacar que el sistema de filtros 205 puede ubicarse en frente del módulo óptico 202 en algunas modalidades. En una modalidad, el sistema de filtros 205 se ubica en el área del tubo de expansión más próximo al sensor 203 So más alejado posible de la muestra para evitar la auto- oclusión proveniente de los filtros que proyectan sombras en la muestra. Por ejemplo, en una modalidad, un control deslizante de filtros motorizado y de múltiples posiciones con tres filtros RGB se ubica en el espacio entre la cámara y la lente. Con estos filtros, el sistema puede realizar eí análisis de color sin ¡a pérdida de resolución, debido a la ubicación de los píseles en el mosaico de un sensor de color (mosaico de Bayer).
[0045] Teniendo en cuenta otro aspecto, en algunas modalidades, las lentes con filtros color en sí mismas pueden producir una aberración cromática debido a diferencias o a imperfecciones en la lente, dando como resultado imágenes con colocación y enfoque diferentes para cada cana! de longitud de onda de la luz. y provocando posibles patrones de desenfoque de distintos colores. Para corregir esto, la cámara aprovecha una unidad de desplazamiento motorizado lineal de alta precisión 204 que proporcione el enfoque correcto cada vez que se cambia el filtro de color. De esta manera, se asegura que las imágenes de cada canal de longitud de onda tengan Sa máxima resolución posible. Por ejemplo, en una modalidad, se toman 3 imágenes con el sensor de cámara monocromática 203 con cada uno de los tres filtros RGB. Un algoritmo de
procesamiento posterior corrige las distorsiones radiales por canal y alinea los 3 canales de manera que la imagen esté limpia.
[0046] De acuerdo con otra modalidad, el módulo de filtros 205 incluye un sistema de polarización. En esta modalidad, el módulo de filtros 205 utiliza el motor para colocar en frente de! sensor de imágenes 203 un filtro paralelo a la polarización de la luz incidente en la muestra o un filtro perpendicular a este. El propósito es diferenciar en las capturas entre la reflexión de luz especular de la muestra y la reflexión de luz difusa, ya que se sabe que múltiples difusiones despolarizan la luz después de un número de rebotes de luz. Para deducir las propiedades : ópticas de la muestra de material, resulta útil aislar cada componente de luz lo máximo posible para que se puedan optimizar los parámetros del sistema general. Para un material ópticamente grueso, la luz interactúa con el material que ingresa en un punto y sale por otro distinto, con una dirección diferente, luego de varios eventos ópticos, como ¡a difusión y la absorción, dentro del material. En este contexto, se conoce que la luz polarizada se despolariza después de varias interacciones de la luz dentro del material. El sistema de polarización separa el primer rebote de luz, el término especular que siempre es del color del iluminante (par ej., blanco), de 1 resto de la luz que resulta de múltiples difusiones. Estas otras reflexiones de luz contienen información sobre la absorción de las longitudes de onda de la luz en el material, que determina el color (tinte), entre otras cosas.
[0047] Volviendo a la figura 2, en una modalidad, el módulo de primer plano 200 también incluye un sistema de enfoque 204. El sistema de enfoque 204 puede implementarse de distintas maneras de acuerdo con varias modalidades. Por ejemplo, en una modalidad, el sistema de enfoque incluye una pluralidad de lentes (no se muestran) con longitudes focales diversas para cambiar el plano de enfoque. En otra modalidad, se proporciona una membrana focal (no se muestra) La membrana focal comprende una disposición de lente plana-convexa para modificar ei índice de refracción y, a su vez, modificar el punto de enfoque de la cámara de primer plano. En otra de las modalidades, el sistema de enfoque 204 incluye un sistema de enfoque mecánico. Ei sistema de enfoque mecánico incluye una plataforma de desplazamiento lineal de alta precisión 207 en la cual se colocan la cámara 203, óptica 202 y filtros 205 (RGB, polarizado, etc.). Esta plataforma de desplazamiento lineal 207 está impulsada por un motor a pasos. Por lo tanto, es posible enfocar y desenfocar la imagen captada de manera automática y controlada, a) mover el sistema de captura más cerca o más lejos de la muestra. Este movimiento controlado también permite realizar el análisis profundo de las muestras mediante el apilamiento focal y ía profundidad de las técnicas de desenfoque.
[0048] Para enfocar la muestra, se puede utilizar una lente con auto enfoque en el sistema de lentes. No obstante, la lente de auto enfoque no siempre es compatible con el tubo extensor, ya que las conexiones mecánicas entre los motores de enfoque que mueven las lentes y las lentes reales deben estar separadas por d tubo. Además, colocar filtros 205 entre dicha lente de auto enfoque y el sensor de imágenes 203 también generará dificultades. Por lo tanto, en ias modalidades que usan un tubo extensor y filtros entre la lente y el sensor de imágenes, el sistema enfoca al desplazar todo el módulo de primer plano con un motor a pasos 204, que lo acerca o lo aleja de muestra.
[0049] Con referencia a la Fig. 3, se proporciona un diagrama que ¡lustra un sistema de captura óptica de microescala de acuerdo con una de las modalidades. En esta modalidad, el sistema 300 incluye un módulo de captación de imágenes de primer plano 301 y un módulo de captación de imágenes lejaiio 302. El módulo de captación de imágenes lejano 302 capta imágenes de la muestra de material más grande 33 1 que se sostiene mediante el soporte de muestras 310. Por ejemplo, una o más cámaras pueden captar una muestra de material de aproximadamente 150 mm X 150 m en el módulo de captación de imágenes lejano 302 El módulo de captación de imágenes lejano 302 capta una Imagen de toda la muestra deí material para identificar todas las áreas diferentes de la muestra, por ejemplo, debido a patrones de impresión, estructura del hilo, etc. Cada una de las áreas identificadas en la muestra requerirá una captura a una resolución en mieras con el módulo de primer plano 301.
[0050] De acuerdo con una modalidad, el módulo de captación de imágenes lejano 302 incluye una cámara frontal que capta una imagen de toda la muestra, por ejemplo, 15 x 15 crn. La cámara puede ser una cámara CCD o CMOS y también puede incluir un sistema óptico con auto enfoque. La cámara y la lente se acoplan directamente y permanecen fijas en una posición lejana del soporte de muestras 310. Esta posición evita oclusiones de la iluminación y aseguré que la captura del tejido es ío más perpendicular posible a la muestra de manera tal que las imágenes tomadas proporcionen una ubicación representativa de ía muestra dentro del soporte. Esto reduce el procesamiento posterior necesario para identificar la ubicación, por ejemplo, ¡as coordenadas, de las distintas áreas en la muestra.
[0051] La imagen captada por la cámara frontal se procesa mediante un algoritmo de procesamiento de imágenes, ya sea provisto dentro del módulo lejano o en un sistema informático aparte (no se muestra) para detectar automáticamente cualquier variación en la estructura, color, tinte, patrones, patrones impresos, o similares En el procesamiento de imágenes se segmenta ¡a imagen en reglones de interés y se proporcionan coordenadas de cada región. Estas coordenadas, por ejemplo, coordenadas x-y con referencia a una esquina del soporte de muestras 310 luego se utilizan para dirigir d módulo de captación de imágenes en primer plano 301 a cada una de estas regiones para obtener imágenes microscópicas de la muestra. Ambos sistemas determinan automáticamente el recorte mínimo de imágenes que representó la estructura mínima enlosable con la que se puede trabajar.
[0052] En estas modalidades, e! módulo de primer plano 301 es guiado por el módulo lejano
302 para señalar un área determinada de la muestra .31 1 para obtener una secuencia de imágenes de la muestra. Por ejemplo, cada imagen en una secuencia proporciona una imagen
representativa de una sección especifica de la muestra iluminada desde distintas fuentes de luz. Luego, estos datos se utilizan por medio de los algoritmos de procesamiento posterior para generar las imágenes digitales del material y extraer ios parámetros estructurales y ópticos que permiten que un motor de simulación mecánica y óptica reproduzca virtualmente el material.
[0053 { De acuerdo con las modalidades, el módulo de captación de imágenes lejano 302 también puede incluir cámaras adicionales (no se muestran). Por ejemplo, en una modalidad, se colocan dos cámaras adicionales en los ángulos de incidencia (alrededor de -80 grados desde la dirección normal de la muestra 1 i o 10 grados desde el plano de la muestra), una perpendicular a la otra. Estas cámaras captan imágenes de toda la muestra para proporcionar datos de referencia adicionales para optimizar las propiedades ópticas de una sesión de caracterización de muestras dada, en la cual un motor de renderiza ón genera parámetros ópticos variables de imágenes sintéticas de manera que las simulaciones coincidan con las capturas reales de dichas cámaras en los ángulos críticos, en esta modalidad, una cámara frontal y dos cámaras de incidencia. [0054] Volviendo a la figura 3, en las modalidades, el sistema comprende un módulo de iluminación con una pluralidad de unidades de iluminación 306a-3Q6n. Las unidades de iluminación 3Góa-3Gón (también se muestran en la figura 1 como 10óa-lG6n) se disponen alrededor del soporte de muestras. Por ejemplo en las modalidades, las unidades de iluminación 106/306 se ubican en intervalos regulares por ejemplo, cada 18 o 20 grados, alrededor de los brazos de una estructura mecánica esférica que apunta al soporte de muestras 310. En algunas modalidades también se proporciona una luz posterior 312. La luz posterior 312 se puede dispersar mediante un difusor 313. En estas modalidades, la luz posterior difusa permite captar la transmitancia de la iluminación de la luz posterior. La luz posterior 312 y el difusor 31 pueden ser desmontables para evitar introducir una superficie blanca en el fondo de la muestra que se pueda ver a través de los espacios entre los hilos. De manera alternativa, la luz posterior 312 y el difusor 313 se configuran en una ubicación que no se encuadra dentro del imágen de la cámara. En las modalidades, la luz posterior 312 y el difusor 313 se proporcionan en un conjunto de luz posterior difusa (no se muestra) que se acopla ai sistema en forma que se pueda desmontar. Por ejemplo, en algunas modalidades, el conjunto de luz posterior difusa se puede acoplar ai soporte de muestras 310.
[0055] En las modalidades, el conjunto de luz posterior difusa incluye una luz posterior 312 de la fuente de luz, una capa difusora 313 y una capa electrocrómíca entre la fuente de luz y el difusor. Por ejemplo, en una modalidad, la fuente de luz puede ser una fuente de luz LED de área blanca, tal como un dispositivo LED delgado que emite una luz blanca difusa y homogénea a lo largo de su superficie. El difusor puede ser una capa de vidrio traslúcido. Por ejemplo, un vidrio con una superficie rugosa y revestimiento anii-reflectanda, para minimizar la reflexión originada en las fuentes de luz cenital, en especial, en los ángulos de incidencia. El! difusor también muestra suficiente transmitancia para permitir el paso de la luz proveniente del LED de área blanca. La capa electrocrómíca puede ubicarse entre la fuente LED de área blanca y el difusor. La capa electrocrómíca se vuelve opaca (por ej., negro) cuando se establece la corriente eléctrica con el objetivo de minimizar rebotes y reflexiones secundarios cuando se ilumina la muestra desde, el domo. Cuando se enciende el LED de área blanca, la capa electrocrómíca se vuelve transparente al desconectar la corriente eléctrica y, esta manera, la luz atraviesa la muestra desde atrás, y la cámara puede captar fas propiedades de transmitancia de la muestra.
En las modalidades, el conjunto de luz posterior difusa se ubica lo más cercano posible al soporte de muestras 310, de manera tal que la divergencia de los rayos emitidos desde un área
Figure imgf000018_0001
diferencial deí conjunto de luz posterior es lo más similar posible a un hemisferio completo de direcciones salientes. Como se mencionó anteriormente, ei conjunto de luz posterior difusa se. puede separar del soporte de muestras, de manera tal que el soporte de muestras puede girar 180 grados para captar el lado posterior del tejido. La separación se puede realizar en forma automática o manual.
[0056] Con referencia a la figura 4, se proporciona un diagrama de la unidad de iluminación 400 de acuerdo con una de las modalidades. En una de las modalidades, cada unidad de iluminación 400 incluye una fuente de. luz 401, una lente colimada 402 y un po {atizador lineal 403, que se pueden alojar, opciortalmeníe, en una carcasa integrada 404.
[0057] De acuerdo con una modalidad, la fuente de luz 401 es un LED blanco con base de fósforo de alta potencia. En las modalidades, la fí ente de luz 401 puede ser de diferentes colores según la aplicación prevista. Por ejemplo, si se sabe que el material es de un color específico, se pueden utilizar fuentes de luz que destaquen.. las características de la muestra. No obstante, para un sistema más genérico, una fuente de luz blanca permite la reflexión de luz de muestras de cualquier color o combinación de colores, por lo que es una buena elección para un sistema de este tipo. Asimismo, una fuente de alta potencia, como un LED con base de fósforo de alta potencia, permite el procesamiento rápido ya que da suficiente luz para tiempos de exposición más prolongados y es esencialmente uniforme en cuanto a potencia, intensidad y color de la luz de salida. Por ejemplo, una fuente de luz tipo flash convencional, si bien puede utilizarse en algunas aplicaciones, no será tan uniforme como un LED blanco con base de fósforo de alta potencia.
[0058] La unidad de iluminación 400 también incluye una lente 402. En una modalidad, la lente 402 puede ser una luz. condensadora esférica, u otra lente colimada. En otras modalidades, pueden utilizarse diferentes tipos de lente. La carcasa 404 mantiene la distancia entre la fuente de luz. 401 y la lente 402. De acuerdo con uno de los aspectos de las modalidades, la distancia preferente entre la fuente de luz 401 y ia lente 402 es una distancia que asegure que la iluminación en la muestra tenga una distribución uniforme de potencia y con 1a máxima densidad de potencia posible en las dimensiones de captura de imagen. La distancia también depende del diámetro de la lente y la longitud focal como se describirá más adelante.
[00591 Si la lente 402 se coloca en su distancia focal desde la fuente de luz 401, la colimación de los haces de luz se encuentra en el máximo teórico, es decir, la divergencia es el mínimo. Sí la lente 402 se coloca a una distancia que provoca que una imagen de la fuente de luz 401 se proyecte en la muestra 411 , la cantidad de luz que liega a la muestra está en su máximo. La relación entre la distancia focal de la lente 402 y las distancias entre la lente 402 y la fuente de luz 401 y la lente 402 y la muestra 1 1 se determinan por la siguiente ecuación:
Figure imgf000019_0001
[Ecuación 1]
[0060] Por ejemplo, para una lente 402 con una distancia focal de 16 rara y donde la muestra 4í 1 está ubicada a 700 rara de distancia de la fuente de iluminación 401 , colocar la lente 401 a 16 rara de la .fuente de luz 401 proporciona 3a mejor divergencia (más pequeña) de los rayos da luz. No obstante, colocar la lente 402 a 16,4 mm hace que se forme una imagen de la fuente de luz 40 ! sobre la muestra. En este modalidad, estas distancias son bastante cercanas, ya que la distancia de la muestra 41 1 a la lente 402 es relativamente amplía. Sin embargo, la pequeña diferencia en distancia para la colocación de la lente puede resultar en manchas o en una “huella" de la fuente de luz 401 sobre la muestra, que genera irregularidad de la luz en la muestra. Dada esta pequeña tolerancia, una vez que se ubica la lente 402 a una distancia determinada desde la fuente de luz 401, si la iluminación de la muestra no es lo suficientemente uniforme o regular, el enfoque de la lente 402 puede cambiarse para desenfocar levemente la fuente de luz sobre la muestra como se expone más adelante.
[0061] De acuerdo con las modalidades, la distancia entre la fuente de luz 401 y la lente 402 es entre 5% y 20% de la distancia focal nominal de la lente 402, preferentemente alrededor del 10%. Por ejemplo, para una lente 401 con una distancia focal de 16 mm, la colocación puede ser hasta 17- 18 mm desde la fuente de luz 401 . En esa posición, la divergencia del rayo de luz no es ideal, pero es suficiente y la cantidad de luz sobre la muestra 41 1 no disminuye considerablemente. En otras modalidades, la lente 402 se puede colocar a distancias más alejadas o cercanas a la fuente de luz 403, sin perder rendimiento.
[0062] La optimización de la captura de imágenes requiere mejorar la uniformidad de la distribución de potencia en el área de la muestra que se captará, y maximizar la densidad de potencia óptica, que reduce el tiempo de exposición de las capturas. Para lograrlo, se prefieren fuentes de luz direccionaics. Sin embargo, la mayoría de las fuentes de luz, como ios L.ED, emiten luz en múltiples direcciones. Por ejemplo, algunos LED emiten luz prácticamente en hemisferios alrededor de cada fuente puntual. Para aumentar la densidad de la potencia óptica en la muestra, es preferible usar lentes colimadas 402 que reúnen la luz emitida por la fuente de luz 401 y la dirigen hacia la muestra. [QC63] En dichas modalidades, se selecciona el diámetro de lente para optimizar la compensación entre maximizar la cantidad de luz liberada en la muestra y minimizar ia divergencia de los rayos de luz. Cuanto más grande sea el diámetro de la lente, mayor será la cantidad de luz que llegue a la muestra, pero cuanto menor sea el diámetro de la lente, menor
5 será la divergencia de los rayos dirigido a la muestra, La divergencia en la muestra D se
proporciona mediante la siguiente ecuación:
[Ecuación 2]
Figure imgf000020_0001
Por ejemplo, para un tamaño de muestra de 10 mm y una distancia de lente a muestra entre 35 era y 70 cm, un diámetro de 1 pulgada proporciona alrededor de 1 o 2 grades de divergencia,
10 que provee un frente de onda considerablemente piano en la muestra. Para la captura de
imágenes de microescala de acuerdo con las modalidades descritas aquí, se proporciona un frente de onda considerablemente plano con lentes 402 con diámetros en el rango de 0,5 a 1,5 pulgadas.
[0064] Además, se proporcionan lentes 402 con longitudes focales cortas La longitud focal 5 defíne la divergencia de la luz que sale de la lente, que se determina por la siguiente ecuación:
Figure imgf000020_0002
Cuanto mayor sea la longitud focal, menores serán los rayos divergentes que salen de la lente y, por lo tanto, habrá mayor concentración de luz en la muestra. De manera similar, cuanto menor sea b longitud focal, mayor cantidad de luz se reunirá en la lente. Por lo tanto, de acuerdo con0 las modalidades, la cantidad de luz que llega a la muestra se raaximiza por una longitud focal entre 15 y 20 mrn, con un rango aceptable entre 10 y 50 rnm en varias modalidades.
[0065] Por ejemplo, en una modalidad, los módulos de iluminación 400 están diseñados para producir un h z incidente de poca divergencia con lentes de diámetro efectivo de 20 rara y longitud focal de 16 mm que se combinan con LF.D de 3 x 3 mm. En total, de acuerdo con la5 ecuación 3, estas unidades de luz dan como resultado una divergencia de haz de salida de
aproximadamente 5°. En esta modalidad, el tamaño de la imagen objetivo captada es 10 x 7,5 rara, a una distancia de 650 mm desde la fuente. Por lo tanto, de acuerdo con la ecuación 2, la divergencia del haz incidente en la muestra es aproximadamente 1 ,3a horizontal y I o vertical.
Además, como se mencionó anteriormente, con una lente con una longitud focal de 16 mm, la0 distancia entre la fuente de luz 401 y la lente 402 es alrededor de 18 rara.
[0066] De acuerdo con otro aspecto de las diversas modalidades, la distancia entre cada unidad de luz 400 y la muestra objetivo 41 1 se mantiene constante. Por ejemplo, en una modalidad, la carcasa 404 incluye un sistema de sujeción 405 a la estructura mecánica (por ejemplo, elemento 105 en la figura 1 ) que permite orientar el haz de luz en la muestra 41 1 de manera simple y estable a lo largo del tiempo. Una vez que se coloca cada unidad de iluminación 400 en la estructura mecánica 105 del sistema, el haz de luz se orienta hacia la muestra 43 1. En una modalidad, el sistema de sujeción 405 Incluye una estructura de sujeción giratoria que permite la rotación limitada de Sa carcasa 404 alrededor de un punto central. En esta modalidad, un usuario puede rotar manualmente la. carcasa hacia la muestra 41 1. Otros sistemas de sujeción 405 y métodos alternativos para orientar las unidades de iluminación 400 se contemplan dentro del ámbito de aplicación de la revelación. Por ejemplo, se puede proporcionar un sistema de sujeción motorizado 405 que se controla mediante un controlador (no se muestra) remoto a las unidades. Por ejemplo, se puede proporcionar una computadora que ejecuta un software,
Incluidos comandos de control para controlar cada sistema de sujeción motorizado 405. En otra modalidad, se utiliza un sistema de sujeción 405 con resortes y tomillos de sujeción, que permite que el plano de Sa fuente de iluminación 403 gire en 3D de manera simple, mientras se fija con el tornillo para retener la posición y permanecer estable con el tiempo. Otras modalidades incluyen sistemas de sujeción fijos 405 fabricados para mantener la posición necesaria para cada unidad de iluminación 400 con respecto al soporte de muestras
[0067] De acuerdo con otro aspecto de las modalidades del sistema, las unidades de iluminación 400 se calibran para optimizar 3a iluminación de la muestra 41 1 con una iluminación de onda plana frontal. En una modalidad, la densidad de potencia máxima en la muestra 41 1 se obtiene cuando la lente 402 forma una imagen de la fuente de iluminación 401 en la muestra 41 1 . No obstante, dada la naturaleza de la emisión de la luz desde las fuentes de iluminación, por ejemplo, LED blanco, la luz se distribuye generalmente en forma irregular y forma manchas espaciales que conducen a una iluminación no uniforme. De acuerdo con una modalidad, para iluminar la muestra 41 1 con una distribución de luz más uniforme, la lente 402 de cada unidad de iluminación 400 se desenfoca levemente. Esto desdibujará levemente la imagen de las fuentes de iluminación en la muestra y reducirá o eliminará las manchas, proporcionando, en consecuencia, una iluminación más uniforme en la muestra. El ligero desenfoque de la lente 402 hace que Las manchas de emisión espacial de las fuentes de iluminación 401 se dispersen para obtener uniformidad en la iluminación, al mismo tiempo que se trabaja cerca de la densidad de potencia óptica máxima en la muestra 41 1 [0068] De acuerdo con las modalidades, la lente 402 también puede incluir un filtro polarizador 403, El filtro polarizador 403 puede ser un polarizador linea; que se gira para ajustar la polarización según el analizador de polarización y un módulo filtro de polarizador 205 correspondiente ubicado en la unidad de cámara. La combinación de los filtres polarizadores en las unidades de iluminación 400 y el módulo de primer plano 300 permite separar los componentes de luz en procesamiento posterior como se mencionó anteriormente.
[0069] Usando una modalidad del sistema descrito aquí, ios inventores realizaron una serie de pruebas para determinar el rendimiento del sistema. En esta modalidad, la resolución óptica del sistema óptico completó se midió con la prueba de resolución estándar USAF 1951 (figura 5 A), y resultó ? 5, que es equivalente a 203 Sínea-par/tnm. Por lo tanto, en esta modalidad, la resolución del sistema solo está limitada por el tamaño de píxel de Sa cámara (454 píxeles/mm) y no por la lente y la extensión utilizadas. Además, se utilizó una cuadrícula de espadado uniforme de 125 mha para evaluar la distorsión y la, aberración cromática y el desplazamiento de la imagen. Esta prueba muestra que la distorsión está debajo del nivel de resolución del sistema en toda Sa imagen. La aberración cromática y el desplazamiento de la imagen se observaron al utilizar distintos filtros RGB. Ambos fenómenos son repetitivos y se pueden corregir fácilmente (corno se muestra en la figura 5B y 5C). Como se analizó anteriormente, la aberración
cromática se corrige ai cambiar la distancia de trabajo de la cámara para cada filtro con la etapa lineal motorizada. El desplazamiento se fija durante el procesamiento de imágenes posterior. Estas correcciones permanecen constantes, por lo que solo deben determinarse una vez, durante un proceso de calibración.
[0070] En esta modalidad, el sistema de iluminación comprendió LEO blancos CREE XP-L2.Su uniformidad, tanto en potencia como en color, se probó con un espectrómetro láser 2000 Smini, con un rango espectral de 225 a 1000 n , La temperatura promedio del color del lote de LED fue 5639 K con una desviación estándar de 367 K (como se muéstra en la figura 6) El flujo luminoso fue 245 Im en promedio con una desviación estándar de 43 Im. Estas variaciones se calibraron y se utilizaron los resultados durante la etapa de procesamiento de imágenes posterior para corregir las no uniformidades necesarias.
[0071] La figura 7 muestra imágenes obtenidas directamente de la cámara para un determinado ángulo de iluminación de acuerdo con esta modalidad. Se muestra cómo ciertos tipos de fibras específicas (por ej.. fibras aéreas) emergen durante condiciones de iluminación particulares, A los fines de extracción geométrica, la iluminación difusa se vuelve muy útil en lugar de la luz colsmada directa. Aprovechando las ventajas de la naturaleza aditiva de la luz, la figura 8 muestra las imágenes compuestas obtenidas al combinar las imágenes tomadas en cada una de las 76 direcciones de luz de entrada posibles
[0072] Los datos obtenidos con esta modalidad del sistema de captura óptica se ajustan para extraer las propiedades geométricas y ópticas de una muestra de tejido a nivel de las fibras. Luego, estas propiedades se utilizan como datos de entrada para un motor de renderización fotográfica realista basado en el trazado de caminos volumétrico. Básicamente, el motor simula el transporte de luz a ia escala de fibras, también modelando los patrones de dispersión de luz anísótropos a escala de mieras. Dichas propiedades se extraen perfectamente con el dispositivo presentado, que proporciona suficiente resolución, tamaño de píxel suficientemente pequeño y buen nivel de colimación de luz para cumplir con nuestros requisitos.
{0073] La descripción precedente de las modalidades se ba presentado a Sos fines ilustrativos; no está destinada a ser exhaustiva ni a limitar loa derechos de patente a las formas precisas reveladas. Las personas expertas en la materia pueden apreciar que muchas modificaciones y variaciones son posibles teniendo en cuenta La revelación anterior
[0074] Algunas partes de esta descripción describen las modalidades en términos de algoritmos y representaciones simbólicas de operaciones sobre información. Estas descripciones y representaciones algorítmicas son utilizadas comúnmente por Sos expertos en ¡a materia para procesar datos para transmitir el contenido de su trabajo de manera efectiva a otros expertos en la materia. Se entiende que estas operaciones, si bien se describen en términos funcionales, informáticos o lógicos, ae irnplementarán a través de programas informáticos o circuitos eléctricos, microcódigos equivalentes o similares. Asimismo, se ha comprobado que es práctico, en ocasiones referir a estas disposiciones de operaciones como módulos, sin perder !a
generalidad. Las operaciones descritas y sus módulos asociados pueden representarse en software, fimn are, hardware o cualquier combinación de estos.
[ 0075 { Cualquiera de los pasos, operaciones o procesos descritos aquí pueden realizarse o impiementarse con uno o más módulos de hardware o software, en forma independiente o en combinación con otros dispositivos En una modalidad, se implemertta un módulo de software con un producto de programa informático que comprende un soporte legible por computadora, que incluye un código de programa informático, que se puede ejecutar por medio de un * procesador de computadora para realizar alguno o todos ios pasos, operaciones o procesos descritos. [0076] Las modalidades también pueden referirse a un aparata para realizar las operaciones descritas aquí. Este aparato se puede construir especialmente para los fines necesarios y/o puede comprender un dispositivo informático de uso general activado o reconiigurado selectivamente por un programa informático almacenado en la computadora. Dicho programa informático se puede almacenar en un soporte legible por computadora tangible, no transitorio o en cualquier tipo de soporte adecuado para almacenar instrucciones electrónicas, que se pueda conectar a un bus del sistema informático. Además, cualquier sistema informático referido en la especificación puede incluir un solo procesador o pueden ser arquitecturas con varios diseños de procesador para aumentar la capacidad del ordenador.
[0077] Por último, el lenguaje utilizado en la especificación se seleccionó principalmente teniendo en cuenta los fines de legibilidad e instructivos y no se ha seleccionado para delinear o circunscribir el objeto de la invención. Por lo tanto, se espera que el ámbito de aplicación de ios derechas de patente no se limite por esta descripción detallada sino por las reivindicaciones que se publican en una aplicación basada en adelante. Por consiguiente, la revelación de las modalidades tiene por objeto ilustrar, pero no de manera taxativa, el ámbito de aplicación de los derechos de patente, que se establecen en el siguiente.

Claims

jREIVINDICAOO ES
Lo que se reivindica es:
I . Un sistema de procesamiento de imágenes de m rocscala que comprende:
5 un módulo de procesamiento de imágenes, que incluye un sensor óptico, un tubo de extensión y una lente, ja lente se acopla al tubo de extensión y el tubo de extensión ae dispone en frente del sensor óptico para guiar k luz desde la lente al sensor óptico el sensor óptico que incluye una pluralidad de de píxeles de un tamaño, la lente está configurada para que el sensor óptico capte, para cada píxei |§ de la pluralidad de píxeles, un área de una muestra de tejido esencialmente del mismo tamaño que el tamaño de las píxeles;
un soporte de muestras configurado para mantener la muestra durante el procesamiento, el soporte de muestra también está configurado para presentar la muestra de tejido al módulo de procesamiento de imágenes sin obstrucción de luz incidente o 15 luz reflejada;
un módulo de iluminación, que incluye una pluralidad de unidades de luz dispuestas espacialmente alrededor de! soporte de muestras y orientadas hacia e! soporte de muestras, cada unidad de luz está configurada para proporcionar una iluminación de frente de onda plana de la luz incidente en muestra de tejido;
20 donde la lente del módulo de procesamiento de imágenes está ubicada con respecto al sensor óptico y a! tubo de extensión para que el módulo de procesamiento de imágenes pueda ubicarse con respecto al soporte de muestra de manera que evite oclusiones en la luz incidente de! módulo de iluminación y que capte k luz reflejada en un frente de onda considerablemente plano.
25 2. El sistema de la reivindicación 1 , en ei que cada unidad de luz incluye una lente colimada dímensíonada para maximizar una intensidad de la luz incidente proyectada por cada unidad de luz en la muestra de iejidb.
3. El sistema de la reivindicación 1 , en el que el módulo de procesamiento de imágenes
también comprende un módulo de filtros, que incluye un filtro de polarización configurado
|C1 para filtrar la luz reflejada antes de que llegue al sensor óptico.
4. El sistema de la reivindicación 1 que además comprende un sistema de enfoque, que está formado por una plataforma de desplazamiento lineal y un motor, esta plataforma de desplazamiento linea! soporta mecánicamente ei módulo de procesamiento de imágenes y se acopla ai motor ^ara mover lineaimente el módulo de procesamiento de imágenes en dirección a la muestra de tejido, más cerca o más lejos, para enfocar el módulo de procesamiento de imágenes en ia muestra de tejido.
5. El sistema de la reivindicación I que también comprende un sistema de enfoque, que está formado por una lente de membrana configurada para modificar un punto focal basado en el cambio en el índice de refracción.
6. El sistema de la reivindicación I , en ei que el soporte de muestras también comprende una montura y un motor controlado electrónicamente, esta montura está configurada para ser movida por el motor controlado electrónicamente y escanear automáticamente la muestra de tejido con ei módulo de procesamiento de imágenes.
7. Ei sistema de la reivindicación 2, en el que la lente colimada en cada unidad de luz tiene un diámetro entre 0,5 y 3,5 pulgadas
8. El sistema de la reivindicación 2, en el que la lente colimada en cada unidad de luz tiene una longitud focal entre 15 y 20 mm.
9. Ei sistema de 3a reivindicación 8 en ei que, en cada unidad de luz, 1a lente colimada está posicionada a una distancia de una fuente de luz en la unidad de luz que es entre 5% y 20% de la longitud focal nominal de ia lente colimada.
10. El sistema de la reivindicación 1, en el que cada unidad de luz comprende uno o más LEÍ) blancos de alta potencia.
J l. El sistema de la reivindicación 1 , en el que el sensor óptico es un sensor monocromático o un sensor de color.
12. El sistema de la reivindicación 1 , en el que el módulo de procesamiento de imágenes incluye un sensor monocromático y un módulo de filtros, el módulo de filtros comprende una pluralidad de filtros, y cada uno está configurado para filtrar una longitud de onda de luz.
13. El sistema de ia reivindicación 1, en ei que cada unidad de luz de la pluralidad de unidades de luz también comprende una estructura de sujeción giratoria esta estructura de sujeción giratoria acopia mecánicamente la unidad de luz al módulo de iluminación y permite el movimiento giratorio de la unidad de luz para dirigir la unidad de luz hacia el soporte de muestras.
14. Un sistema de procesamiento de imágenes de microeseala que comprende: un soporte de muestras configurado para mantener una muestra de tejido para el procesamiento, ei soporte de muestra también está configurado para presentar la muestra de tejido a un primer módulo de procesamiento de imágenes y a un segundo módulo de procesamiento de imágenes sin obstrucción de luz incidente o luz reflejada;
un primer módulo de procesamiento de imágenes, que comprende una o más cámaras digitales alejadas ubicadas en un lugar fijo con respecto al soporte de muestras las cámaras digitales alejadas están configuradas para captar una o más imágenes de toda una muestra de tejido para determinar una pluralidad de regiones en la muestra de tejido;
un segundo módulo de procesamiento de imágenes, que comprende una o más cámaras digitales de primer plano, cada una de ellas incluye una lente y un sensor óptico correspondiente, cada sensor óptico incluye una pluralidad de píseles con un tamaño de píxel, cada lente está configurada para que el sensor óptico correspondiente pueda captar, para cada píxel de la pluralidad de píxeíes, un área representada de la muestra de tejido esencialmente del mismo tamaño que ei tamaño de píxel;
un módulo de iluminación que comprende una pluralidad de unidades de luz, cada
unidad de luz está configurada para proporcionar una iluminación de frente de onda plana de la muestra de tejido en cada una de la pluralida de regiones de la muestra de tejido.
15. El sistema de la reivindicación 14, en ei que cada unidad de luz incluye una lente colimada dimensíonada para maximizar una intensidad de la luz incidente proyectada por la unidad de luz en la muestra de tejido.
16. El sistema de la reivindicación 14, en el que el segundo módulo de procesamiento de
imágenes también comprende un módulo de filtros para cada una de las cámaras digitales de primer plano, cada módulo de filtros se acopla mecánicamente a una cámara digital de primer piano de una o más de las cámaras digitales de primer plano e incluye un filtro de polarización configurado para filtrar una luz reflejada por la muestra de tejido antes de que llegue a la cámara digital de. primer plano.
17, El sistema de la reivindicación 14 que además comprende un sistema de enfoque, que está formado por una plataforma de desplazamiento lineal y un motor, esta plataforma de desplazamiento lineal soporta mecánicamente eí segundo módulo de procesamiento de imágenes y se acopla ai motor para mover Hneaimente d módulo de procesamiento de imágenes en dirección a la muestra de tejido, más cerca o más lejos, para enfocar el segundo módulo de procesamiento de imágenes en i a muestra de tejido.
18 El sistema de la reivindicación 14 que también comprende un sistema de enfoque, que está formado por una lente de membrana configurada para modificar un punto focal basado en d cambio en el índice de refracción.
19. El sistema de la reivindicación 14 en eí que el soporte de muestras también comprende una montura y un motor controlado electrónicamente esta montura está configurada para ser movida por eí motor controlado electrónicamente y escanear automáticamente ia muestra de tejido con el segundo módulo de procesamiento de imágenes.
20. Eí sistema de la reivindicación 15, en el que la lente colimada en cada unidad de luz tiene un diámetro entre 0,5 y 1,5 pulgadas.
21. El sistema de la reivindicación 15, en el que a lente colimada en cada unidad de luz tiene una longitud focal entre 15 y 20 m .
22. El sistema de la reivindicación 21, en el que, en cada unidad de luz. ia lente colimada está posicionada a una distancia de una fíjente de luz en la unidad de luz que es entre 5% y 20% de Sa longitud focal nominal de la lente colimada.
23. El sistema de la reivindicación 14, en el que cada unidad de luz comprende uno o más LED blancos de alta potencia.
24. El sistema de la reivindicación 14, en el que una o más cámaras digitales de primer plano incluyen un sensor monocromático o un sensor a color.
25. Eí sistema de ía reivindicación Í4, en el que una o más cámaras digitales de primer plano en el segundo modulo de procesamiento de imágenes incluye un sensor monocromático y un módulo de filtros, el módulo de filtros comprende una pluralidad de filtros, y cada uno está configurado para filtrar una longitud de onda de luz.
26. El sistema de la reivindicación 14, en el que cada unidad de luz de la pluralidad de unidad de luz también comprende una estructura de sujeción giratoria, esta estructura de sujeción giratoria acopla mecánicamente la unidad de luz al módulo de iluminación y permite el movimiento giratorio de la unidad de luz para dirigir la unidad de luz hacia el soporte de muestras.
PCT/ES2019/000016 2019-02-22 2019-02-22 Sistema de captura de imágenes de microescala WO2020169853A1 (es)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/ES2019/000016 WO2020169853A1 (es) 2019-02-22 2019-02-22 Sistema de captura de imágenes de microescala
EP19720135.3A EP3929570A1 (en) 2019-02-22 2019-02-22 Microscale image capture system
US17/389,456 US20210356407A1 (en) 2019-02-22 2021-07-30 Micro scale image capture system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2019/000016 WO2020169853A1 (es) 2019-02-22 2019-02-22 Sistema de captura de imágenes de microescala

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/389,456 Continuation US20210356407A1 (en) 2019-02-22 2021-07-30 Micro scale image capture system

Publications (1)

Publication Number Publication Date
WO2020169853A1 true WO2020169853A1 (es) 2020-08-27

Family

ID=66323864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2019/000016 WO2020169853A1 (es) 2019-02-22 2019-02-22 Sistema de captura de imágenes de microescala

Country Status (3)

Country Link
US (1) US20210356407A1 (es)
EP (1) EP3929570A1 (es)
WO (1) WO2020169853A1 (es)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02125239A (ja) * 1988-11-04 1990-05-14 Canon Inc 接写撮影装置
US6220719B1 (en) * 1998-02-11 2001-04-24 Applied Innovative Technologies, Inc. Renewable energy flashlight
US20040179280A1 (en) * 1998-06-30 2004-09-16 Olympus Corporation Variable-optical-property element
WO2008076399A2 (en) * 2006-12-15 2008-06-26 Hand Held Products, Inc. Apparatus and method comprising deformable lens element
JP2012124892A (ja) * 2011-11-21 2012-06-28 Intel Corp 携帯用機器のカメラアプリケーション

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02125239A (ja) * 1988-11-04 1990-05-14 Canon Inc 接写撮影装置
US6220719B1 (en) * 1998-02-11 2001-04-24 Applied Innovative Technologies, Inc. Renewable energy flashlight
US20040179280A1 (en) * 1998-06-30 2004-09-16 Olympus Corporation Variable-optical-property element
WO2008076399A2 (en) * 2006-12-15 2008-06-26 Hand Held Products, Inc. Apparatus and method comprising deformable lens element
JP2012124892A (ja) * 2011-11-21 2012-06-28 Intel Corp 携帯用機器のカメラアプリケーション

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAM G ET AL: "Simultaneous acquisition of microscale reflectance and normals", ACM TRANSACTIONS ON GRAPHICS, ACM, 2 PENN PLAZA, SUITE 701NEW YORKNY10121-0701USA, vol. 35, no. 6, 11 November 2016 (2016-11-11), pages 1 - 11, XP058306319, ISSN: 0730-0301, DOI: 10.1145/2980179.2980220 *

Also Published As

Publication number Publication date
EP3929570A1 (en) 2021-12-29
US20210356407A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US10502556B2 (en) Systems and methods for 3D surface measurements
US7190461B2 (en) Method and apparatus for determining a bidirectional reflectance distribution function, subsurface scattering or a bidirectional texture function of a subject
Schwartz et al. Design and implementation of practical bidirectional texture function measurement devices focusing on the developments at the university of bonn
KR101150755B1 (ko) 영상촬영장치
CN105308949B (zh) 图像获取装置、图像获取方法以及记录介质
Han et al. Measuring bidirectional texture reflectance with a kaleidoscope
US8754936B2 (en) Three dimensional shape measurement apparatus
US8201951B2 (en) Catadioptric projectors
CN107526156B (zh) 光片显微镜以及用于运行光片显微镜的方法
CN103069436B (zh) 照明系统
CN105247852B (zh) 图像获取装置、图像获取方法以及记录介质
KR20110119531A (ko) 형상 계측 장치 및 캘리브레이션 방법
CN110006904B (zh) 自适应漫射照明系统和方法
JP2006275955A (ja) 光学特性測定装置及び画像処理システム
CN106645161A (zh) 一种表面缺陷检测系统及方法
CN113167728A (zh) 一种用于测量材料光学特性的光学装置
CN101523195B (zh) 用于观察样品表面的设备和方法
CN107544135A (zh) 具有测距功能的内视镜及测距方法
ES2689907T3 (es) Procedimiento para la generación de informaciones de imágenes
WO2016070133A1 (en) Illumination system, inspection tool with illumination system, and method of operating an illumination system
Mukaigawa et al. Multiplexed illumination for measuring BRDF using an ellipsoidal mirror and a projector
WO2020169853A1 (es) Sistema de captura de imágenes de microescala
Ding et al. Catadioptric projectors
Tagawa et al. 8-D reflectance field for computational photography
KR20240032104A (ko) 반사 표본의 거시적 검사를 위한 시스템, 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19720135

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019720135

Country of ref document: EP

Effective date: 20210922