WO2020126719A1 - Grössenveränderung von bildern mittels eines neuronalen netzes - Google Patents

Grössenveränderung von bildern mittels eines neuronalen netzes Download PDF

Info

Publication number
WO2020126719A1
WO2020126719A1 PCT/EP2019/084550 EP2019084550W WO2020126719A1 WO 2020126719 A1 WO2020126719 A1 WO 2020126719A1 EP 2019084550 W EP2019084550 W EP 2019084550W WO 2020126719 A1 WO2020126719 A1 WO 2020126719A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
image
imaging
neural network
resolution
Prior art date
Application number
PCT/EP2019/084550
Other languages
English (en)
French (fr)
Inventor
Constantin KAPPEL
Original Assignee
Leica Microsystems Cms Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Microsystems Cms Gmbh filed Critical Leica Microsystems Cms Gmbh
Priority to EP19818064.8A priority Critical patent/EP3899860A1/de
Priority to US17/413,590 priority patent/US20220343463A1/en
Publication of WO2020126719A1 publication Critical patent/WO2020126719A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the invention relates to a method and a device for providing a neural network for scaling images.
  • a digital image with a certain resolution or pixel resolution can be created.
  • the digital image can be understood as a number of columns (width) and rows (height) of a raster graphic.
  • the information content in images is limited by the resolution or the total number of pixels in an image. For certain applications, it can be advantageous to adjust or change the size of an image.
  • the object of the present invention is therefore to provide improved means for scaling images.
  • the present invention solves the problems addressed and the object by a device for scaling images.
  • the device according to the invention comprises one or more processors and one or more computer-readable storage media, computer-executable instructions being stored on the one or more computer-readable storage media which, when executed by the one or more processors, cause one or more first images are captured by means of an imaging and / or image recording system and a neural network generates one or more corresponding second images as a function of the one or more captured first images.
  • the one or more captured first images are related to a first resolution and the one or more second images are related to a second resolution that differs from the first resolution.
  • the method according to the invention comprises the steps of determining a plurality of pairs of images and training a neural network as a function of the determined plurality of pairs of images in such a way that the trained neural network, when applied to a first image, outputs a second image, the resolution of the first Image differs from the resolution of the second image, input images of the plurality of image pairs having a first imaging and / or image recording system and target output images of the image pairs corresponding to the input images having been captured using a second imaging and / or image recording system, and wherein the first Imaging and / or image recording system differs from the second imaging and / or image recording system.
  • the inventive method and the inventive device have the advantage that by means of the related neural networks, for. B. in the sense of deep learning, an intelligent scaling of digital images in real time or near real time while taking pictures is made possible. Furthermore, the method and the device according to the invention enable a pixel resolution of a captured image to be enlarged.
  • the missing image information can be generated by a neural network that has been pre-trained with a large number of images, for example with many thousands or even millions of images. The missing image information is therefore not simply interpolated from the existing image, but is generated on the basis of a learned image semantics.
  • a neural network an image is generated that contains more image details and / or more image information than the originally recorded image.
  • the image generated by means of a neural network is therefore more detailed than the original image. This can make it easier for a human or an algorithm to interpret the image.
  • neural networks enable better generalizability for previously unknown applications.
  • the method according to the invention and the device according to the invention can each be further improved by specific configurations.
  • Individual technical features of the embodiments of the invention described below can be combined with one another and / or omitted, provided that the technical effect achieved with the omitted technical feature is not important.
  • the device according to the invention is designed to apply the neural network directly to each of the one or more captured first images and to store only the one or more second images. Storage space can be saved by reducing the first resolution of the one or more captured first images before saving.
  • the one or more first images taken with an image acquisition system such as a microscope with a camera, a video camera, a microscope system, a microscope with a point scanner, a digital camera, a smartphone, a telescope, a measuring device or a computer Camera were captured, stored and the neural network is applied to the one or more stored first images.
  • Neural networks have the advantage that images that are entered into the neural network only run through it once. There is no need to solve an optimization problem to create an upscaled image. The higher resolution image can thus be calculated quickly and efficiently from the images stored with low resolution.
  • the one or more processors can process accelerators, such as graphical processing units (GPUs), field programmable gated arrays (FPGAs), tensor flow processing units or tensor processing units (TPUs), on machine learning (ML) and / or deep learning ( DL) - include specialized Application Specific Integrated Circuits (ASICs) or at least one Central Processing Unit (CPU).
  • GPUs graphical processing units
  • FPGAs field programmable gated arrays
  • TPUs tensor flow processing units or tensor processing units
  • ML machine learning
  • DL deep learning
  • CPU Central Processing Unit
  • the device according to the invention can furthermore advantageously be designed in such a way that the computer-executable instructions, when executed by the one or more processors, furthermore cause the imaging and / or image recording system to be set as a function of the first resolution.
  • the Adjustment can include adjusting at least one of the following settings: an image rate for capturing the one or more first images, a transmission rate of the one or more captured first images from the imaging and / or image recording system to a workstation, the device or a data memory, one Binning, a pixel selection from all pixels of the imaging and / or image recording system for capturing the one or more first images, an exposure time, a scan format or a pixel resolution for capturing the one or more first images, the one or more first images one or more scanned images comprise, a sampling frequency (e.g.
  • the imaging and / or image recording system comprising a scanning imaging and / or image recording system, a numerical aperture, NA, an optical system of the image Imaging and / or image recording system and a light intensity of a light source of the imaging and / or image recording system.
  • a further advantage is that with a smaller pixel resolution, for example fewer image lines with a scanning point detector (scanner) or more binning with an area detector of the image acquisition system, images can be taken and then brought to a desired size. This enables a high recording speed for a measurement and / or the use of a gentle or small light dose during a recording.
  • the first resolution of the image acquisition system can be set.
  • setting the first resolution may include setting binning and / or selecting a subset of pixels of the imaging and / or imaging system for capturing the one or more first images.
  • the imaging and / or image recording system is designed by means of binning and / or a selection of a subset of pixels to reduce an exposure time for capturing the one or more first images, and by means of binning
  • To reduce the light intensity of a light source of the imaging and / or image recording system to increase a transmission rate of the one or more first images by means of binning and / or a selection of a subset of pixels, and to increase an image rate by means of binning and / or a selection of a subset of pixels to increase the one or more first images, by means of binning and / or a selection of a subset of pixels, to increase a maximum number of storable images or to generate
  • the device according to the invention which can be part of an image recording system, such as a microscope, can be designed to shorten the recording time of a measurement if fewer image lines are scanned or image points are recorded, and to reduce the storage space for the image data if only smaller images are stored , since the high-resolution images can be reconstructed, the light dose for illuminating an object can be reduced and the resolution of captured images increased.
  • an image recording system such as a microscope
  • pairs of images are recorded for training the neural network with a second and a first imaging and / or image recording system, the second imaging and / or image recording system being designed to capture images with a resolution that is higher than a resolution of the first imaging and / or image recording system.
  • image pairs created by different techniques such as diffraction-limited microscopy and nanoscopy with maximum optical resolution
  • upscaled images can be created with a higher detail contrast. If the neural network has been trained in a context with the one or more acquired first images, image information can be generated semantically correctly in the one or more second images.
  • training the (first) neural network may include applying a second neural network.
  • the second neural network can be used as a loss function for training the first neural network. This enables improved training of the first neural network, since a neural network, as a loss function, enables precise training, in which it is ensured that the output of the neural network matches a desired image. This is not guaranteed if an error in the output image is calculated only per pixel. Thus, the output images are not treated as a set of independent pixels, but are placed in a semantic context.
  • the first neural network can be further trained (fine-tuned).
  • the fine adjustment (hereinafter also called fine tuning) can include training only a part of the specific (first) neural network.
  • one or more parameters of the specific neural network can be adjusted during the fine adjustment remain unchangeable.
  • the fine adjustment can be carried out on the basis of individual training data.
  • FIG. 1 pictures with different resolutions
  • FIG. 2 shows a schematic illustration of a method according to the invention for scaling images by means of a neural network according to one embodiment
  • FIG. 3 shows a schematic illustration of a method according to the invention for scaling images by means of a neural network according to one embodiment
  • FIG. 4A shows a schematic representation of a device according to the invention in one embodiment
  • FIG. 4B shows a schematic illustration of a system for scaling images according to one embodiment
  • FIG. 5A shows a schematic flow diagram of an embodiment of the method according to the invention for scaling images
  • FIG. 5B shows a schematic flow diagram of an embodiment of the method according to the invention for training a neural network.
  • FIG. 1 shows an image 100 with a first (low) resolution, for example 73x75 pixels, and images 110, 120 and 130 with a second (high) resolution, for example 250x300 pixels.
  • Pictures 100, 1 10, 120 and 130 show the same object, colored vertebrate cells.
  • Images 100 and 120 can be captured by the same imaging and / or imaging system, such as a microscope (Leica TCS SP 5). Alternatively, images 100 and 120 may have been captured using different imaging systems.
  • the different resolution of the images 100 and 120 leads to a difference in the information content of the two images, the image 120 with the high resolution having a higher information content than the image 100 with the low resolution. For example, more details of the same object can be seen in image 120 than in image 100.
  • the low resolution with which the first image was taken can be a maximum resolution of an image acquisition system for one image or a resolution of the Image recording system that has been set for a specific shot or certain circumstances. For example, a higher maximum frame rate can be achieved with a smaller resolution. However, image information is lost due to the smaller resolution.
  • Images 1 10 and 130 are upscaled images created from image 100.
  • Image 1 10 is an image scaled up with bicubic interpolation and image 130 was generated using the method according to the invention for scaling images according to one embodiment.
  • the resolution of the image 100 limits the information content in the image 110 scaled up with bicubic interpolation, since the bicubic interpolation merely smoothes and no new information is added.
  • the image 130 scaled up with the aid of the method according to the invention delivers significantly better results than the interpolated image 110 in comparison to the image 120 measured with high resolution.
  • FIG. 2 shows a schematic illustration of the functioning of a neural network 200 for scaling images.
  • the neural network 200 is configured to change the resolution of an image 210 in that the neural network 200 generates an image 220 with a changed resolution.
  • the neural network 200 can output an image 220 with a resolution twice, four times, or m / n times as large as the input image 210 of the neural network, where m and n are natural or positive integers.
  • individual dimensions of an image can be scaled.
  • the input image 210 for the neural network 200 can comprise a first resolution.
  • the neural network 200 can image 210 on the output image 220, the number of pixels of image 210 not increasing with the number of pixels 220 must match.
  • the image 210 can be scaled up or down.
  • the neural network 200 is configured to generate image 220 from an image 210, wherein the image 220 has a greater resolution and / or contains more image information than the input image 210.
  • the neural network can be configured semantically to include missing image information in image 210 to generate correctly from the neural network.
  • the neural network 200 may have been trained on training data that are in a context with the captured images.
  • the difference to conventional methods, such as bicubic interpolation, is that the image information generated does not only come from one existing image, but is generated from a large number of images taking into account learned image representations. In this way, semantically correct image information that is not contained in the present low-resolution image is supplemented.
  • the application of the neural network 200 differs from the training of the neural network 200 in the data records used. During training, one or more first images are input into the neural network 200 and internal parameters of the neural network are adapted so that the output images of the neural network 200 match the target output images as best as possible. When using the neural network, the image data pass through the neural network 200 once and the neural network 200 generates an output image as a prediction.
  • Neural networks can present results, these being learned through at least one deep learning process and / or at least one deep learning method. These neural networks condense the knowledge gathered into a specific set of tasks in a suitable manner through automated learning, in such a way that a specific task can now be carried out automatically and with the highest quality.
  • Image 210 may be an image captured or captured using an imaging system.
  • captured image 210 may be pre-processed before it is put into neural network 200.
  • the pre-processing may include interpolating, such as bilinear, biquadratic, or bicubic, interpolation of the image 210.
  • the image 210 can, for example, be interpolated to the desired output size of the neural network. This corresponds to the image size of image 220.
  • the neural network can then be applied to the interpolated image and generates an output image, the output image and the interpolated image differing in their information content, their contrast in detail and / or their sharpness.
  • the information content, the detail contrast and / or the sharpness of the output image can be increased compared to the interpolated image.
  • the pre-processing can also be part of the neural network.
  • a first image 300 with a first (low) resolution of 1 1x12 pixels comprises a pixel 330 with a value of 68.
  • the first image 300 can be scanned and brought to a desired size. For example, resulting gaps can be filled with the pixel value zero, so that a second image 310 is created which has the same resolution or size as the desired image 320.
  • a folding matrix 340 can be applied to the image 310 in a next step.
  • the convolution matrix 340 has a size of 3 ⁇ 3 pixels, for example. Folding the folding matrix 340 with the image 310 can result in the image 320. This corresponds to a step size of approximately 1 when scaling up.
  • the neural network for scaling images can have a multiplicity of layers, and the step size for the folds in the layers can be of different sizes. For example, a step size of 1 when folded will create a new image with a size that is the size of the input image, a step size greater than 1 corresponds to a new image with a size smaller than the size of the input image and a step size less than 1 corresponds to a new image with a size larger than that of the input image.
  • the parameters of the convolution matrix are learned from the neural network in a raining.
  • the neural network when applied to input images, can generate output images with a higher resolution, with missing image information being generated from the input image by the neural network.
  • the neural network can learn hidden representations by training with a variety of training images. Thus semantically correct images with a higher resolution can be generated from images with a low resolution.
  • FIG. 4A shows a device 400 which comprises one or more processors 410 and one or more storage media 420.
  • Device 400 may include an imaging and / or imaging system.
  • the device 400 can also be spatially separated from an imaging and / or image recording system and connected to the imaging and / or image recording system via a network, for example a radio network.
  • the device can comprise a workstation computer, a server, a microcomputer, computer or embedded computer.
  • the one or more processors 410 can be computing accelerators, such as graphical processing units (GPUs), tensor flow processing units or tensor processing units (TPUs) on machine learning (ML) - and / or deep learning (DL) - specialized application specific integrated circuits (ASICs) ) or Field Programmable Gated Arrays (FPGAs) or at least one Central Processing Unit (CPU).
  • GPUs graphical processing units
  • TPUs tensor flow processing units or tensor processing units
  • TPUs machine learning
  • DL deep learning
  • FPGAs Field Programmable Gated Arrays
  • CPU Central Processing Unit
  • An application-specific integrated circuit (ASIC, also custom chip) is an electronic circuit that can be implemented as an integrated circuit. Because of the adaptation of their architecture to a specific problem, ASICs work very efficiently and much faster than a functionally equivalent implementation by software in a microcontroller.
  • TPUs including TensorFlow processors
  • TensorFlow processors are application-specific chips and can accelerate machine learning applications compared to CPUs. This or similar specialized hardware can be used to optimally solve deep learning tasks.
  • the use of a neural network which requires orders of magnitude less computing power than training, i.e. the development of a model, also works on conventional CPUs.
  • the device may include one or more neural networks 430.
  • the device 400 can be enabled to scale images by means of artificial intelligence (K1).
  • the one or more Images can include single images, 3D image stacks, videos, images from multi-dimensional time series and / or different scales.
  • the one or more neural networks 430 may be executed by the one or more processors 410. Executing neural networks 430 requires orders of magnitude less computing power than training or developing a neural network.
  • the device 400 can thus be enabled to independently solve a desired task. This results in a cognitively expanded device 400.
  • Cognitively expanded means that the device can be enabled through the use of neural networks (eg deep learning models) or other machine learning methods to semantically recognize and process image contents or other data.
  • device 400 may include one or more components 440.
  • the one or more components 440 may include a user interface, an interface to download neural networks to the device 400, or an image acquisition system.
  • device 400 may be used to train neural network 430.
  • FIG. 4B shows a system 450 which comprises an imaging and / or image recording system 460 and a computer 470, for example a workstation, which are connected via a network, for example a radio network or an optical fiber network.
  • imaging and / or imaging system 460 and / or workstation 470 may include device 400.
  • the image recording system 460 and / or the workstation computer 470 can thus be designed with artificial intelligence (KI).
  • the device 400 can be spatially separated from the imaging and / or image recording system 460 and / or the workstation 470 and can be connected to them by a network.
  • the imaging and / or image recording system 460 can be an optical system, such as a lens, optics or individual lenses, and a detection system, such as a photographic layer, an sCMOS ("scientific complementary metal-oxide-semiconductor") or CCD ("Charge-coupled device”) sensor.
  • the imaging and / or imaging system 460 may include a microscope a camera, a video camera, a microscope system, a microscope with a point scanner, a digital camera, a smartphone, a telescope, a measuring device or a computer with a camera.
  • FIG. 4B shows image recording system 460 only as an example as a light microscope.
  • imaging system 460 may include any type of microscope.
  • a microscope can include one of the following: a light microscope, a stereo microscope, a confocal microscope, a multiphoton microscope, a STED microscope, a slit lamp microscope, an operating microscope, a digital microscope, a USB microscope, an electron microscope, a scanning electron microscope, a mirror microscope, a fluorescence microscope, a focused-lon-beam microscope (FIB), a helium-ion microscope, a magnetic resonance microscope, a neutron microscope, a scanning SQUID microscope, an X-ray microscope, an ultrasound microscope, a light-disk microscope ( SPIM) or an acoustic microscope, etc.
  • FIB focused-lon-beam microscope
  • a helium-ion microscope a magnetic resonance microscope
  • neutron microscope a scanning SQUID microscope
  • an X-ray microscope an ultrasound microscope
  • SPIM light-disk microscope
  • SPIM light-disk microscope
  • FIG. 4B shows, in one embodiment, communication of a Kl-enabled microscope 460 with a Kl-enabled computer 470.
  • a single image recording system can itself comprise hardware acceleration and / or a microcomputer, such as the device 400, which enables the execution of trained models (e.g. Enable neural networks).
  • trained models e.g. Enable neural networks
  • only the image recording system 460 or only the computer 470 can be KL-enabled.
  • the image capture system 460 is configured to capture one or more images.
  • the one or more captured images can be stored locally on the imaging system 460 or spatially separated from the imaging system 460.
  • the imaging system 460 may send the one or more images to the workstation 470 or to the device 400 over a network, on which the images are then stored.
  • the one or more stored images can then be placed in a neural network for scaling images.
  • the one or more captured images can be put directly into the neural network and only the one or more corrected images can be saved. This enables the images to be scaled in real time.
  • the upscaling can also take place asynchronously on a cluster in the network or in a cloud for a large number of images or a very large data stack.
  • processing of the captured images takes place on computer 470, which is running software that implements a neural network that can intelligently scale images. Missing image information can be generated semantically correctly from hidden representations present in the neural network through learning.
  • the system can therefore take 450 pictures or measurements do at higher speed and / or operate data reduction. The required memory space or the memory bandwidth can be reduced.
  • the speed gain is based on the fact that fewer pixels have to be recorded than is actually necessary in order to achieve the desired resolution.
  • Point detectors are mainly used in microscopy for confocal laser scanning microscopes.
  • the image is generated by scanning a sample line by line.
  • the image acquisition time depends on the number of lines scanned. For example, if the number of lines is reduced to a quarter, the recording speed can be roughly quadrupled.
  • Area detectors can be used in wide field microscopy.
  • a speed advantage can arise through binning, i.e. pixels can be combined. This reduces the resolution and exposure time, which increases the recording speed.
  • the memory size of an uncompressed two-dimensional image is square with the resolution in every spatial direction. If the desired image content can be reconstructed by intelligent scaling up, it is possible to scale the images down accordingly before saving.
  • a neural network can be used for the intelligent upscaling of images in three spatial dimensions and the time dimension, as a result of which the amount of data to be stored can be reduced.
  • the neural network or trained model used may have been trained in such a way that the input images in the training data record include diffraction-limited images, while the images that are present at the output of the model as target values (target output images) have the same location or the same object recorded with an optical maximum resolution method shows. The neural network can then simulate this optical high-resolution method through training.
  • wide-field microscopy can be used to generate a low-resolution image as an input image for the training and confocal microscopy to produce a high-resolution image as a corresponding target output image.
  • a low-resolution image could be generated as an input image for the training by means of confocal microscopy and a high-resolution image as a corresponding target output image by means of “Stimulated Emission Depletion” (STED) nanoscopy.
  • FIG. 5A shows a schematic flow diagram according to an exemplary embodiment of a (computer-implemented) method 500 for scaling images.
  • the method 500 may include a first step 510, in which an imaging and / or image recording system is set.
  • a resolution can be set with which the imaging and / or image recording system takes one or more images. This may include binning (pooling pixels) or selecting specific pixels for inclusion.
  • a sampling frequency e.g. a line sampling frequency
  • the scanning frequency can be related to the speed at which a light source (for example a laser) of the imaging and / or imaging system scans an object.
  • the scan format can specify a spatial resolution (for example 1024 x 1024 or 512 x 512) when scanning.
  • the settings of the imaging and / or image recording system can be related to the resolution. For example, a frame rate can be increased if the Resolution is reduced, or by binning (reduction of the resolution), the light intensity and / or the exposure time of a light source of the imaging and / or image recording system can be reduced.
  • one or more first images can be captured using an imaging and / or image recording system.
  • the one or more captured first images are related to a first resolution.
  • a neural network In a third step 530, a neural network generates one or more corresponding second images, for example in real time, as a function of the one or more acquired first images.
  • the one or more second images are related to a second resolution, the first resolution and the second resolution being different.
  • the neural network can be applied directly to each of the one or more captured first images and only the one or more second images can be saved.
  • the neural network scales up a low resolution image and the upscaled image is sent to a computer for further processing.
  • the low-resolution image can be sent to a computer and upscaled on the computer using the neural network.
  • Neural networks can be trained using deep learning methods. This includes a scheduled application of at least one deep learning method, but preferably several deep learning methods to achieve a specific goal.
  • the target can include image processing (e.g. correction of one or more optical errors, generation of an image from another image, at least one feature differing in the images, etc.).
  • Deep learning processes can comprise a sequence of process steps which subdivide a process into comprehensible steps, in such a way that this process can be repeated.
  • the procedural steps can be specific deep learning algorithms. However, there can also be methods with which a network learns (e.g. back propagation). B. the type of data collection or the way data is processed via hardware etc.
  • FIG. 5B shows a schematic flow diagram of a computer-implemented method 550 for training a neural network for scaling images.
  • image pairs are determined as training data in order to use these image pairs to train a neural network (step 570).
  • the determination of the training data or training images can include one or more measurements and / or one or more simulations in connection with one or more sample types in order to obtain the training data produce.
  • training data stored in a database or made available by third parties can be determined for the training.
  • the image pairs include input images and target output images.
  • a second neural network can be determined as a loss function for the first neural network (the neural network to be trained). For example, this can be done by training the second neural network.
  • the determination of the second neural network may include selecting the second neural network from a plurality of neural networks, the plurality of neural networks having been trained on different sample types and the second neural network being selected depending on the sample type.
  • the second neural network can be trained or can be trained on a sample type that is related to the later application of the first neural network.
  • the second neural network can be configured to make predictions, such as a classification, based on images as an input value for the second neural network.
  • the loss network can thus be used to determine a perceptual loss, with the aid of which it can be ensured that the output of the neural network looks like an expected image. This is not the case with loss functions that only calculate an error per pixel of an image.
  • the output images are not treated as a set of independent pixels, but are placed in a semantic context.
  • the first neural network is trained using the training data from step 510.
  • internal parameters for example weights / filter “W” and threshold values “B”
  • the first neural network is thus able to generate new images from images and to solve a task that is related to the training data.
  • the first neural network can be trained to scale images.
  • the first neural network that was trained in step 520 can be fine-tuned.
  • the first neural network is trained further in order to obtain an adapted (third) neural network.
  • the adapted neural network can be trained for a special application.
  • the first neural network can be trained further using special training data.
  • the adapted (third) neuronal Network specially trained for a specific application by using training data of a certain sample type (which are in a context with the specific application) for fine tuning.
  • these special training data can be used to continue training at least part of the pre-trained (first) neural network.
  • only a part of the internal parameters of the neural network can be changed depending on the further training, the remaining internal parameters cannot be changed by the further training. This enables a quick individual adaptation of the neural network to a specific purpose, such as, for example, scaling up images that represent a specific sample type.
  • fine-tuning neural networks these can be continuously improved and / or the area of application of the neural networks specified. This can advantageously be done by training only a few nodes in a neural network.
  • the adapted neural network can then be made available to third parties, used on a device, the device being connected to the optical system, or stored in a cloud, on a server or another data storage device.
  • Images with a certain resolution can be scaled using machine learning (ML) methods.
  • ML methods described include algorithms with which machines can learn from experience and can come from deep learning (DL), a specific type of neural network.
  • the neural network is trained to transfer objects in a captured image to a scaled-up image in such a way that the object is correctly reconstructed “implicitly”, that is to say as part of the learned parameters, in the network.
  • the neural network may have seen similar objects during training. Similarly, here means that the same image features were present in the training images as in the images to be scaled, so the training images are in a context with the captured images.
  • the device and the method according to the invention provide means for scaling images.
  • the device according to the invention is designed to scale one or more captured images with the aid of a neural network. This can advantageously take place during or directly after the acquisition of the images, ie before the image is saved (“in real time”). Image scaling is therefore part of the process of capturing images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (400) zur Skalierung von Bildern, umfassend ein oder mehrere Prozessoren (410) und ein oder mehrere computerlesbare Speichermedien (420), auf denen computerausführbare Anweisungen gespeichert sind, die, wenn sie von dem einen oder den mehreren Prozessoren (410) ausgeführt werden, bewirken, dass ein oder mehrere erste Bilder (100; 210) mittels eines Abbildungs- und/oder Bildaufzeichnungssystems (460) erfasst werden, wobei die ein oder mehreren erfassten ersten Bildern (100; 210) mit einer ersten Auflösung Zusammenhängen, und ein neuronales Netz (200; 430) in Abhängigkeit der ein oder mehreren erfassten ersten Bilder (100; 210) ein oder mehrere entsprechende zweite Bilder (130; 220) erzeugt, wobei die ein oder mehreren zweiten Bilder (130; 220) mit einer zweiten Auflösung Zusammenhängen, die sich von der ersten Auflösung unterscheidet.

Description

GRÖSSENVERÄNDERUNG VON BILDERN MITTELS EINES NEURONALEN
NETZES
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bereitstellung von einem neuronalen Netz zur Skalierung von Bildern.
Bei der Bildaufnahme eines Bilderfassungssystems, wie zum Beispiel einer Digitalkamera, kann ein digitales Bild mit einer bestimmten Auflösung oder Pixelauflösung entstehen. Das digitale Bild kann als eine Anzahl von Spalten (Breite) und Zeilen (Höhe) einer Rastergrafik aufgefasst werden. Der Informationsgehalt in Bildern ist durch die Auflösung oder die Gesamtzahl der Bildpunkte eines Bildes begrenzt. Für bestimmte Anwendungszwecke kann es vorteilhaft sein die Größe eines Bildes anzupassen oder zu ändern.
Bestehende Systeme skalieren Bilder oder ändern die Größe eines Bildes mit Hilfe von Interpolation. Wenn digitale Bilder vergrößert werden, müssen Werte für die Bildhelligkeit neuer Pixel berechnet werden, die zwischen bestehenden Pixeln liegen. Bei der Interpolation werden dazu die bestehenden Pixel als Randwerte verwendet und nach einer festgelegten mathematischen Funktion die Zwischenwerte im Pixelraster berechnet. Bekannte mathematische Verfahren sind die bilineare, biquadratische oder bikubische Interpolation. All diese Verfahren zur Berechnung neuer Zwischenwerte verwenden allerdings nur Bildinformation aus dem einen vorliegenden Bild. Das dadurch entstehende Bild vergrößert zwar alle Bildelemente und Objekte im Bild proportional korrekt, gibt aber keine neuen Bilddetails wieder. Dadurch werden keine neuen Bilddetails sichtbar, die bei einer höher auflösenden Aufnahme eines Objektes sichtbar werden könnten. Daher wirkt bei Verfahren die mit Interpolation arbeiten der entstehende Bildeindruck verwaschen.
Um dieses Problem zu umgehen, verwenden neuere Methoden aus dem Stand der Technik Verfahren, die auf internen Bildähnlichkeiten, wie beispielsweise von Freedman, G., und Fattal, R. in der Zeitschrift ACM Transactions on Graphics (TOG) Volume 30 Issue 2, (April 2011)„Image and Video Upscaling from Local Self-Examples“ beschrieben, oder Ähnlichkeiten mit Bildelementen externer Bildpaare aus niedrig und hoch aufgelösten Bildern, wie beispielsweise von D. Dai, R. Timofte, und L. Van Gool in Computer Graphics Forum, Volume 34, Seiten 95-104 (2015) „Jointly Optimized Regressors for Image Super-resolution“ beschrieben, basieren, um Bilder hoch zu skalieren.
Diese Verfahren aus dem Stand der Technik weisen einige Nachteile und Probleme auf, die im Folgenden betrachtet werden sollen. Zum Beispiel sind diese Verfahren häufig domänenspezifisch und die Skalierung lässt sich nicht ohne weiteres auf neue Anwendungsfelder mit bisher unbekannten Objekten in Bildern übertragen. Außerdem verwenden bestehende Mikroskope oder Bilderfassungssysteme Verfahren zur Hochskalierung von Bildern nur als Mittel zur Bildnachbearbeitung. Dadurch ist die Verwendbarkeit der hochskalierten Bilder eingeschränkt. Des Weiteren können mit Verfahren aus dem Stand der Technik selten Skalierungsfaktoren größer als 2.0 realisiert werden.
Aufgabe der vorliegenden Erfindung ist es somit, verbesserte Mittel zur Skalierung von Bildern bereitzustellen.
Die vorliegende Erfindung löst die angesprochenen Probleme und die Aufgabe durch eine Vorrichtung zur Skalierung von Bildern. Die erfindungsgemäße Vorrichtung umfasst ein oder mehrere Prozessoren und ein oder mehrere computerlesbare Speichermedien, wobei auf den ein oder mehreren computerlesbaren Speichermedien computerausführbare Anweisungen gespeichert sind, die, wenn sie von dem einen oder den mehreren Prozessoren ausgeführt werden, bewirken, dass ein oder mehrere erste Bilder mittels eines Abbildungs- und/oder Bildaufzeichnungssystems erfasst werden und ein neuronales Netz in Abhängigkeit der ein oder mehreren erfassten ersten Bilder ein oder mehrere entsprechende zweite Bilder erzeugt. Die ein oder mehreren erfassten ersten Bildern hängen mit einer ersten Auflösung zusammen und die ein oder mehreren zweiten Bilder hängen mit einer zweiten Auflösung zusammen, die sich von der ersten Auflösung unterscheidet.
Das erfindungsgemäße Verfahren umfasst die Schritte des Bestimmens von einer Vielzahl von Bilderpaaren, und des Trainierens eines neuronalen Netzes in Abhängigkeit der bestimmten Vielzahl von Bilderpaaren derart, dass das trainierte neuronale Netz angewendet auf ein erstes Bild ein zweites Bild ausgibt, wobei sich die Auflösung des ersten Bildes von der Auflösung des zweiten Bildes unterscheidet, wobei Eingabebilder der Vielzahl von Bilderpaaren mit einem ersten Abbildungs- und/oder Bildaufzeichnungssystem und den Eingabebildern entsprechende Soll-Ausgabebilder der Bilderpaare mit einem zweiten Abbildungs- und/oder Bildaufzeichnungssystem erfasst wurden, und wobei sich das erste Abbildungs- und/oder Bildaufzeichnungssystem von dem zweiten Abbildungs- und/oder Bildaufzeichnungssystem unterscheidet.
Das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung haben den Vorteil, dass mittels der verwandten neuronalen Netze, z. B. im Sinne von Deep Learning, eine intelligente Skalierung von digitalen Bildern in Echtzeit oder nahe Echtzeit während der Aufnahme von Bildern ermöglicht wird. Des Weiteren ermöglichen das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung, dass eine Pixelauflösung eines erfassten Bildes vergrößert wird. Die fehlende Bildinformation kann von einem mit einer Vielzahl von Bildern, beispielsweise mit vielen tausenden oder gar Millionen von Bildern, vortrainierten neuronalen Netz erzeugt werden. Die fehlende Bildinformation wird also nicht einfach aus dem einen vorliegenden Bild interpoliert, sondern aufgrund einer gelernten Bildsemantik erzeugt. Durch die Verwendung von einem neuronalen Netz wird ein Bild erzeugt, das mehr Bilddetails und/oder mehr Bildinformation enthält als das ursprünglich aufgenommene Bild. Somit ist das mittels neuronalem Netz erzeugte Bild detailreicher als das ursprünglich aufgenommene. Dies kann die Interpretation des Bildes durch einen Menschen oder einen Algorithmus erleichtern. Außerdem ermöglichen neuronale Netze eine bessere Generalisierbarkeit für bisher nicht gekannte Anwendungen.
Das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung können jeweils durch spezifische Ausgestaltungen weiter verbessert werden. Einzelne technische Merkmale der nachfolgend beschriebenen Ausgestaltungen der Erfindung können dabei beliebig miteinander kombiniert und/oder weggelassen werden, sofern es nicht auf den mit dem weggelassenen technischen Merkmal erzielten technischen Effekt ankommt.
In einer Ausführungsform ist die erfindungsgemäße Vorrichtung ausgestaltet das neuronale Netz direkt auf jedes der ein oder mehreren erfassten ersten Bilder anzuwenden und nur die ein oder mehreren zweiten Bilder abzuspeichern. Durch ein Reduzieren der ersten Auflösung der ein oder mehreren erfassten ersten Bilder vor dem Speichern, kann Speicherplatz gespart werden. Alternativ können die ein oder mehreren ersten Bilder, die mit einem Bilderfassungssystem, wie beispielsweise mit einem Mikroskop mit einer Kamera, einer Videokamera, einem Mikroskopsystem, einem Mikroskop mit einem Punktscanner, einer Digitalkamera, einem Smartphone, einem Teleskop, einem Messgerät oder einem Computer mit Kamera erfasst wurden, abgespeichert werden und das neuronale Netz auf die ein oder mehreren abgespeicherten ersten Bilder angewendet werden. Neuronale Netze haben den Vorteil, dass Bilder die in das neuronale Netz eingegeben werden, dieses nur einmal durchlaufen. Es muss kein Optimierungsproblem gelöst werden um ein hochskaliertes Bild zu erzeugen. Somit kann aus den mit niedriger Auflösung abgespeicherten Bildern das höher aufgelöste Bild schnell und effizient errechnet werden.
In Ausführungsformen können die ein oder mehreren Prozessoren Rechenbeschleuniger, wie Graphical Processing Units (GPUs), Field Programmable Gated Arrays (FPGAs), TensorFlow Processing Units oder Tensor Processing Units (TPUs), auf Machine Learning (ML)- und/oder Deep Learning (DL)- spezialisierte Application Specific Integrated Circuits (ASICs) oder mindestens eine Central Processing Unit (CPU) umfassen. Dadurch können Bilder schnell verarbeitet werden und die Bildskalierung kann ein Teil des Bildaufnahmeprozesses sein.
Die erfindungsgemäße Vorrichtung kann des Weiteren dadurch vorteilhaft ausgestaltet sein, dass die computerausführbaren Anweisungen, wenn sie von dem einen oder den mehreren Prozessoren ausgeführt werden, des Weiteren bewirken, dass das Abbildungs- und/oder Bildaufzeichnungssystem in Abhängigkeit von der ersten Auflösung eingestellt wird. Das Einstellen kann ein Einstellen mindestens einer der folgenden Einstellungen umfassen: einer Bildrate zum Erfassen der ein oder mehreren ersten Bilder, einer Übertragungsrate der ein oder mehreren erfassten ersten Bilder von dem Abbildungs- und/oder Bildaufzeichnungssystem zu einem Arbeitsplatzrechner, der Vorrichtung oder einem Datenspeicher, einem Binning, einer Pixelauswahl aus allen Pixeln des Abbildungs- und/oder Bildaufzeichnungssystems zum Erfassen der ein oder mehreren ersten Bilder, einer Belichtungszeit, einem Scanformat oder einer Pixelauflösung zum Erfassen der ein oder mehreren ersten Bilder, wobei die ein oder mehreren ersten Bilder ein oder mehrere gescannte Bilder umfassen, einer Abtastfrequenz (beispielsweise eine Zeilenabtastfrequenz) des Abbildungs- und/oder Bildaufzeichnungssystems, wobei das Abbildungs- und/oder Bildaufzeichnungssystem ein scannendes Abbildungs- und/oder Bildaufzeichnungssystem umfasst, einer numerischen Apertur, NA, eines optischen Systems des Abbildungs- und/oder Bildaufzeichnungssystem und einer Lichtintensität einer Lichtquelle des Abbildungs- und/oder Bildaufzeichnungssystems. Ein weiterer Vorteil ist, dass mit einer kleineren Pixelauflösung, zum Beispiel weniger Bildzeilen bei einem abtastenden Punktdetektor (Scanner) oder mehr Binning bei einem Flächendetektor des Bilderfassungssystems, Bilder aufgenommen und anschließend auf eine gewünschte Größe gebracht werden können. Dies ermöglicht eine hohe Aufnahmegeschwindigkeit für eine Messung und/oder eine Verwendung einer probenschonenden oder kleinen Lichtdosis während einer Aufnahme.
In vorteilhaften Ausführungsformen kann die erste Auflösung des Bilderfassungssystems eingestellt werden. Zum Beispiel kann das Einstellen der ersten Auflösung ein Einstellen eines Binnings und/oder einer Auswahl einer Teilmenge von Pixeln des Abbildungs- und/oder Bildaufzeichnungssystems für das Erfassen der ein oder mehreren ersten Bilder umfassen. Durch eine Verkleinerung der ersten Auflösung des Abbildungs- und/oder Bildaufzeichnungssystems ist das Abbildungs- und/oder Bildaufzeichnungssystem ausgestaltet mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine Belichtungsdauer für das Erfassen der ein oder mehreren ersten Bilder zu verkleinern, mittels Binning eine Lichtintensität einer Lichtquelle des Abbildungs- und/oder Bildaufzeichnungssystems zu reduzieren, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine Übertragungsrate der ein oder mehreren ersten Bilder zu erhöhen, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine Bildrate zum Erfassen der ein oder mehreren ersten Bilder zu erhöhen, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine maximale Anzahl von speicherbaren Bildern zu erhöhen oder mehr Speicherplatz für die ein oder mehreren erfassten Bilder zu generieren, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine Aufnahmegeschwindigkeit zum Erfassen der ein oder mehreren ersten Bilder zu erhöhen, und/oder mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine größere Anzahl der ein oder mehreren erfassten ersten Bilder zu speichern. Beispielsweise können scannende Abbildungs- und/oder Bildaufzeichnungssysteme durch eine Auswahl einer Teilmenge von Pixeln die Belichtungsdauer reduzieren, da die Anzahl der Abtastpunkte reduziert wird und so die Probe über einen kürzeren Zeitraum Licht ausgesetzt wird.
Die erfindungsgemäße Vorrichtung, die Teil eines Bildaufnahmesystems, wie beispielsweise eines Mikroskops, sein kann, kann ausgestaltet sein die Aufnahmezeit einer Messung zu verkürzen, wenn weniger Bildzeilen gescannt oder Bildpunkte aufgenommen werden, den Speicherplatz für die Bilddaten zu reduzieren, wenn nur kleinere Bilder gespeichert werden, da die hochaufgelösten Bilder wieder rekonstruiert werden können, die Lichtdosis zur Beleuchtung eines Objekts zu reduzieren, und die Auflösung von erfassten Bildern zu erhöhen.
In einer Ausführungsform des erfindungsgemäßen Verfahrens werden Bilderpaare für ein Training des neuronalen Netzes mit einem zweiten und einem ersten Abbildungs- und/oder Bildaufzeichnungssystems erfasst, wobei das zweite Abbildungs- und/oder Bildaufzeichnungssystem ausgestaltet ist Bilder mit einer Auflösung zu erfassen, die höher ist als eine Auflösung des erste Abbildungs- und/oder Bildaufzeichnungssystem. Durch Training mit Bildpaaren, die durch unterschiedliche Techniken entstanden sind, wie beispielsweise beugungsbegrenzter Mikroskopie und Nanoskopie mit optischer Höchstauflösung, können hochskalierte Bilder mit einem höheren Detailkontrast erzeugt werden. Wenn das neuronale Netz in einem Kontext mit den ein oder mehreren erfassten ersten Bildern trainiert wurde, können Bildinformationen in den ein oder mehreren zweiten Bildern semantisch korrekt erzeugt werden.
In Ausführungsformen kann das Trainieren des (ersten) neuronalen Netzes ein Anwenden eines zweiten neuronalen Netzes umfassen. Das zweite neuronale Netz kann als Verlustfunktion für das Training des ersten neuronalen Netzes angewendet werden. Dies ermöglicht ein verbessertes Training des ersten neuronalen Netzes, da ein neuronales Netz als Verlustfunktion ein genaues Training ermöglicht, bei dem sichergestellt wird, dass die Ausgabe des neuronalen Netzes einem gewünschten Bild gleicht. Dies ist nicht gewährleistet, wenn nur pro Pixel ein Fehler beim Ausgabebild berechnet wird. Somit werden die ausgegebenen Bilder nicht als Menge unabhängiger Pixel behandelt, sondern in einen semantischen Zusammenhang gestellt.
In vorteilhaften Ausführungsformen kann das erste neuronale Netz weiter trainiert (feinjustiert) werden. Das Feinjustieren (im Folgenden auch Feintuning genannt) kann ein Trainieren nur eines Teils des bestimmten (ersten) neuronalen Netzes umfassen. Hierbei können ein oder mehrere Parameter des bestimmten neuronalen Netzes während des Feinjustierens unveränderlich bleiben. Das Feinjustieren kann anhand von individuellen Trainingsdaten durchgeführt werden.
Der vorliegende Erfindungsgegenstand soll im Weiteren anhand beispielhafter Zeichnungen näher beschrieben werden. In den Zeichnungen sind Beispiele vorteilhafter Ausgestaltungen der Erfindung gezeigt.
Es zeigen:
Figur 1 Bilder mit unterschiedlichen Auflösungen,
Figur 2 eine schematische Darstellung eines erfindungsgemäßen Verfahrens zur Skalierung von Bildern mittels eines neuronalen Netzes nach einer Ausführungsform,
Figur 3 eine schematische Darstellung eines erfindungsgemäßen Verfahrens zur Skalierung von Bildern mittels eines neuronalen Netzes nach einer Ausführungsform,
Figur 4A eine schematische Darstellung einer erfindungsgemäßen Vorrichtung nach einer Ausführungsform,
Figur 4B eine schematische Darstellung eines erfindungsgemäßen Systems zur Skalierung von Bildern nach einer Ausführungsform,
Figur 5A ein schematisches Flussdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens zur Skalierung von Bildern, und
Figur 5B ein schematisches Flussdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens zum Trainieren eines neuronalen Netzes.
Figur 1 zeigt ein Bild 100 mit einer ersten (niedrigen) Auflösung, beispielsweise 73x75 Pixel, und Bilder 110, 120 und 130 mit einer zweiten (hohen) Auflösung, beispielsweise 250x300 Pixel. Die Bilder 100, 1 10, 120 und 130 zeigen das gleiche Objekt, gefärbte Vertebratenzellen. Bilder 100 und 120 können durch das gleiche Abbildungs- und/oder Bildaufzeichnungssystem, wie beispielsweise ein Mikroskop (Leica TCS SP 5), erfasst worden sein. Alternativ können Bilder 100 und 120 mit unterschiedlichen Bildaufzeichnungssystemen erfasst worden sein. Die unterschiedliche Auflösung der Bilder 100 und 120 führt zu einem Unterschied im Informationsgehalt der beiden Bilder, wobei das Bild 120 mit der hohen Auflösung einen höheren Informationsgehalt hat als das Bild 100 mit der niedrigen Auflösung. Zum Beispiel lassen sich in Bild 120 mehr Details des gleichen Objekts erkennen als in Bild 100. Die niedrige Auflösung mit der das erste Bild aufgenommen wurde, kann eine maximale Auflösung eines Bilderfassungssystems für eine Aufnahme sein oder eine Auflösung des Bildaufzeichnungssystems die für eine bestimmte Aufnahme oder bestimmte Gegebenheiten eingestellt wurde. Zum Beispiel kann eine höhere maximale Bildrate mit einer kleineren Auflösung erreicht werden. Allerdings gehen durch die kleinere Auflösung Bildinformationen verloren.
In Anwendungsfällen kann es vorteilhaft sein das Bild 100 hoch zu skalieren. Bilder 1 10 und 130 sind hochskalierte Bilder, die aus dem Bild 100 erzeugt wurden. Bild 1 10 ist ein mit bikubischer Interpolation hochskaliertes Bild und Bild 130 wurde mit Hilfe des erfindungsgemäßen Verfahrens zur Skalierung von Bildern nach einer Ausführungsform erzeugt. Die Auflösung des Bildes 100 begrenzt den Informationsgehalt in dem mit bikubischer Interpolation hochskalierten Bild 110, da die bikubische Interpolation lediglich glättet und keine neuen Informationen hinzugefügt werden. Wie in Figur 1 zu sehen ist, liefert das mit Hilfe des erfindungsgemäßen Verfahrens hochskalierte Bild 130 deutlich bessere Ergebnisse als das Interpolierte Bild 110 im Vergleich zum hochaufgelöst gemessenen Bild 120.
Figur 2 zeigt eine schematische Darstellung der Funktionsweise eines neuronalen Netzes 200 zur Skalierung von Bildern. Das neuronale Netz 200 ist ausgestaltet die Auflösung eines Bildes 210 zu verändern, indem das neuronale Netz 200 ein Bild 220 mit einer geänderten Auflösung erzeugt. Beispielsweise kann das neuronale Netz 200 ein Bild 220 mit einer doppelt so großen, einer viermal so großen oder einer m/n- mal so großen Auflösung ausgeben als das Eingabebild 210 des neuronalen Netzes, wobei m und n natürliche oder positive ganze Zahlen sind. In Ausführungsformen können einzelne Dimensionen eines Bildes skaliert werden.
Das Eingabebild 210 für das neuronale Netz 200 kann eine erste Auflösung umfassen. Wenn das neuronale Netz 200 auf Bild 210 angewendet wird oder dieses Bild 210 in das neuronale Netz 200 eingegeben wird, kann das neuronale Netz 200 das Bild 210 auf dem Ausgabebild 220 abbilden, wobei die Anzahl der Pixel des Bildes 210 nicht mit der Anzahl der Pixel des Bildes 220 übereinstimmen muss. Somit kann das Bild 210 hoch oder runter-skaliert werden. In Figur 2 ist das neuronale Netz 200 ausgestaltet Bild 220 aus einem Bild 210 zu erzeugen, wobei das Bild 220 eine größere Auflösung hat und/oder mehr Bildinformationen enthält als das Eingabebild 210. Das neuronale Netz kann ausgestaltet sein um fehlende Bildinformation in Bild 210 semantisch korrekt aus dem neuronalen Netz zu erzeugen. Das neuronale Netz 200 kann an Trainingsdaten trainiert worden sein, die in einem Kontext mit den erfassten Bildern stehen. Der Unterschied zu herkömmlichen Verfahren, wie bikubischer Interpolation, ist, dass die erzeugte Bildinformation nicht nur aus dem einen vorliegenden Bild stammt, sondern unter Berücksichtigung von gelernten Bildrepräsentationen aus einer Vielzahl von Bildern erzeugt wird. Auf diese Weise werden semantisch korrekte Bildinformationen ergänzt, die in dem vorliegenden niedrig aufgelösten Bild nicht enthalten sind. Die Anwendung des neuronalen Netzes 200 unterscheidet sich vom Training des neuronalen Netzes 200 durch die verwendeten Datensätze. Beim Training werden ein oder mehrere erste Bilder in das neuronale Netz 200 eingegeben und interne Parameter des neuronalen Netzes so angepasst, dass die Ausgabebilder des neuronalen Netzes 200 bestmöglich mit Soll- Ausgabebildern übereinstimmen. Bei der Anwendung des neuronalen Netzes durchlaufen die Bilddaten einmal das neuronale Netz 200 und das neuronale Netz 200 erzeugt ein Ausgabebild als Vorhersage. Neuronale Netze können Ergebnisse darstellen, wobei diese durch mindestens einen Deep Learning Prozess und/oder mindestens eine Deep Learning Methode erlernt wurden. Diese neuronalen Netze kondensieren zu einem bestimmten Aufgaben-Ensemble gesammeltes Wissen in geeigneter Weise durch automatisiertes Lernen, derart, dass eine bestimmte Aufgabe fortan automatisiert und mit höchster Qualität durchgeführt werden kann.
Bild 210 kann ein Bild sein, das mit einem Bilderfassungssystem erfasst oder aufgenommen wurde. In einer Ausführungsform kann das erfasste Bild 210 vorbearbeitet werden, bevor es in das neuronale Netz 200 gegeben wird. Die Vorbearbeitung kann ein Interpolieren, wie beispielsweise eine bilineare, biquadratische oder bikubische Interpolation, des Bildes 210 umfassen. Das Bild 210 kann beispielsweise auf die gewünschte Ausgabegröße des neuronalen Netzes interpoliert werden. Dies entspricht der Bildgröße des Bildes 220.
Das neuronale Netz kann dann auf das interpolierte Bild angewendet werden und erzeugt ein Ausgabebild, wobei sich das Ausgabebild und das interpolierte Bild durch ihren Informationsgehalt, ihren Detailkontrast und/oder ihre Schärfe unterscheiden. Zum Beispiel kann der Informationsgehalt, der Detailkontrast und/oder die Schärfe des Ausgabebildes im Vergleich zum interpolierten Bild erhöht sein. Alternativ kann die Vorbearbeitung auch Teil des neuronalen Netzes sein.
In Figur 3 wird das Prinzip der Hochskalierung schematisch dargestellt. Ein erstes Bild 300 mit einer ersten (niedrigen) Auflösung von 1 1x12 Pixeln umfasst einen Pixel 330 mit einem Wert 68. Das erste Bild 300 kann abgetastet werden und auf eine gewünschte Größe gebracht werden. Hierbei können beispielsweise entstehende Lücken mit dem Pixelwert Null aufgefüllt werden, sodass ein zweites Bild 310 entsteht, das die gleiche Auflösung oder Größe hat wie das gewünschte Bild 320. Auf das Bild 310 kann in einem nächsten Schritt eine Faltungsmatrix 340 angewendet werden. In Figur 3 hat die Faltungsmatrix 340 beispielsweise eine Größe von 3x3 Pixeln. Durch das Falten der Faltungsmatrix 340 mit dem Bild 310 kann sich das Bild 320 ergeben. Dies entspricht einer Schrittgröße von ungefähr 1 beim Hochskalieren. Das neuronale Netz zum Skalieren von Bildern kann eine Vielzahl von Schichten haben, wobei die Schrittgröße bei den Faltungen in den Schichten unterschiedlich groß sein kann. Zum Beispiel erzeugt eine Schrittgröße von 1 bei einer Faltung ein neues Bild mit einer Größe, die der Größe des Eingangsbildes entspricht, eine Schrittgröße von größer als 1 ein neues Bild mit einer kleineren Größe als der Größe des Eingangsbildes und eine Schrittgröße von kleiner als 1 ein neues Bild mit einer größeren Größe als der des Eingangsbildes.
Die Parameter der Faltungsmatrix werden von dem neuronalen Netz in einem T raining gelernt. So kann das neuronale Netz angewendet auf Eingangsbilder Ausgabebilder mit einer höheren Auflösung erzeugen, wobei fehlende Bildinformationen aus dem Eingangsbild durch das neuronale Netz erzeugt werden. Das neuronale Netz kann versteckte Repräsentationen (engl „hidden representations“) durch ein Training mit einer Vielzahl von Trainingsbildern erlernen. Somit können semantisch korrekte Bilder mit einer höheren Auflösung aus Bildern mit einer niedrigen Auflösung erzeugt werden.
Figur 4A zeigt eine Vorrichtung 400, die ein oder mehrere Prozessoren 410 und ein oder mehrere Speichermedien 420 umfasst. Die Vorrichtung 400 kann ein Abbildungs- und/oder Bildaufzeichnungssystem umfassen. Alternativ kann die Vorrichtung 400 auch räumlich von einem Abbildungs- und/oder Bildaufzeichnungssystem getrennt sein und über ein Netzwerk, beispielsweise einem Funknetz, mit dem Abbildungs- und/oder Bildaufzeichnungssystem verbunden sein. In diesem Fall kann die Vorrichtung einen Arbeitsplatzrechner, einen Server, einen Kleinstrechner, Computer oder Embedded-Computer umfassen.
Die ein oder mehreren Prozessoren 410 können Rechenbeschleuniger, wie Graphical Processing Units (GPUs), TensorFlow Processing Units oder Tensor Processing Units (TPUs) auf Machine Learning (ML)- und/oder Deep Learning (DL)- spezialisierte Application Specific Integrated Circuits (ASICs) oder Field Programmable Gated Arrays (FPGAs) oder mindestens eine Central Processing Unit (CPU) umfassen. Eine anwendungsspezifische integrierte Schaltung (englisch Application Specific Integrated Circuit, ASIC, auch Custom Chip) ist eine elektronische Schaltung, die als integrierter Schaltkreis realisiert werden kann. Wegen der Anpassung ihrer Architektur auf ein spezifisches Problem arbeiten ASICs sehr effizient und um einiges schneller als eine funktionsgleiche Umsetzung per Software in einem Mikrocontroller. TPUs, auch TensorFlow-Prozessoren, sind anwendungsspezifische Chips und können Anwendungen im Rahmen von maschinellem Lernen im Vergleich zu CPUs beschleunigen. Diese oder ähnliche spezialisierte Hardware kann genutzt werden um Deep Learning-Aufgaben optimal zu lösen. Insbesondere die Anwendung eines neuronalen Netzes, die Größenordnungen weniger Rechenleistung benötigt als das Training, also die Entwicklung eines Modells, funktioniert auch auf üblichen CPUs.
Des Weiteren kann die Vorrichtung in Ausführungsformen ein oder mehrere neuronale Netze 430 umfassen. Mit Hilfe der ein oder mehrere neuronalen Netze 430 kann die Vorrichtung 400 befähigt werden mittels künstlicher Intelligenz (Kl) Bilder zu Skalieren. Die ein oder mehreren Bilder können Einzelbildern, 3D-Bilderstapel, Videos, Bilder von mehrdimensionalen Zeitserien und/oder verschiedenen Skalen umfassen. Die ein oder mehreren neuronalen Netze 430 können durch die ein oder mehreren Prozessoren 410 ausgeführt werden. Das Ausführen von neuronalen Netzen 430 benötigt Größenordnungen weniger Rechenleistung als das Training oder die Entwicklung eines neuronalen Netzes.
Durch das Implementieren des neuronalen Netzes 430 auf der Vorrichtung 400 erlangt diese zusätzliche „Intelligenz“. Die Vorrichtung 400 kann so in die Lage versetzt werden eine gewünschte Aufgabe selbstständig zu lösen. Somit ergibt sich eine kognitiv erweiterte Vorrichtung 400. Kognitiv erweitert bedeutet, dass die Vorrichtung durch Einsatz neuronaler Netze (z. B. Deep Learning-Modelle) oder anderer Maschinenlernverfahren dazu befähigt werden kann, Bildinhalte oder andere Daten semantisch zu erkennen und zu verarbeiten.
Des Weiteren kann die Vorrichtung 400 ein oder mehrere Komponenten 440 umfassen. Zum Beispiel können die ein oder mehrere Komponenten 440 eine Nutzerschnittstelle, eine Schnittstelle um neuronale Netze auf die Vorrichtung 400 herunterzuladen, oder ein Bilderfassungssystem umfassen.
In Ausführungsformen kann die Vorrichtung 400 genutzt werden, um ein neuronales Netz 430 zu trainieren. Auf den ein oder mehreren computerlesbaren Speichermedien 420 gespeicherte computerausführbare Anweisungen können, wenn sie von dem einen oder den mehreren Prozessoren 410 ausgeführt werden, bewirken, dass eines oder Teile der Verfahren nach den Figuren 5A und/oder 5B ausgeführt werden.
Figur 4B zeigt ein System 450, das ein Abbildungs- und/oder Bildaufzeichnungssystem 460 und einen Computer 470, beispielsweise einen Arbeitsplatzrechner, umfasst, die über ein Netzwerk, beispielsweise ein Funknetz oder ein Glasfasernetz, verbunden sind. In Ausführungsformen kann das Abbildungs- und/oder Bildaufzeichnungssystem 460 und/oder der Arbeitsplatzrechner 470 die Vorrichtung 400 umfassen. Somit können das Bildaufzeichnungssystem 460 und/oder der Arbeitsplatzrechner 470 mit künstlicher Intelligenz (Kl) ausgestaltet sein. Alternativ kann die Vorrichtung 400 räumlich getrennt von dem Abbildungs- und/oder Bildaufzeichnungssystem 460 und/oder dem Arbeitsplatzrechner 470 sein und durch ein Netzwerk mit diesen verbunden sein.
Das Abbildungs- und/oder Bildaufzeichnungssystem 460 kann ein optisches System, wie beispielsweise ein Objektiv, Optiken oder einzelne Linsen, und ein Detektionssystem, wie beispielsweise eine photographische Schicht, einen sCMOS- („scientific complementary metal-oxide-semiconductor“) oder CCD- („charge-coupled device“) Sensor, umfassen. Zum Beispiel kann das Abbildungs- und/oder Bildaufzeichnungssystems 460 ein Mikroskop mit einer Kamera, eine Videokamera, ein Mikroskopsystem, ein Mikroskop mit einem Punktscanner, eine Digitalkamera, ein Smartphone, ein Teleskop, ein Messgerät oder einen Computer mit Kamera umfassen. Figur 4B zeigt Bildaufzeichnungssystem 460 nur beispielhaft als Lichtmikroskop. In Ausführungsformen kann Bildaufzeichnungssystem 460 alle Arten von Mikroskopen umfassen. Zum Beispiel kann ein Mikroskop eines der folgenden umfassen: ein Lichtmikroskop, ein Stereo-Mikroskop, ein Konfokal-Mikroskop, ein Multiphotonen-Mikroskop, ein STED-Mikroskop, ein Spaltlampenmikroskop, ein Operationsmikroskop, ein Digitalmikroskop, ein USB-Mikroskop, ein Elektronenmikroskop, ein Rasterlektronenmikroskop, ein Spiegelmikroskop, ein Fluoreszenzmikroskop, ein Focused- lon-Beam-Mikroskop (FIB), ein Helium-Ionen-Mikroskop, ein Magnetresonanzmikroskop, ein Neutronenmikroskop, ein Raster-SQUID-Mikroskop, ein Röntgenmikroskop, ein Ultraschallmikroskop, ein Lichtscheibenmikroskop (SPIM) oder ein akustisches Mikroskop, etc.
Figur 4B zeigt in einer Ausführungsform eine Kommunikation eines Kl-befähigten Mikroskops 460 mit einem Kl-befähigten Computer 470. Ein einzelnes Bildaufzeichnungssystem kann dabei selbst Hardwarebeschleunigung und/oder einen Kleinstrechner, wie die Vorrichtung 400, umfassen, die die Ausführung von trainierten Modellen (z. B. neuronalen Netzen) ermöglichen. Alternativ kann auch nur das Bildaufzeichnungssystem 460 oder nur der Computer 470 Kl-befähigt werden.
In Ausführungsformen ist das Bilderfassungssystem 460 ausgestaltet um ein oder mehrere Bilder zu erfassen. Die ein oder mehreren erfassten Bilder können lokal auf dem Bilderfassungssystem 460 oder räumlich getrennt von dem Bilderfassungssystem 460 gespeichert werden. Zum Beispiel kann das Bilderfassungssystem 460 die ein oder mehreren Bilder zum Arbeitsplatzrechner 470 oder zu der Vorrichtung 400 über ein Netzwerk senden, auf denen die Bilder dann gespeichert werden. Die ein oder mehreren abgespeicherten Bilder können dann in ein neuronales Netz zur Skalierung von Bildern gegeben werden. Alternativ können die ein oder mehreren erfassten Bilder direkt in das neuronale Netz gegeben werden und nur die ein oder mehreren korrigierten Bilder gespeichert werden. Dies ermöglicht eine Skalierung der Bilder in Echtzeit. In einer Ausführungsform kann für eine Vielzahl von Bildern oder einen sehr großen Datenstapel die Hochskalierung auch asynchron auf einem Cluster im Netzwerk oder in einer Cloud erfolgen.
In einer Ausführungsform findet die Verarbeitung der aufgenommenen Bilder auf dem Computer 470 statt, auf dem eine Software läuft, die ein neuronales Netz implementiert, das Bilder auf intelligente Weise skalieren kann. Fehlende Bildinformation kann semantisch korrekt aus im neuronalen Netz durch Lernen vorliegende versteckte Repräsentationen („hidden representations“) erzeugt werden. Somit kann das System 450 Aufnahmen oder Messungen mit höherer Geschwindigkeit machen und/oder Datenreduktion betreiben. Der benötigte Speicherplatz bzw. die Speicherbandbreite kann verringert werden.
Der Geschwindigkeitsgewinn basiert darauf, dass weniger Bildpunkte aufgenommen werden müssen als eigentlich nötig, um die gewünschte Auflösung zu erreichen. In Abhängigkeit des Lichtsensors des Bilderfassungssystems kann zwischen Punktdetektoren und Flächendetektoren unterscheiden werden. Punktdetektoren kommen in der Mikroskopie vor allem bei konfokalen Laserscanningmikroskopen zum Einsatz. Beim Laserscanningverfahren wird das Bild durch zeilenweises Abtasten einer Probe erzeugt. Die Bildaufnahmezeit hängt von der Anzahl der abgetasteten Zeilen ab. Wird beispielsweise die Anzahl der Zeilen auf ein Viertel reduziert, lässt sich die Aufnahmegeschwindigkeit etwa vervierfachen. Flächendetektoren können bei der Weitfeldmikroskopie eingesetzt werden. Hier kann ein Geschwindigkeitsvorteil durch Binning entstehen, also Pixel zusammengefasst werden. Dadurch verringern sich die Auflösung und die Belichtungszeit, was die Aufnahmegeschwindigkeit erhöht.
Unabhängig von der verwendeten Aufnahmetechnik hängt die Speichergröße eines nicht komprimierten zweidimensionalen Bildes quadratisch mit der Auflösung in jeder Raumrichtung zusammen. Wenn die gewünschten Bildinhalte durch intelligentes Hochskalieren rekonstruiert werden können, ist es möglich, die Bilder vor dem Abspeichern entsprechend herunter zu skalieren. In einer Ausführungsform kann ein neuronales Netz zum intelligenten Hochskalieren von Bildern in drei Raumdimensionen und der Zeitdimension angewendet werden, wodurch sich die zu speichernde Datenmenge reduzieren lässt. Die Speicherersparnis S ergibt sich nach: S = ßd. Dabei ist S der Faktor der Speicherersparnis gegenüber der vollen Auflösung, ß das isotrope Binning in jeder Raumrichtung und d ist die Dimension des Bildes. Bei einem 3D- Stapel mit einem isotropen Binning von ß = 4 ergibt sich so beispielsweise eine Speicherreduktion von S = 64.
In der Mikroskopie werden häufig lichtempfindliche Proben oder Farbstoffe eingesetzt, die durch Einsatz hoher Lichtdosis photochemisch zersetzt werden können. Dies wird auch als Photobleichen bezeichnet. Stärkeres Binning beim Flächendetektor, bzw. um den Binning- Faktor verringerte Pixelauflösung beim Punktdetektor, setzt die Probe für eine kürzere Zeitdauer Licht aus. Das Binning hat somit den Effekt, dass eine Lichtdosis verringert werden kann. Durch eine Verringerung der Lichtdosis und einer Erhöhung der Aufnahmegeschwindigkeit kann der Effekt des Photobleichens reduziert werden und der Anwendungsbereich von Mikroskopen erweitert werden.
Ist bei der Aufnahme die maximal förderliche Auflösung gegeben, also die Pixelgröße etwa zwei bis dreimal kleiner als die entsprechende„Point Spread Function“, so führt eine Erhöhung der Pixelzahl nicht mehr zu einer Erhöhung der Bildinformation. Intelligentes Hochskalieren kann in diesem Grenzbereich zu einem Bild führen, das mehr Bildinformation enthält. Zu diesem Zweck kann das eingesetzte neuronale Netz oder trainierte Modell derart trainiert worden sein, dass im Trainingsdatensatz die Eingabebilder beugungsbegrenzte Bilder umfassen, während die Bilder, die am Ausgang des Modells als Zielwert vorliegen (Soll- Ausgabebilder), die gleiche Stelle oder das gleiche Objekt aufgenommen mit einer optischen Höchstauflösungsmethode zeigt. Durch ein Training kann dann das neuronale Netz diese optische Höchstauflösungsmethode simulieren. In Ausführungsformen kann beispielsweise die Weitfeldmikroskopie genutzt werden um ein niedrig aufgelöstes Bild als Eingabebild für das Training und die Konfokalmikroskopie um ein hochaufgelöstes Bild als entsprechendes Soll-Ausgabebild zu erzeugen. Alternativ könnte auch mittels Konfokalmikroskopie ein niedrig aufgelöstes Bild als Eingabebild für das Training und mittels„Stimulated Emission Depletion“ (STED) - Nanoskopie ein hochaufgelöstes Bild als entsprechendes Soll-Ausgabebild erzeugt werden.
Figur 5A zeigt ein schematisches Flussdiagramm nach einem Ausführungsbeispiel eines erfindungsgemäßen (computer-implementierten) Verfahrens 500 zur Skalierung von Bildern. Das Verfahren 500 kann einen ersten Schritt 510 umfassen, in welchem ein Abbildungs und/oder Bildaufzeichnungssystem eingestellt wird. Beispielsweise kann eine Auflösung mit der das Abbildungs- und/oder Bildaufzeichnungssystem ein oder mehrere Bilder aufnimmt eingestellt werden. Dies kann durch Binning (ein Zusammenfassen von Pixeln) oder durch eine Auswahl von Bestimmten Pixeln für eine Aufnahme umfassen. Des Weiteren kann eine Bildrate zum Erfassen der ein oder mehreren ersten Bilder, eine Übertragungsrate der ein oder mehreren erfassten ersten Bilder von dem Abbildungs- und/oder Bildaufzeichnungssystem zu einem Computer oder einem Arbeitsplatzrechner, der Vorrichtung oder einem Datenspeicher, eine Belichtungszeit, ein Scanformat oder eine Pixelauflösung zum Erfassen der ein oder mehreren ersten Bilder, wobei die ein oder mehreren ersten Bilder ein oder mehrere gescannte Bilder umfassen, eine Abtastfrequenz (beispielsweise eine Zeilenabtastfrequenz) des Abbildungs- und/oder Bildaufzeichnungssystems, wobei das Abbildungs- und/oder Bildaufzeichnungssystem ein scannendes Abbildungs- und/oder Bildaufzeichnungssystem umfasst, eine numerischen Apertur, NA, eines optischen Systems des Abbildungs- und/oder Bildaufzeichnungssystem und/oder eine Lichtintensität einer Lichtquelle des Abbildungs und/oder Bildaufzeichnungssystems eingestellt werden. Die Abtastfrequenz kann mit einer Geschwindigkeit, mit der eine Lichtquelle (beispielsweise ein Laser) des Abbildungs- und/oder Bildaufzeichnungssystems ein Objekt abtastet, Zusammenhängen. Das Scanformat kann eine räumliche Auflösung (beispielsweise 1024 x 1024 oder 512 x 512) beim Scannen festlegen. Die Einstellungen des Abbildungs- und/oder Bildaufzeichnungssystem können mit der Auflösung Zusammenhängen. Zum Beispiel kann eine Bildrate erhöht werden, wenn die Auflösung verkleinert wird, oder durch Binning (Verkleinerung der Auflösung) kann die Lichtintensität und/oder die Belichtungszeit einer Lichtquelle des Abbildungs- und/oder Bildaufzeichnungssystem reduziert werden.
In einem zweiten Schritt 520, können ein oder mehrere erste Bilder mittels eines Abbildungs und/oder Bildaufzeichnungssystems erfasst werden. Die ein oder mehreren erfassten ersten Bildern hängen mit einer ersten Auflösung zusammen.
In einem dritten Schritt 530 erzeugt ein neuronales Netz, zum Beispiel in Echtzeit, in Abhängigkeit der ein oder mehreren erfassten ersten Bilder ein oder mehrere entsprechende zweite Bilder. Die ein oder mehreren zweiten Bilder hängen mit einer zweiten Auflösung zusammen, wobei sich die erste Auflösung und die zweite Auflösung unterscheiden. Das neuronale Netz kann direkt auf jedes der ein oder mehreren erfassten ersten Bilder angewendet werden und nur die ein oder mehreren zweiten Bilder können abgespeichert werden.
In einer Ausführungsform skaliert das neuronale Netz ein niedrig aufgelöstes Bild hoch und das hochskalierte Bild wird an einen Computer zur Weiterverarbeitung geschickt. Alternativ kann das niedrig aufgelöste Bild an einen Computer geschickt werden und auf dem Computer mit Hilfe des neuronalen Netzes hochskaliert werden.
Neuronale Netze können mit Deep Learning Methoden trainiert werden. Dies umfasst eine planmäßige Anwendung von mindestens einem Deep Learning Verfahren, vorzugsweise aber mehreren Deep Learning Verfahren zum Erreichen eines bestimmten Ziels. Das Ziel kann dabei die Bildbearbeitung umfassen (z. B. Korrektur von ein oder mehreren optischen Fehlern, Erzeugung eines Bildes aus einem anderen Bild, wobei sich mindestens ein Merkmal in den Bildern unterscheidet, etc.). Deep Learning Verfahren können eine Folge von Verfahrensschritten umfassen, welche einen Ablauf in nachvollziehbare Schritte unterteilen, und zwar derart, dass dieser Ablauf wiederholbar wird. Bei den Verfahrensschritten kann es sich um bestimmte Deep Learning Algorithmen handeln. Es können aber auch Methoden sein, mit denen ein Netz lernt (z. B. Backpropagation), es kann z. B. die Art der Datenerhebung sein oder die Art wie Daten über Hardware prozessiert werden etc.
Figur 5B zeigt ein schematisches Flussdiagramm eines computer-implementierten Verfahrens 550 zum Trainieren eines neuronalen Netzes zur Skalierung von Bildern. In einem ersten Schritt 560 werden Bilderpaare als Trainingsdaten bestimmt, um anhand dieser Bilderpaare ein neuronales Netz zu trainieren (Schritt 570). Das Bestimmen der Trainingsdaten oder Trainingsbilder kann ein oder mehrere Messungen und/oder ein oder mehrere Simulationen in Zusammenhang mit ein oder mehreren Probentypen umfassen, um die Trainingsdaten zu erzeugen. Alternativ können Trainingsdaten, die in einer Datenbank gespeichert sind oder von Dritten zur Verfügung gestellt werden, für das Training bestimmt werden. Die Bilderpaare umfassen Eingangsbilder und Soll-Ausgabebilder.
Verlustfunktionen, die auf einem pro-Pixel-Verlust basieren, sind fehleranfällig und können unpräzise Ergebnisse für ein Training liefern. Um diesen Nachteilen zu begegnen, können in Ausführungsformen Verlustfunktionen verwendet werden, die Wahrnehmungsunterschiede und semantische Unterschiede zwischen Bildern bestimmen. Daher kann ein zweites neuronales Netz als Verlustfunktion für das erste neuronale Netz (das zu trainierende neuronale Netz) bestimmt werden. Beispielsweise kann dies durch ein Trainieren des zweiten neuronalen Netzes geschehen. Alternativ kann das Bestimmen des zweiten neuronalen Netzes ein Auswählen des zweiten neuronalen Netzes aus einer Vielzahl von neuronalen Netzen umfassen, wobei die Vielzahl von neuronalen Netzen an verschiedenen Probentypen trainiert wurden und das zweite neuronale Netz in Abhängigkeit von dem Probentyp ausgewählt wird. Das zweite neuronale Netz kann an einem Probentyp trainiert worden sein oder trainiert werden, der in einem Zusammenhang mit dem späteren Anwendungszweck des ersten neuronalen Netzes steht. Das zweite neuronale Netz kann ausgestaltet sein Vorhersagen, wie beispielsweise eine Klassifizierung, basierend auf Bildern als Eingabewert für das zweite neuronale Netz zu treffen. Durch das Verlustnetz kann somit ein Wahrnehmungsfehler (engl „perceptual loss”) bestimmt werden, mit dessen Hilfe sich sicherstellen lässt, dass die Ausgabe des neuronalen Netzes wie ein zu erwartendes Bild aussieht. Dies ist bei Verlustfunktionen, die nur pro Pixel eines Bildes einen Fehler berechnen, nicht gegeben. Somit werden die ausgegebenen Bilder nicht als Menge unabhängiger Pixel behandelt, sondern in einen semantischen Zusammenhang gestellt.
In Schritt 520 wird das erste neuronale Netz anhand der Trainingsdaten aus Schritt 510 trainiert. Während des Trainings in Schritt 520 werden innere Parameter (beispielsweise Gewichte / Filter„W“ und Schwellwerte„B“) des ersten neuronalen Netzes gefunden, die eine Vielzahl von in das erste neuronale Netz eingegebenen Eingabebildern optimal oder bestmöglich auf die Soll-Ausgabebilder abbilden. Somit ist das erste neuronale Netz in der Lage neue Bilder aus Bildern zu erzeugen und eine Aufgabe zu lösen, die in Zusammenhang mit den Trainingsdaten steht. Das erste neuronale Netz kann trainiert werden Bilder zu skalieren.
Des Weiteren kann das erste neuronale Netz, das in Schritt 520 trainiert wurde, feinjustiert werden. Hierbei wird das erste neuronale Netz weiter trainiert um ein adaptiertes (drittes) neuronales Netz zu erhalten. Das adaptierte neuronale Netzt kann für eine spezielle Anwendung trainiert werden. Beispielsweise kann das erste neuronale Netz anhand von speziellen Trainingsdaten weiter trainiert werden. Somit kann das adaptierte (dritte) neuronale Netz speziell für einen bestimmten Anwendungszweck weiter trainiert werden, indem Trainingsdaten eines bestimmten Probentyps (die in einem Kontext mit dem bestimmten Anwendungszweck stehen) für das Feintuning verwendet werden. Beim weiteren Trainieren (Feintuning) können diese speziellen Trainingsdaten verwendet werden um mindestens einen Teil des vortrainierten (ersten) neuronalen Netzes weiter zu trainieren. Beispielsweise kann nur ein Teil der inneren Parameter des neuronalen Netzes in Abhängigkeit des weiteren Trainings verändert werden, wobei die restlichen inneren Parameter nicht durch das weitere Training verändert werden können. Dies ermöglicht eine schnelle individuelle Anpassung des neuronalen Netzes an einen bestimmten Verwendungszweck, wie beispielsweise das Hochskalieren von Bildern die einen bestimmten Probentyp abbilden.
Durch Feintuning neuronaler Netze können diese beständig verbessert und/oder der Anwendungsbereich der neuronalen Netze spezifiziert werden. Dies kann vorteilhaft durch Training nur weniger Knoten in einem neuronalen Netz geschehen.
Anschließend kann das adaptierte neuronale Netz für Dritte zur Verfügung gestellt werden, auf einer Vorrichtung zur Anwendung gebracht werden, wobei die Vorrichtung in Zusammenhang mit dem optischen System steht, oder in einer Cloud, auf einem Server oder einem anderen Datenspeicher abgespeichert werden.
Bilder mit einer bestimmten Auflösung können mit Hilfe von Maschinenlern (ML)-Methoden skaliert werden. Die beschriebenen ML-Methoden umfassen Algorithmen, mit denen Maschinen aus Erfahrung lernen können und können aus dem sog.„Deep Learning“ (DL), einer bestimmten Art neuronaler Netze, kommen.
Das neuronale Netz wird trainiert um Objekte in einem erfassten Bild in ein hochskaliertes Bild zu übertragen derart, dass„implizit“, also als Teil der gelernten Parameter, im Netz das Objekt korrekt rekonstruiert wird. Das neuronale Netz kann beim Training ähnliche Objekte gesehen haben. Ähnlich bedeutet hier, dass die gleichen Bildmerkmale in den Trainingsbildern vorhanden waren wie auch in den zu skalierenden Bildern, die Trainingsbilder also in einem Kontext mit den erfassten Bildern stehen.
Die erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren stellen Mittel zur Skalierung von Bildern bereit. Die erfindungsgemäße Vorrichtung ist ausgestaltet um mit Hilfe eines neuronalen Netzes ein oder mehrere erfasste Bilder zu skalieren. Dies kann vorteilhaft schon während oder direkt nach dem Erfassen der Bilder, also vor dem Abspeichern des Bildes („in Echtzeit”) erfolgen. Die Bildskalierung ist somit Teil des Aufnahmeprozesses von Bildern. Bezugszeichen:
110, 120, 130, 140 Bilder
210, 220 Bilder
200 neuronales Netz
300, 310, 320 Bilder
330, 350 Pixel
340 Faltungsmatrix
400 Vorrichtung
410 Prozessor
420 Speichermedium
430 neuronales Netz
440 Komponenten
450 System
460 Abbildungs- und/oder Bildaufzeichnungssystem
470 Computer
500, 550 Verfahren
510 - 530, 560, 570 Verfahrensschritte

Claims

Ansprüche
1. Vorrichtung (400) zur Skalierung von Bildern, umfassend: ein oder mehrere Prozessoren (410); ein oder mehrere computerlesbare Speichermedien (420), auf denen computerausführbare Anweisungen gespeichert sind, die, wenn sie von dem einen oder den mehreren Prozessoren (410) ausgeführt werden, bewirken, dass ein oder mehrere erste Bilder (100; 210) mittels eines Abbildungs- und/oder Bildaufzeichnungssystems (460) erfasst werden, wobei die ein oder mehreren erfassten ersten Bildern (100; 210) mit einer ersten Auflösung Zusammenhängen; und ein neuronales Netz (200; 430) in Abhängigkeit der ein oder mehreren erfassten ersten Bilder (100; 210) ein oder mehrere entsprechende zweite Bilder (130; 220) erzeugt, wobei die ein oder mehreren zweiten Bilder (130; 220) mit einer zweiten Auflösung Zusammenhängen, wobei sich die erste Auflösung und die zweite Auflösung unterscheiden.
2. Vorrichtung (400) nach Anspruch 1 , dadurch gekennzeichnet, dass das neuronale Netz (200; 430) direkt auf jedes der ein oder mehreren erfassten ersten Bilder (100; 210) angewendet wird und nur die ein oder mehreren zweiten Bilder (130; 220) abgespeichert werden.
3. Vorrichtung (400) nach einem der Ansprüche 1 und 2, dadurch gekennzeichnet, dass die computerausführbaren Anweisungen, wenn sie von dem einen oder den mehreren Prozessoren (410) ausgeführt werden, des Weiteren bewirken, dass das Abbildungs und/oder Bildaufzeichnungssystem (460) in Abhängigkeit von der ersten Auflösung eingestellt werden.
4. Vorrichtung (400) nach Anspruch 3, dadurch gekennzeichnet, dass das Einstellen ein Einstellen mindestens von einem der folgenden umfasst: einer Bildrate zum Erfassen der ein oder mehreren ersten Bilder (100; 210), einer Übertragungsrate der ein oder mehreren erfassten ersten Bilder (100; 210) von dem Abbildungs- und/oder Bildaufzeichnungssystem (460) zu einem Arbeitsplatzrechner (470), der Vorrichtung (400) oder einem Datenspeicher, einem Scanformat oder einer Pixelauflösung zum Erfassen der ein oder mehreren ersten Bilder (100; 210), wobei die ein oder mehreren ersten Bilder (100; 210) ein oder mehrere gescannte Bilder umfassen, einer Abtastfrequenz des Abbildungs- und/oder Bildaufzeichnungssystems (460), einer numerischen Apertur, NA, eines optischen Systems des Abbildungs und/oder Bildaufzeichnungssystem (460), einem Binning, einer Pixelauswahl aus allen Pixeln des Abbildungs- und/oder Bildaufzeichnungssystems (460) zum Erfassen der ein oder mehreren ersten Bilder (100; 210), einer Belichtungszeit, und einer Lichtintensität einer Lichtquelle des Abbildungs- und/oder Bildaufzeichnungssystems (460).
5. Vorrichtung (400) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die ein oder mehreren erfassten ersten Bilder (100; 210) eine kleinere Auflösung haben als die ein oder mehreren zweiten Bilder (130; 220).
6. Vorrichtung (400) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die computerausführbaren Anweisungen, wenn sie von dem einen oder den mehreren Prozessoren (410) ausgeführt werden, des Weiteren bewirken, dass die erste Auflösung eingestellt wird, wobei das Einstellen der ersten Auflösung ein Einstellen eines Binnings und/oder einer Auswahl einer Teilmenge von Pixeln des Abbildungs und/oder Bildaufzeichnungssystems (460) für das Erfassen der ein oder mehreren ersten Bilder (100; 210) umfasst.
7. Vorrichtung (400) nach Anspruch 6, dadurch gekennzeichnet, dass durch eine Verkleinerung der ersten Auflösung das Abbildungs- und/oder Bildaufzeichnungssystem (460) ausgestaltet ist mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine
Belichtungsdauer für das Erfassen der ein oder mehreren ersten Bilder (100; 210) zu verkleinern,
mittels Binning eine Lichtintensität einer Lichtquelle des Abbildungs- und/oder Bildaufzeichnungssystems (460) zu reduzieren,
mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine
Übertragungsrate der ein oder mehreren ersten Bilder (100; 210) zu erhöhen, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine Bildrate zum Erfassen der ein oder mehreren ersten Bilder (100; 210) zu erhöhen, mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine maximale Anzahl von speicherbaren Bildern zu erhöhen,
mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine
Aufnahmegeschwindigkeit zum Erfassen der ein oder mehreren ersten Bilder (100;
210) zu erhöhen, und/oder mittels Binning und/oder einer Auswahl einer Teilmenge von Pixeln eine größere Anzahl der ein oder mehreren erfassten ersten Bilder (100; 210) zu speichern.
8. Vorrichtung (400) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die ein oder mehreren erfassten ersten Bilder (100; 210) abgespeichert werden und das neuronale Netz (200; 430) auf die ein oder mehreren abgespeicherten ersten Bilder (100; 210) angewendet wird.
9. Vorrichtung (400) nach Anspruch 8, dadurch gekennzeichnet, dass die erste Auflösung der ein oder mehreren erfassten ersten Bilder (100; 210) vor dem Speichern reduziert wird.
10. Vorrichtung (400) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Abbildungs- und/oder Bildaufzeichnungssystems (460) ein Mikroskop mit einer Kamera, eine Videokamera, ein Mikroskopsystem, ein Mikroskop mit einem Punktscanner, eine Digitalkamera, ein Smartphone, ein Teleskop, ein Messgerät oder einen Computer mit Kamera umfasst.
11. Vorrichtung (400) nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die ein oder mehreren Prozessoren (410) Rechenbeschleuniger, wie Graphical Processing Units, GPUs, oder Field Programmable Gated Arrays, FPGAs, Tensor Processing Units, TPUs, auf Machine Learning, ML,- und/oder Deep Learning, DL,- spezialisierte Application Specific Integrated Circuits, ASICs oder mindestens eine Central Processing Unit, CPU, umfassen.
12. Vorrichtung (400) nach einem der Ansprüche 1 bis 11 , dadurch gekennzeichnet, dass das neuronale Netz (200; 430) in einem Kontext mit den ein oder mehreren ersten Bildern (100; 210) trainiert wurde und in den ein oder mehreren zweiten Bildern Bildinformationen enthalten sind, die semantisch korrekt aus dem neuronalen Netz (200; 430) erzeugt wurden.
13. Vorrichtung (400) nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das neuronale Netz (200; 430) an Bilderpaaren trainiert wurde, wobei Eingabebilder der Bilderpaare mit einem ersten Abbildungs- und/oder Bildaufzeichnungssystems (460) und den Eingabebildern entsprechende Soll-Ausgabebilder der Bilderpaare mit einem zweiten Abbildungs- und/oder Bildaufzeichnungssystems (460) erfasst wurden, wobei sich das erste Abbildungs- und/oder Bildaufzeichnungssystem von dem zweiten Abbildungs- und/oder Bildaufzeichnungssystem unterscheidet.
14. Vorrichtung (400) nach Anspruch 13, dadurch gekennzeichnet, dass das zweite Abbildungs- und/oder Bildaufzeichnungssystem ausgestaltet ist Bilder mit einer höheren Auflösung als das erste Abbildungs- und/oder Bildaufzeichnungssystem zu erfassen.
15. Vorrichtung (400) nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die computerausführbaren Anweisungen, wenn sie von dem einen oder den mehreren Prozessoren (410) ausgeführt werden, des Weiteren bewirken, dass die ein oder mehreren erfassten ersten Bilder (100; 210) vorbearbeitet werden, wobei die Vorbearbeitung ein Interpolieren der ein oder mehreren erfassten ersten Bilder (100; 210) auf die zweite Auflösung umfasst und das neuronale Netz (200; 430) auf die ein oder mehreren interpolierten ersten Bilder (100; 210) angewendet wird, oder das neuronale Netz (200; 430) auf die ein oder mehreren erfassten ersten Bilder (100; 210) angewendet wird.
16. System 450 zur Skalierung von Bildern, umfassend: ein oder mehrere Vorrichtungen (400) nach einem der Ansprüche 1 bis 15; und das Abbildungs- und/oder Bildaufzeichnungssystems (460), wobei das Abbildungs und/oder Bildaufzeichnungssystems (460) ausgestaltet ist die ein oder mehreren ersten Bilder (100; 210) zu erfassen.
17. Verfahren (550) zum T rainieren eines neuronalen Netzes (200; 430) zur Skalierung von Bildern, mit den Schritten:
Bestimmen (560) von einer Vielzahl von Bilderpaaren; und
Trainieren (570) eines neuronalen Netzes (200; 430) in Abhängigkeit der bestimmten Vielzahl von Bilderpaaren derart, dass das trainierte neuronale Netz (200; 430) angewendet auf ein erstes Bild (100; 210) ein zweites Bild (130; 220) ausgibt, wobei sich die Auflösung des ersten Bildes (100; 210) von der Auflösung des zweiten Bildes (130; 220) unterscheidet, wobei Eingabebilder der Vielzahl von Bilderpaaren mit einem ersten Abbildungs und/oder Bildaufzeichnungssystem (460) und den Eingabebildern entsprechende Soll- Ausgabebilder der Bilderpaare mit einem zweiten Abbildungs- und/oder Bildaufzeichnungssystem (460) erfasst wurden, wobei sich das erste Abbildungs und/oder Bildaufzeichnungssystem von dem zweiten Abbildungs- und/oder Bildaufzeichnungssystem unterscheidet.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass das zweite Abbildungs und/oder Bildaufzeichnungssystem ausgestaltet ist Bilder mit einer höheren Auflösung als das erste Abbildungs- und/oder Bildaufzeichnungssystem zu erfassen.
19. Verfahren nach einem der Ansprüche 17 und 18, dadurch gekennzeichnet, dass das neuronale Netz (200; 430) ein erstes neuronales Netz (200; 430) ist und das Trainieren (570) des ersten neuronalen Netzes (200; 430) ein Anwenden eines zweiten neuronalen Netzes umfasst, wobei das zweite neuronale Netz als Verlustfunktion für das Training (570) des ersten neuronalen Netzes (200; 430) angewendet wird.
20. Verfahren nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, dass das Verfahren des Weiteren den Schritt des Feinjustierens des neuronalen Netzes (200; 430) umfasst, wobei das Feinjustieren ein Trainieren nur eines Teils des neuronalen Netzes (200; 430) umfasst, wobei ein oder mehrere Parameter des neuronalen Netzes (200; 430) während des Feinjustierens unveränderlich bleiben, und/oder wobei das Feinjustieren ein T rainieren spezifisch für einen Anwendungszweck umfasst.
PCT/EP2019/084550 2018-12-19 2019-12-11 Grössenveränderung von bildern mittels eines neuronalen netzes WO2020126719A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19818064.8A EP3899860A1 (de) 2018-12-19 2019-12-11 Grössenveränderung von bildern mittels eines neuronalen netzes
US17/413,590 US20220343463A1 (en) 2018-12-19 2019-12-11 Changing the size of images by means of a neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018222300.9A DE102018222300A1 (de) 2018-12-19 2018-12-19 Skalierende Detektion
DE102018222300.9 2018-12-19

Publications (1)

Publication Number Publication Date
WO2020126719A1 true WO2020126719A1 (de) 2020-06-25

Family

ID=68848300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/084550 WO2020126719A1 (de) 2018-12-19 2019-12-11 Grössenveränderung von bildern mittels eines neuronalen netzes

Country Status (4)

Country Link
US (1) US20220343463A1 (de)
EP (1) EP3899860A1 (de)
DE (1) DE102018222300A1 (de)
WO (1) WO2020126719A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210224957A1 (en) * 2018-10-10 2021-07-22 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022116464A1 (de) 2022-07-01 2024-01-04 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur dynamischen Anpassung und Darstellung relevanter Infotainment-Bereiche über einer Ausgabeeinheit eines Fahrzeugs
US11818329B1 (en) * 2022-09-21 2023-11-14 Ghost Autonomy Inc. Synchronizing stereoscopic cameras using padding data setting modification

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342044A1 (en) * 2017-05-26 2018-11-29 Microsoft Technology Licensing, Llc Image resolution enhancement

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610606A1 (de) * 1993-02-11 1994-08-17 Agfa-Gevaert N.V. Verfahren zur Darstellung eines Bildteils
JP2008092297A (ja) * 2006-10-02 2008-04-17 Olympus Corp 画像処理装置、画像処理プログラム、画像製造方法、及び記録媒体
JP5398612B2 (ja) * 2010-03-23 2014-01-29 富士フイルム株式会社 動体検出装置および方法
JP7098341B2 (ja) * 2018-01-30 2022-07-11 キヤノン株式会社 制御装置、放射線撮影システム、制御方法及びプログラム
US11232541B2 (en) * 2018-10-08 2022-01-25 Rensselaer Polytechnic Institute CT super-resolution GAN constrained by the identical, residual and cycle learning ensemble (GAN-circle)

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180342044A1 (en) * 2017-05-26 2018-11-29 Microsoft Technology Licensing, Llc Image resolution enhancement

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
D. DAIR. TIMOFTEL. VAN GOOL: "Jointly Optimized Regressors for Image Super-resolution", COMPUTER GRAPHICS FORUM, vol. 34, 2015, pages 95 - 104
FREEDMAN, G.FATTAL, R.: "Image and Video Upscaling from Local Self-Examples", ZEITSCHRIFT ACM TRANSACTIONS ON GRAPHICS (TOG, vol. 30, no. 2, April 2011 (2011-04-01), XP058001113, DOI: 10.1145/1944846.1944852
YAIR RIVENSON ET AL: "Deep learning enhanced mobile-phone microscopy", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 December 2017 (2017-12-12), XP081303226, DOI: 10.1021/ACSPHOTONICS.8B00146 *
YAIR RIVENSON ET AL: "Deep Learning Microscopy", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 May 2017 (2017-05-12), XP081276423, DOI: 10.1364/OPTICA.4.001437 *
YAIR RIVENSON ET AL: "Toward a Thinking Microscope: Deep Learning in Optical Microscopy and Image Reconstruction", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 23 May 2018 (2018-05-23), XP081139811, DOI: 10.1364/OPN.29.7.000034 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210224957A1 (en) * 2018-10-10 2021-07-22 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
US11922601B2 (en) * 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium

Also Published As

Publication number Publication date
EP3899860A1 (de) 2021-10-27
US20220343463A1 (en) 2022-10-27
DE102018222300A1 (de) 2020-06-25

Similar Documents

Publication Publication Date Title
DE102018219867B4 (de) Lernender Autofokus
DE102017220104A1 (de) Linsensystem mit variabler Brennweite mit Mehrebenen-Bildverarbeitung mit erweiterter Tiefenschärfe
WO2020126719A1 (de) Grössenveränderung von bildern mittels eines neuronalen netzes
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE10315461A1 (de) System und Verfahren für eine Verbesserung von Digitalbildern
DE102008034979B4 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
DE102020214863A1 (de) Selbstüberwachtes verfahren und system zur tiefenschätzung
DE112019000972T5 (de) Verfahren und Systeme für vereinfachte grafische Abbildungen von bipartiten Graphen
DE102021100444A1 (de) Mikroskopiesystem und verfahren zum bewerten von bildverarbeitungsergebnissen
EP1943625A2 (de) Verfahren und vorrichtung zur rekonstruktion von bildern
WO2018177680A2 (de) Strukturierte beleuchtung mit optimierter beleuchtungsgeometrie
DE602004012125T2 (de) Robuste rekursive hüllenoperatoren für die schnelle verarbeitung von bildern des retinex-typs
EP3899861A1 (de) Optikkorrektur durch maschinenlernen
WO2022043438A1 (de) Verfahren, bildverarbeitungseinheit und laserscanningmikroskop zum hintergrundreduzierten abbilden einer struktur in einer probe
DE102020133244A1 (de) Kantenbewusste Aufwärtsskalierung für verbesserte Bildschirminhaltsqualität
DE102009000151A1 (de) Verfahren zur Gewinnung von Varianzdaten oder Standardabweichungsdaten zur Verminderung von Rauschen und digitale Fotografievorrichtung, die ein Varianzdaten oder Standardabweichungsdaten zur Verminderung von Rauschen speicherndes Aufzeichnungsmedium umfasst
DE112006001641T5 (de) Signalverarbeitungseinrichtung
DE102018008064A1 (de) Herunterskalieren von Bildern mit Pixelsätzen, die durch eine für blaues Rauschen gegebene Abtastung ausgewählt werden
DE102020002302A1 (de) Bildmodifikationsstile, die aus einem beschränkten Satz von modifizierten Bildern gelernt werden
EP3384461A1 (de) Verfahren und vorrichtung zur bildkorrektur
WO2018224444A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE102013021618A1 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zum Ausführen einer Bildverarbeitung, um ein Objekt in einem Bild zu erfassen
DE60206927T2 (de) Verfahren zur verarbeitung von numerischen bildern, insbesondere satellitenbildern
DE102012102707A1 (de) Verfahren und Vorrichtungen zur Bildverarbeitung
DE102021133867A1 (de) Mikroskopiesystem und Verfahren zur Reduzierung einer Bildvignettierung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19818064

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019818064

Country of ref document: EP

Effective date: 20210719