WO2023175860A1 - 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体 - Google Patents

標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体 Download PDF

Info

Publication number
WO2023175860A1
WO2023175860A1 PCT/JP2022/012406 JP2022012406W WO2023175860A1 WO 2023175860 A1 WO2023175860 A1 WO 2023175860A1 JP 2022012406 W JP2022012406 W JP 2022012406W WO 2023175860 A1 WO2023175860 A1 WO 2023175860A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
specimen
intensity distribution
refractive index
Prior art date
Application number
PCT/JP2022/012406
Other languages
English (en)
French (fr)
Inventor
鈴木良政
藤井信太朗
Original Assignee
株式会社エビデント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデント filed Critical 株式会社エビデント
Priority to PCT/JP2022/012406 priority Critical patent/WO2023175860A1/ja
Publication of WO2023175860A1 publication Critical patent/WO2023175860A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence

Definitions

  • the present invention relates to a specimen image generation device, a specimen image generation method, a specimen image generation system, and a recording medium.
  • an optical system forms an optical image of a specimen.
  • An image of the optical image is obtained by photographing the optical image with an image sensor.
  • FIG. 18 is a diagram showing a state of imaging, an optical image, and an image of the optical image.
  • FIG. 18(a) is a diagram showing the state of imaging when the specimen is a three-dimensional object.
  • FIG. 18(b) is a diagram showing an optical image in the XY cross section of the specimen.
  • FIG. 18(c) is a diagram showing an image in the XZ cross section of the optical image.
  • the optical system is an ideal optical system.
  • the optical axis of the optical system is the Z-axis, the axis perpendicular to the Z-axis is the X-axis, and the axis perpendicular to both the Z-axis and the X-axis is the Y-axis.
  • the XY cross section is a plane including the X axis and the Y axis.
  • the XZ cross section is a plane including the X axis and the Z axis.
  • the specimen is a cell mass.
  • a cell cluster is formed of multiple cells. Each cell has a cell nucleus.
  • the specimen OBJ since the specimen OBJ is a cell mass, the specimen OBJ has a thickness not only in the direction perpendicular to the optical axis AX but also in the direction parallel to the optical axis AX.
  • An optical image IMG is formed on the image plane IP by the optical system OS.
  • specimen OBJ In specimen OBJ, only the cell nucleus is stained with a fluorescent dye. Therefore, when the specimen OBJ is irradiated with excitation light, fluorescence is emitted only from the cell nucleus. As a result, a fluorescent image of the cell nucleus is formed as the optical image IMG.
  • an image PIC of the optical image By photographing the optical image IMG, an image PIC of the optical image can be obtained. In the optical image PIC, only the cell nucleus is imaged.
  • the image plane IP is conjugate with the focusing plane FP.
  • the optical image IMG represents an optical image in the XY cross section of the specimen OBJ located on the focal plane FP. As shown by the arrows, a plurality of optical images can be acquired by photographing optical images while relatively moving the specimen OBJ and the focusing plane FP along the optical axis AX.
  • the focal plane FP moves in the order of the top surface of the specimen OBJ, the inside of the specimen OBJ, and the bottom surface of the specimen OBJ.
  • FIG. 18(b) shows images of five optical images.
  • Each of the image PIC1, the image PICm-1, the image PICm, the image PICm+1, and the image PICn is an optical image in the XY cross section of the specimen OBJ.
  • image PIC1 is an image of the top surface of specimen OBJ
  • image PICm-1, image PICm, and image PICm+1 are images of the inside of specimen OBJ
  • image PICn is an image of the bottom surface of specimen OBJ.
  • the position of the XY cross section in the specimen OBJ is different for each optical image. Therefore, the images of the optical images are different from each other.
  • a line of data parallel to the X axis is extracted from each image from image PIC1 to image PICn.
  • image PIC1 to image PICn By arranging one row of data along the Z axis, an image in the XZ cross section of the optical image can be obtained.
  • FIG. 18(c) is a diagram showing an image in the XZ cross section of the optical image.
  • Image PICxz is an image of a cell nucleus.
  • the left-right direction of the image is the direction along the optical axis AX.
  • the right side of the image represents an image of the top surface of specimen OBJ, and the left side of the image represents an image of the bottom surface of specimen OBJ.
  • the shape of the cell nucleus is spherical, the shape of the XZ cross section is circular.
  • deformation, reduction in sharpness, and reduction in brightness occur in all images of cell nuclei. If deformation, reduction in sharpness, and reduction in brightness are deterioration in image quality, deterioration in image quality has occurred in image PICxz.
  • the image of the optical image is obtained by photographing the optical image.
  • the fact that image quality has deteriorated in the optical image means that the optical image has deteriorated.
  • the optical image is preferably a point image.
  • the optical system In order for a point image to be formed, the optical system must be an aberration-free optical system (hereinafter referred to as an "ideal optical system"), and all of the light emitted from the point light source must be incident on the optical system. It is.
  • the size of the optical system is finite, it is not possible to input all the light emitted from the point light source into the optical system. In this case, the optical image is affected by diffraction. As a result, even if the optical system is an ideal optical system, a point image is not formed, but a spread image is formed. An image with a spread is called a point spread intensity distribution.
  • the optical image is expressed by the following equation (1) using a point spread intensity distribution.
  • I O*PSF (1) here, I is an optical image, O is the specimen; PSF is point spread intensity distribution, * is convolution, It is.
  • equation (1) expresses that the optical image is obtained through a filter called the point spread intensity distribution.
  • Deterioration in the optical image means that the filter, that is, the point spread intensity distribution, has characteristics (hereinafter referred to as "deterioration characteristics") that cause deformation, decrease in sharpness, and decrease in brightness. It turns out that.
  • equation (1) is expressed by equation (2) below.
  • FI FO ⁇ OTF (2) here, FI is Fourier transform of optical image, FO is the Fourier transform of the sample, OTF is optical transfer function, It is.
  • OTF is a Fourier transform of a point spread intensity distribution. If the point spread intensity distribution has deterioration characteristics, the OTF also has deterioration characteristics.
  • formula (2) When formula (2) is transformed, formula (2) is expressed by the following formula (3).
  • FO FI/OTF (3)
  • FO can be determined. Then, O can be obtained by performing an inverse Fourier transform on FO. O is a specimen. This operation is called deconvolution.
  • the image PICxz shown in FIG. 18(c) is an optical image of a cell nucleus.
  • the image PICxz only the cell nucleus is imaged. Therefore, when deconvolution is performed using the image PICxz and the OTF image, only the image of the cell nucleus is obtained.
  • specimen OBJ Since specimen OBJ is a cell mass, it has multiple cytoplasms and multiple cell nuclei. However, in the image PICxz, even if deconvolution is performed, only an image of the cell nucleus can be obtained. Since an image of the cytoplasm cannot be obtained, it is difficult to say that the specimen OBJ has been obtained. The specimen is found by performing deconvolution, but whether or not the specimen is found depends on the optical image.
  • equation (1) represents that the optical image is an image obtained through a filter called point spread intensity distribution.
  • I can be regarded as an optical image whose image quality has deteriorated
  • O can be regarded as an optical image before its image quality has deteriorated.
  • equation (3) represents that an optical image before the image quality deteriorates is generated from an optical image whose image quality has deteriorated.
  • an optical image whose image quality has deteriorated will be referred to as a "degraded image.”
  • the image of the optical image before the image quality deteriorated has undergone image recovery in the image whose image quality has deteriorated. Therefore, the optical image before the image quality deteriorates is called a "recovered image.”
  • FIG. 18A the refractive index on the outside of sample OBJ is n1, and the refractive index on the inside of sample OBJ is n2.
  • the ideal shape is the shape of the point spread intensity distribution of the ideal optical system.
  • the refractive index between the focusing plane and the ideal optical system matches a predetermined refractive index.
  • first state a state where the specimen OBJ is kept away from the focusing plane FP. Since the optical system OS does not move, the upper surface of the specimen OBJ reaches the focal plane FP. In this state (hereinafter referred to as "first state"), only a space with a refractive index of n1 exists between the focusing plane FP and the optical system OS. When a point light source is placed on the focal plane FP, a point spread intensity distribution in the first state is obtained.
  • the refractive index between the focusing plane FP and the optical system OS is n1.
  • the predetermined refractive index is n1
  • the point spread intensity distribution in the first state is obtained based only on the predetermined refractive index. Therefore, the shape of the point spread intensity distribution in the first state is the same as the ideal shape.
  • the focusing plane FP When the specimen OBJ is further moved, the focusing plane FP reaches the inside of the specimen OBJ. In this state (hereinafter referred to as "second state"), a space with a refractive index of n1 and a space with a refractive index of n2 are located between the focusing plane FP and the optical system OS. When a point light source is placed on the focal plane FP, a point spread intensity distribution in the second state is obtained.
  • the refractive index between the focusing plane FP and the optical system OS is determined by n1 and n2. Since the predetermined refractive index is n1, n2 is not a predetermined refractive index. In this case, the point spread intensity distribution in the second state is obtained based on a predetermined refractive index and a non-predetermined refractive index. Therefore, the shape of the point spread intensity distribution in the second state is different from the ideal shape.
  • the shape of the point spread intensity distribution changes depending on the width of the space where the refractive index is n2. Therefore, in calculating the point spread intensity distribution, the refractive index distribution in the specimen OBJ must be appropriately considered.
  • Non-Patent Document 1 A technique for restoring images is disclosed in Non-Patent Document 1. This recovery technique uses optical images and point spread intensity distributions obtained from thick specimens. In calculating the point spread intensity distribution, the sample is divided into a plurality of blocks, and the refractive index of a row of blocks parallel to the optical axis is used.
  • a point light source is placed in one block and the wavefront emitted from the sample is determined.
  • the wavefront emitted from the point light source is a spherical wave. Therefore, the wavefront propagates through a row of blocks that are in contact with the block in which the point light source is arranged and parallel to the optical axis, and through blocks located around the row of blocks.
  • the point spread intensity distribution is calculated using only the refractive index of one row of blocks. In this case, the point spread intensity distribution is not accurately calculated. Therefore, it cannot be said that the image is restored with high accuracy.
  • the present invention has been made in view of such problems, and provides a specimen image generation device, a specimen image generation method, a specimen image generation system, and a recording medium that can recover images with high accuracy. With the goal.
  • a specimen image generation device includes the following: Equipped with memory and a processor,
  • the first image is an image obtained by photographing the specimen,
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system
  • the processor is Executing a first acquisition process to acquire a first image from the memory; Execute division processing to divide the acquired first image into multiple areas, Execute a second acquisition process to acquire the refractive index distribution of the specimen from the memory, Using the obtained refractive index distribution, a calculation process is executed to calculate the point spread intensity distribution for each divided area, Executing a first generation process of generating a second image corresponding to each area using the point spread intensity distribution calculated for each area, combining second images corresponding to each area to generate a third image corresponding to the first image; In the calculation process, Calculate the point spread intensity distribution of the first area using the refractive index distribution of each area
  • the specimen image generation system includes: an observation optical system that forms an optical image of the specimen; an image sensor that captures an optical image; It is characterized by having the above-mentioned specimen image generation device.
  • the specimen image generation system includes: Equipped with memory and a processor,
  • the first image is an image obtained by photographing the specimen,
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system
  • the processor is Executing a first acquisition process to acquire a first image from the memory; Execute division processing to divide the acquired first image into multiple areas, Execute a second acquisition process to acquire the refractive index distribution of the specimen from the memory, Using the obtained refractive index distribution, a calculation process is executed to calculate the point spread intensity distribution for each divided area, Executing a first generation process of generating a second image corresponding to each area using the point spread intensity distribution calculated for each area, combining second images corresponding to each area to generate a third image corresponding to the first image; In the calculation process, Calculate the point spread intensity distribution of the first area using the refractive index distribution of each area included in the area group,
  • the first area is the target area for calculating the point
  • a specimen image generation method includes: A specimen image generation method using a first image and a refractive index distribution of the specimen, the method comprising: The first image is an image obtained by photographing the specimen, The predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system, Executing a first acquisition process to acquire a first image from the memory; Execute division processing to divide the acquired first image into multiple areas, Execute a second acquisition process to acquire the refractive index distribution of the specimen from the memory, Using the obtained refractive index distribution, a calculation process is executed to calculate the point spread intensity distribution for each divided area, Executing a first generation process of generating a second image corresponding to each area using the point spread intensity distribution calculated for each area, combining second images corresponding to each area to generate a third image corresponding to the first image; In the calculation process, Calculate the point spread intensity distribution of the first area using the refractive index distribution of each area included in
  • a recording medium includes: A computer-readable recording medium recording a program for generating a specimen image,
  • the first image is an image obtained by photographing the specimen,
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system, to the computer, a first acquisition process of acquiring a first image from the memory;
  • a dividing process that divides the obtained first image into multiple areas;
  • a calculation process that calculates a point spread intensity distribution for each divided area using the obtained refractive index distribution;
  • a first generation process that generates a second image corresponding to each area using the point spread intensity distribution calculated for each area; performing a process of combining second images corresponding to each area and generating a third image corresponding to the first image;
  • Calculate the point spread intensity distribution of the first area using the refractive index distribution of each area included in the area group The first area
  • the present invention it is possible to provide a specimen image generation device, a specimen image generation method, a specimen image generation system, and a recording medium that can recover images with high accuracy.
  • FIG. 1 is a diagram showing a specimen image generation device, a microscope system, and an estimation system according to the present embodiment. It is a figure which shows the image of a specimen, an optical image, an optical image, and an XY image group. It is a flowchart of processing performed by a processor. It is a figure which shows a specimen, an optical image, and a 1st image. It is a figure which shows a 1st image, a refractive index image, a 1st area, and an area group. It is a diagram showing an area group. It is a figure which shows a 1st image, a refractive index image, and a PSF image.
  • FIG. 3 is a diagram showing wavefront propagation. It is a figure showing a refractive index image. It is a figure showing a refractive index image. It is a figure showing a refractive index image. It is a figure showing a refractive index image. It is a flowchart of calculation processing.
  • FIG. 3 is a diagram showing a predetermined intensity distribution and pinhole transmission characteristics.
  • FIG. 3 is a diagram showing training processing.
  • FIG. 1 is a diagram showing a specimen image generation system according to the present embodiment. It is a figure which shows the state of imaging, an optical image, and an image of an optical image.
  • the specimen image generation device of this embodiment uses an optical image of the specimen.
  • An optical image of the specimen can be obtained by forming an optical image of the specimen with an observation optical system and photographing the optical image of the specimen with an image sensor.
  • the optical image of the specimen can be represented as an XY image, an XZ image, and a YZ image. Further, since the optical image of the specimen is acquired through the observation optical system, the optical image of the specimen is a degraded image.
  • the optical axis of the observation optical system is the Z-axis
  • the axis perpendicular to the Z-axis is the X-axis
  • the axis perpendicular to both the Z-axis and the X-axis is the Y-axis.
  • the XY cross section is a plane including the X axis and the Y axis.
  • the XY image is an image in the XY cross section.
  • the XZ cross section is a plane including the X axis and the Z axis.
  • the XZ image is an image in the XZ cross section.
  • the YZ cross section is a plane including the Y axis and the Z axis.
  • the YZ image is an image in the YZ cross section.
  • the specimen image generation device of this embodiment includes a memory and a processor, and the processor executes a first acquisition process of acquiring a first image from the memory, and divides the acquired first image into a plurality of areas.
  • a second acquisition process is executed to acquire the refractive index distribution of the specimen from the memory, and a calculation process is performed to calculate the point spread intensity distribution for each divided area using the acquired refractive index distribution.
  • the first generation process is executed to generate a second image corresponding to each area using the point spread intensity distribution calculated for each area, and the second image corresponding to each area is synthesized to generate the first image.
  • a third image corresponding to is generated.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first image is an image obtained by photographing the specimen, and the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system.
  • the first area is the target area for calculating the point spread intensity distribution, and the area group is composed of a plurality of areas inside the range in which the light rays radiate in a predetermined direction, starting from the first area, and includes areas outside the extended range of the first area.
  • FIG. 1 is a diagram showing a specimen image generation device, a microscope system, and an estimation system according to the present embodiment.
  • FIG. 1(a) is a diagram showing a specimen image generation device of this embodiment.
  • FIG. 1(b) is a diagram showing the microscope system.
  • FIG. 1(c) is a diagram showing the estimation system.
  • the specimen image generation device 1 includes a memory 2 and a processor 3.
  • the memory 2 stores the first image and the refractive index distribution of the specimen.
  • the first image is an image obtained by photographing the specimen.
  • the first image can be generated from, for example, a plurality of XY images (hereinafter referred to as "XY image group").
  • XY image group a plurality of XY images
  • Each XY image in the XY image group is an optical image of the specimen.
  • the image of the optical image of the specimen is a degraded image. Therefore, the first image is also a degraded image.
  • the processor 3 performs processing to generate a specimen image. This process uses the first image and the refractive index distribution of the specimen. Since the first image is a degraded image, the sample image is a restored image. Therefore, the processor 3 performs processing to generate a sample image from the degraded image.
  • the specimen image generation device 1 In order to generate the first image with the specimen image generation device 1, it is necessary to input the XY image group to the specimen image generation device 1. Input of the XY image group to the specimen image generation device 1 is performed via the input section 4.
  • the XY image can be acquired with a microscope system, for example.
  • the microscope system 10 includes a microscope 20 and a processing device 30.
  • the microscope 20 includes a main body 21 , an objective lens 22 , a stage 23 , an epi-illumination device 24 , an imaging unit 25 , and a controller 26 .
  • the processing device 30 includes an input section 31, a memory 32, a processor 33, and an output section 34.
  • a specimen 27 is placed on the stage 23.
  • an optical image of the specimen 27 is formed on the image plane of the observation optical system.
  • the objective lens 22 the imaging lens, and the lens of the imaging unit 25 form an observation optical system.
  • the objective lens 22 and the imaging lens form an observation optical system.
  • the imaging unit 25 has an imaging element. An image of the optical image is obtained by photographing the optical image formed on the image plane with an image sensor.
  • the optical image formed on the image plane is an optical image of the XY cross section of the specimen 27. Therefore, the optical image is an XY image.
  • the objective lens 22 and the stage 23 can be relatively moved along the optical axis of the observation optical system.
  • the movement of the objective lens 22 or the movement of the stage 23 can be performed by the controller 26.
  • Specimen 27 is a thick specimen. Therefore, by relatively moving the objective lens 22 and the stage 23, XY images can be acquired for a plurality of cross sections. The XY image group will be explained.
  • FIG. 2 is a diagram showing a specimen, an optical image, an image of the optical image, and an XY image group.
  • FIG. 2(a) is a diagram showing a specimen.
  • FIG. 2(b), FIG. 2(c), and FIG. 2(d) are diagrams showing an optical image and an image of the optical image.
  • FIG. 2(e) is a diagram showing an XY image group.
  • the specimen 50 is a three-dimensional object, it can be represented by multiple block layers.
  • the specimen 50 is divided into seven block layers in the Z-axis direction.
  • the number of block layers is not limited to seven.
  • Sample OZ1 represents the block layer at one end
  • sample OZ7 represents the block layer at the other end.
  • Each block layer represents an XY cross section of the specimen 50.
  • the block layers from specimen OZ1 to specimen OZ7 are sequentially positioned on the focusing plane of the observation optical system 51.
  • the optical image is a plane
  • the optical image is represented by a block layer for ease of viewing.
  • the image of the optical image is also represented by a block layer.
  • the specimen 50 and the observation optical system 51 are relatively moved along the optical axis 52.
  • the specimen 50 is not moved, but the observation optical system 51 is relatively moved along the optical axis 52.
  • an optical image IZ1 is formed.
  • an optical image PZ1 is obtained.
  • an optical image IZ4 is formed.
  • an optical image PZ4 is obtained.
  • an optical image IZ7 is formed.
  • an optical image PZ7 is obtained.
  • Image PZ1, image PZ4, and image PZ7 are XY images. Two block layers are located between image PZ1 and image PZ4. Further, two block layers are also located between the image PZ4 and the image PZ7. Assuming that the images of these block layers are respectively image PZ2, image PZ3, image PZ5, and image PZ6, image PZ2, image PZ3, image PZ5, and image PZ6 are also XY images.
  • FIG. 2(e) shows a three-dimensional XY image group 53.
  • the XY image group 53 has brightness information in each of the X-axis direction, Y-axis direction, and Z-axis direction. Therefore, an XY image, an XZ image, and a YZ image can be generated from the XY image group 53.
  • the first image is generated from the XY image group. Therefore, any of the XY image, XZ image, and YZ image can be used as the first image.
  • a plurality of objective lenses can be attached to the revolver.
  • the magnification of the objective lens can be changed.
  • Rotation of the revolver can be performed using the controller 26.
  • the XY image is output from the imaging unit 25 and input to the processing device 30.
  • Optical information, movement information, and microscope information (hereinafter referred to as “various information”) are output from the controller 26 and input to the processing device 30.
  • the optical information is, for example, information on the magnification of the objective lens and information on the numerical aperture of the objective lens.
  • the movement information is, for example, information on the amount of movement of the stage per time and information on the number of times the stage is moved, or information on the amount of movement of the objective lens per time and information on the number of times the objective lens is moved.
  • the microscope information is information about the microscope used to acquire the XY image.
  • Types of microscopes that can be used to obtain XY images include, for example, fluorescence microscopes, laser scanning microscopes (hereinafter referred to as "LSM”), two-photon microscopes, sheet illumination microscopes, and luminescence microscopes.
  • the XY image and various information are input to the input unit 31, they are stored in the memory 32.
  • An XY image group is obtained from the plurality of XY images.
  • the XY image group and various information are output from the output unit 34. Therefore, the XY image group and various information can be input to the specimen image generation device 1.
  • the XY image group and various information are stored in the memory 2.
  • the association between the XY image group and various information may be performed by either the processing device 30 or the specimen image generation device 1.
  • the input of the XY image group and various information can be done by wire or wirelessly. Further, the processing device 30 may record the XY image group and various information on a recording medium. In this case, the XY image group and various information are input to the specimen image generation device 1 via a recording medium.
  • the processing performed by the processor 3 uses the first image and the refractive index distribution of the specimen.
  • the XY image group required to generate the first image can be generated by the microscope system 20.
  • the refractive index distribution of the sample can be generated by, for example, an estimation device.
  • the estimation device 40 includes an input section 41, a memory 42, a processor 43, and an output section 44.
  • the estimation device 40 estimates the refractive index distribution of the sample by estimation using computational imaging or deep learning.
  • Estimation of refractive distribution using computational imaging will be explained.
  • an optical image of the specimen and an optical image of the estimated specimen are used.
  • the optical image of the estimated specimen can be obtained by simulation using a virtual optical system. Since the sample is a three-dimensional object, the estimated sample is also a three-dimensional object.
  • the optical image of the estimated specimen is represented by a plurality of estimated XY images (hereinafter referred to as "estimated XY image group").
  • the refractive index distribution can be represented as an image.
  • the refractive index distribution of the specimen can be represented by a plurality of distribution images (hereinafter referred to as "distribution image group”).
  • the refractive index distribution of the estimated sample can be represented by a plurality of estimated distribution images (hereinafter referred to as “estimated distribution image group”).
  • the distribution image and the estimated distribution image are images of the refractive index distribution in the XY cross section, similar to the XY image.
  • the optical image of the specimen is used in the estimation. Therefore, in the estimation device 40, the XY image group and various information are inputted via the input unit 41. The XY image group and various information are stored in the memory 42.
  • the processor 43 estimates the estimated distribution image group by computational imaging. In the estimation, a comparison is made between the XY image group and the estimated XY image group. Specifically, the refractive index value in the estimated distribution image group is changed so that the difference between the XY image group and the estimated XY image group becomes smaller.
  • the difference between two images can be expressed numerically. Therefore, the comparison of the two images and the change of the refractive index value are repeated until this value becomes smaller than the threshold value. Then, the estimated distribution image group when this numerical value becomes smaller than the threshold value is defined as the distribution image group.
  • the distribution image group represents the refractive index distribution of the specimen. Therefore, the refractive index distribution of the sample is determined.
  • the distribution image group is output from the output unit 44.
  • the distribution image group can be input to the sample image generation device 1 from the estimation device 40 by wire or wirelessly.
  • the estimation device 40 may record the distribution image group on a recording medium and input it to the specimen image generation device 1 via the recording medium.
  • the distribution image group represents the refractive index distribution of the specimen. Therefore, the refractive index distribution of the specimen can be input to the specimen image generation device 1.
  • the distribution image group is stored in the memory 2.
  • processing to generate a specimen image is performed.
  • Processing to generate a sample image is performed by the processor 3.
  • the processing performed by the processor 3 will be explained.
  • FIG. 3 is a flowchart of the processing performed by the processor.
  • FIG. 4 is a diagram showing a specimen, an optical image, and a first image.
  • FIG. 4(a) is a diagram showing a specimen and an optical image three-dimensionally.
  • FIG. 4(b) is a diagram showing an XZ cross section of the specimen.
  • FIG. 4(c) is a diagram showing the first image.
  • FIG. 4(d) is a diagram showing the XZ cross section of the specimen and the first image.
  • Components that are the same as those in FIG. 2(a) are given the same numbers, and explanations thereof will be omitted.
  • the first image is generated from the XY image group.
  • the XY image group is obtained from multiple optical images. As shown in FIG. 4A, when the observation optical system 51 is moved along the optical axis 52 without moving the specimen 50, a plurality of optical images are formed.
  • an optical image IZ1 of the specimen OZ1 is formed.
  • an optical image IZ7 of specimen OZ7 is formed.
  • An optical image 60 is formed by optical images from optical image IZ1 to optical image IZ7. By photographing the optical image 60, an XY image group can be obtained.
  • An XY image, an XZ image, and a YZ image can be generated from the XY image group. Any of the XY image, XZ image, and YZ image can be used as the first image. Assume that an XZ image is stored in memory as the first image.
  • step S10 a first acquisition process is executed.
  • a first image is acquired from memory.
  • the first image is an optical image in the XZ cross section of the specimen.
  • FIG. 4(b) shows an XZ cross section of the specimen 70.
  • Specimen 70 is a cell mass.
  • a cell cluster is formed of multiple cells.
  • Each cell in the specimen 70 has a cytoplasm 71 and a cell nucleus 72.
  • FIG. 4(c) shows the first image acquired from the memory.
  • the first image 80 is a fluorescent image.
  • the specimen 70 only the cell nucleus 72 is stained with fluorescence. In this case, only an optical image of the cell nucleus 72 is formed. Therefore, the first image 80 includes only the image 81 of the cell nucleus.
  • step S10 Since the first image 80 is an optical image, the first image 80 is a degraded image. If the shape of a cell nucleus is a circle, the shape of the cell nucleus image 81 is an ellipse. Upon completion of step S10, step S20 is executed.
  • step S20 division processing is performed.
  • the acquired first image is divided into a plurality of areas.
  • the first image 80 is divided into 11 areas in both the X-axis direction and the Z-axis direction.
  • observation optical system and light rays are illustrated for convenience in order to show the correspondence between the specimen 70 and the first image 80.
  • the observation optical system 51' is a virtual optical system and has the same optical specifications as the observation optical system 51.
  • the top and bottom of the optical image of the specimen are opposite to the top and bottom of the specimen. Since the first image 80 is an image, it can be turned upside down when the first image 80 is generated. Therefore, in FIG. 4(d), the top and bottom of the specimen 70 and the top and bottom of the first image 80 match.
  • step S30 is executed.
  • step S30 a second acquisition process is executed.
  • the refractive index distribution of the specimen is acquired from the memory. Acquisition of the refractive index distribution will be described later.
  • step S40 is executed.
  • step S40 calculation processing is executed.
  • a point spread intensity distribution is calculated for each of the divided areas using the obtained refractive index distribution.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group. Therefore, it is necessary to determine the first area and area group.
  • FIG. 5 is a diagram showing the first image, refractive index image, first area, and area group.
  • FIG. 5(a) is a diagram showing a first image, a refractive index image, and a first area.
  • FIG. 5(b) is a diagram showing a first example of the area group.
  • FIG. 5(c) is a diagram showing a second example of the area group.
  • the first area is the target area for calculating the point spread intensity distribution.
  • the first image 80 is divided into a plurality of areas. Therefore, the first area and area group are determined by the areas in the first image 80.
  • the first image 80 is an optical image of the specimen.
  • the image of the optical image of the specimen has information on brightness, but does not have information on refractive index distribution. Since the point spread intensity distribution is calculated using the refractive index distribution of the area group, the first image 80 is not suitable for calculating the point spread intensity distribution. In the first image 80, the first area can be determined, but the area group cannot be determined.
  • the distribution image group represents the refractive index distribution of the specimen. Therefore, an image corresponding to the first image (hereinafter referred to as a "refractive index image”) is obtained from the distribution image group.
  • the point spread intensity distribution is calculated using the refractive index distribution. Since the refractive index image is an image of the refractive index distribution, the refractive index image is suitable for calculating the point spread intensity distribution.
  • the refractive index image may be stored in the memory 2, and the refractive index image may be read from the memory 2 when executing the calculation process. Since the first image is an XZ image, the refractive index image is an image of the XZ cross section.
  • the first image 80 is divided into multiple areas. Therefore, as shown in FIG. 5(a), the refractive index image 90 is also divided into a plurality of areas.
  • the refractive index image 90 is divided into 11 areas in both the X-axis direction and the Z-axis direction. For ease of viewing, only cell nuclei are illustrated in refractive index image 90.
  • the top and bottom of the refractive index image 90 and the top and bottom of the first image 80 match. Furthermore, in order to show the correspondence between the refractive index image 90 and the first image 80, the observation optical system 51' and light rays are illustrated for convenience.
  • the area corresponding to the area 82 is the area 91.
  • the area corresponding to area 83 is area 92.
  • the area corresponding to area 84 is area 93.
  • the refractive index image 90 is suitable for calculating a point spread intensity distribution. Therefore, the first area and area group are determined using the refractive index image 90.
  • FIG. 5B shows an area 91, an observation optical system 51', a light beam 100, and an optical axis 101 of the observation optical system. Since no rays are emitted from the image, ray 100 is a virtual ray.
  • the first area in the first image 80 is the area 82.
  • the area corresponding to area 82 is area 91 in refractive index image 90. Therefore, in the refractive index image 90, the area 91 is the first area.
  • the area group and predetermined direction are defined as follows.
  • the area group is composed of a plurality of areas that are inside a range from which light rays are emitted in a predetermined direction, starting from the first area, and includes areas that are outside the range that is an extension of the first area in a predetermined direction.
  • the predetermined direction in the first image is the direction in which the observation optical system exists among the optical axis directions of the virtual observation optical system.
  • the first area and area group are determined using the refractive index image 90. Therefore, in the above regulations, the first image is replaced with a refractive index image.
  • the area group and predetermined direction are defined as follows.
  • the area group consists of a plurality of areas that are inside the range in which light rays radiate in a predetermined direction, starting from the first area, and areas that are outside the range that is an extension of the first area in the predetermined direction.
  • the predetermined direction of the refractive index image is the direction in which the virtual observation optical system exists among the optical axis directions of the observation optical system.
  • the side closest to the observation optical system 51' is the top side of the specimen, and the side far from the observation optical system 51' is the bottom side of the specimen.
  • Area 91 is located at a location intersecting optical axis 101 on upper surface 90a.
  • a light beam 100 is emitted from the area 91.
  • a light beam 100 emitted from the area 91 enters the observation optical system 51'.
  • the light ray 100 is light that enters the observation optical system 51'.
  • the light incident on the observation optical system 51' is determined by the object-side numerical aperture of the observation optical system 51'.
  • optical information is stored in the memory 2.
  • the optical information includes information on the numerical aperture of the objective lens.
  • the numerical aperture of the objective lens can be considered as the object-side numerical aperture of the observation optical system 51'. Therefore, the light ray 100 can be specified from the numerical aperture of the objective lens.
  • a predetermined direction 102 and a predetermined outward direction 103 are illustrated.
  • the predetermined direction 102 and the predetermined outer direction 103 are the optical axis directions of the observation optical system 51'.
  • the observation optical system 51' is located in a predetermined direction 102, but the observation optical system 51' is not located in a predetermined outer direction 103.
  • the two light rays 100 are rays of synchrotron radiation emitted from the area 91.
  • the area of the refractive index image 90 is not located inside the range between the two light rays 100. Therefore, at the location of area 91, the number of areas in the area group is zero.
  • FIG. 5C shows an area 93, a center area 94, a peripheral area 95, and a peripheral area 96. Components that are the same as those in FIG. 5(b) are given the same numbers, and their explanations will be omitted.
  • the first area in the first image 80 is area 84.
  • the area corresponding to area 84 is area 93 in refractive index image 90. Therefore, in the refractive index image 90, the area 93 is the first area.
  • the area 93 is located at a location intersecting the optical axis 101 on the bottom surface 90b.
  • a light beam 100 and a light beam 104 are emitted from the area 93.
  • Light rays 100 and 104 emitted from area 93 enter observation optical system 51'.
  • the light ray 104 is a virtual light ray.
  • the two light rays 100 and the two light rays 104 are light rays emitted from the area 93. If the scattering of light in the specimen is very small, the light rays emitted from area 93 are represented by two rays 100. A center area 94 and a peripheral area 95 are located inside the range sandwiched between the two light rays 100. A center area 94 and a peripheral area 95 form an area group. Areas intersected by ray 100 are considered to be included in the area group.
  • the central area 94 and the peripheral area 95 each consist of a plurality of areas. Therefore, the area group is composed of a plurality of areas.
  • the center area 94 is located in a range that extends the area 93 toward the predetermined direction 102.
  • the peripheral area 95 is located outside the central area 94.
  • the light rays emitted from the area 93 are represented by two rays 104.
  • a central area 94, a peripheral area 95, and a peripheral area 96 are located inside the range sandwiched between the two light rays 104. Therefore, area 94, surrounding area 95, and surrounding area 96 form an area group. Areas intersected by the light ray 104 are considered to be included in the area group.
  • the central area 94, the peripheral area 95, and the peripheral area 96 are each composed of a plurality of areas. Therefore, the area group is composed of a plurality of areas.
  • FIG. 6 is a diagram showing the area group.
  • FIG. 6(a) is a diagram showing a third example of the area group.
  • FIG. 6(b) is a diagram showing a fourth example of the area group.
  • area 97 is the first area. Area 97 is located at a location intersecting optical axis 101 between the top and bottom surfaces.
  • the light rays emitted from area 97 are represented by two rays 100.
  • a center area 94 and a peripheral area 95 are located inside the range sandwiched between the two light rays 100.
  • a center area 94 and a peripheral area 95 form an area group. Comparing the third example and the second example, the third example has fewer areas in the area group.
  • the light rays emitted from the area 97 are represented by two light rays 104.
  • a central area 94, a peripheral area 95, and a peripheral area 96 are located inside the range sandwiched between the two light rays 104.
  • a center area 94, a peripheral area 95, and a peripheral area 96 form an area group.
  • area 98 is the first area. Area 98 is located away from optical axis 101 on the bottom surface.
  • the light rays emitted from area 98 are represented by two rays 100.
  • a center area 94 and a peripheral area 95 are located inside the range sandwiched between the two light rays 100.
  • a center area 94 and a peripheral area 95 form an area group. Comparing the fourth example and the second example, the fourth example has fewer areas in the area group.
  • the light rays emitted from area 98 are represented by two rays 104.
  • a central area 94, a peripheral area 95, and a peripheral area 96 are located inside the range sandwiched between the two light rays 104.
  • a center area 94, a peripheral area 95, and a peripheral area 96 form an area group.
  • the number of areas in the area group is zero. Therefore, the refractive index distribution of each area included in the area group is not used in the calculation process.
  • the point spread intensity distribution is calculated using the refractive index of the space between the refractive index image 90 and the observation optical system 51'. Calculations when the number of areas in the area group is zero are also included in the calculations in the calculation process.
  • the point spread intensity distribution may be calculated by regarding all areas located closer to the predetermined direction 102 than the first area as an area group.
  • the first area is the target area for calculating the point spread intensity distribution. Therefore, by changing the target area of the first area, the point spread intensity distribution can be calculated for each of the divided areas.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first area in the first image 80 is the area 84 in the second example.
  • area 93 corresponds to area 84.
  • the area group is composed of a central area 94 and a peripheral area 95, or a central area 94, a peripheral area 95, and a peripheral area 96.
  • the point spread intensity distribution of the area 93 is calculated using the refractive index distribution of each area that makes up the central area 94 and the refractive index distribution of each area that makes up the peripheral area 95, or the central area 94 is configured.
  • the point spread intensity distribution of the area 93 is calculated using the refractive index distribution of each area forming the surrounding area 95, the refractive index distribution of each area forming the surrounding area 96, and the refractive index distribution of each area forming the surrounding area 96.
  • the point spread intensity distribution of the area 93 may be treated as the point spread intensity distribution of the area 84 in the first image 80.
  • the area 84 is the first area in the first image 80.
  • Each area of the first image 80 already has information about the brightness of the optical image of the specimen. Therefore, apart from the first image 80, an image having a point spread intensity distribution (hereinafter referred to as a "PSF image”) is generated.
  • PSF image point spread intensity distribution
  • FIG. 7 is a diagram showing the first image, refractive index image, and PSF image.
  • FIG. 7(a) is a diagram showing the first image and the refractive index image.
  • FIG. 7(b) is a diagram showing a refractive index image and a PSF image. Since FIG. 7(a) is the same diagram as FIG. 5(a), explanation thereof will be omitted.
  • the first image 80 is divided into multiple areas. Therefore, as shown in FIG. 7(b), the PSF image 110 is also divided into a plurality of areas.
  • the PSF image 110 is divided into 11 areas in both the X-axis direction and the Z-axis direction.
  • each area of the PSF image 110 has a point spread intensity distribution of the area corresponding to the first area of the first image 80.
  • the point spread intensity distribution is illustrated only in a part of the area.
  • step S50 is executed.
  • step S50 a first generation process is executed.
  • a second image corresponding to each area is generated using the point spread intensity distribution calculated for each area.
  • FIG. 8 is a diagram showing the first image, the second image, and the third image.
  • FIG. 8(a) is a diagram showing the first image and the second image.
  • FIG. 8(b) is a diagram showing the first image and the third image.
  • FIG. 8(a) shows a partial area of the first image, a partial area of the PSF image, and a second image group.
  • Area DEG is a part of the first image 80. Area DEG is formed of area DEG1, area DEG2, area DEG3, area DEG4, area DEG5, and area DEG6.
  • Area PSF is a part of the PSF image 110 and corresponds to area DEG.
  • Area PSF is formed of area PSF1, area PSF2, area PSF3, area PSF4, area PSF5, and area PSF6.
  • the second image group REC is images of areas corresponding to area DEG and area PSF.
  • the second image group REC is formed of a second image REC1, a second image REC2, a second image REC3, a second image REC4, a second image REC5, and a second image REC6.
  • the image in area DEG1 is the first image.
  • the image of area PSF1 is a point spread intensity distribution.
  • a second image REC1 is generated from the image of area DEG1 and the image of area PSF1.
  • step S50 ends, step S60 is executed.
  • mask processing for example, there is processing to blur the periphery of an image.
  • step S60 a third image is generated.
  • the third image is an image corresponding to the first image.
  • second images corresponding to each area are combined.
  • a first image 80 and a third image 120 are shown in FIG. 8(b).
  • the third image 120 is generated by combining the second images.
  • the second image is generated based on the first image 80
  • the third image is generated based on the second image. Therefore, the third image 120 is an image corresponding to the first image 80.
  • the shape of the cell nucleus is an ellipse.
  • the shape of the cell nucleus is a circle. Therefore, the specimen image generation device 1 can generate a recovered image with high image quality from a degraded image.
  • the influence from one of the second images may be halved at the boundary between the two images.
  • FIG. 9 is a diagram showing the first image and the third image.
  • FIG. 9(a) is a diagram showing the first image.
  • FIG. 9(b) is a diagram showing the third image.
  • the right end of the image represents the image of the top surface of the specimen
  • the left end of the image represents the image of the bottom surface of the specimen.
  • the image quality is higher in the third image than in the first image over the entire range from the top to the bottom of the specimen.
  • the specimen image generation device of this embodiment can recover images with high accuracy.
  • the processor sets a point light source in the first area, and uses the first wavefront having the set point light source as a wave source to calculate the point image intensity of the first area.
  • a distribution is calculated.
  • the area group is determined by the range of light emitted in a predetermined direction starting from the first area.
  • the light emitted from the first area passes through the area group and enters the observation optical system. Then, a point spread intensity distribution is obtained by the light emitted from the observation optical system.
  • the light emitted from the first area can be obtained by setting a point light source in the first area.
  • a wavefront whose wave source is the point light source is emitted from the point light source. If this wavefront is set as the first wavefront, the point spread intensity distribution in the first area can be calculated using the first wavefront.
  • the processor calculates the second wavefront using the first wavefront and the refractive index distribution corresponding to each area included in the area group, and It is preferable that the intensity distribution corresponding to the third wavefront is calculated using the wavefront, and the point spread intensity distribution of the first area is calculated using the calculated intensity distribution.
  • the second wavefront is a wavefront that has propagated through the sample in a predetermined direction
  • the third wavefront is a wavefront at the position of the focusing plane of the virtual observation optical system.
  • FIG. 10 is a diagram showing wavefront propagation. Components that are the same as those in FIG. 5(c) are given the same numbers, and descriptions thereof will be omitted.
  • a refractive index distribution is used to calculate the point spread intensity distribution. Therefore, the description will be made using the refractive index image 90.
  • area 93 corresponds to the first area. Therefore, the area 93 is located at the focal plane FP. Further, a point light source 130 is set in the area 93.
  • a first wavefront WF1 is emitted from the point light source 130.
  • the first wavefront WF1 propagates from the area 93 toward the upper surface 131 of the refractive index image 90.
  • Top surface 131 is the outer edge of the specimen.
  • An observation optical system 132 is located on the upper surface 131 side. Therefore, the first wavefront WF1 propagates in a predetermined direction.
  • the observation optical system 132 is a virtual optical system, and is formed by, for example, an objective lens 133 and an imaging lens 134.
  • the optical specifications of the observation optical system 132 are the same as those of the observation optical system 51.
  • Optical specifications, such as magnification and numerical aperture, can be obtained based on various information.
  • the first wavefront WF1 propagates through the area group and reaches the upper surface 131.
  • a second wavefront WF2 is emitted from the upper surface 131.
  • the second wavefront WF2 is a wavefront after propagating through the area group.
  • the area group is formed by a central area 94 and a peripheral area 95. Therefore, the second wavefront WF2 can be calculated using the refractive index distribution of each area included in the area group.
  • the focusing plane FP and the image plane IP are conjugate.
  • a wavefront at the focal plane FP is required.
  • the second wavefront WF2 is located on the upper surface 131.
  • a third wavefront WF3 can be obtained as a wavefront at the focal plane FP.
  • the imaging optical system 132 forms a Fourier optical system.
  • the point spread intensity distribution 135 corresponding to the imaging plane of the third wavefront WF3 can be calculated using the pupil function of the imaging optical system 132.
  • the calculation formula is shown below. In the calculation formula, WF3 represents the third wavefront, P represents the pupil function of the imaging optical system 132, U 135 represents the wavefront on the image plane, and I 135 represents the intensity distribution on the image plane.
  • the size of the area groups differs between FIG. 10 and FIG. 5(c).
  • the range of the surrounding area 95 in FIG. 10 is wider than the sum of the surrounding area 95 and the surrounding area 96 in FIG. 5(c).
  • the point spread intensity distribution is calculated by considering all areas located on the side in a predetermined direction from the first area as an area group.
  • the point spread intensity distribution 135 it is preferable to use all the refractive index distributions of all the areas that make up the area group.
  • area 93 is the first area
  • the refractive index distributions of all areas located between area 93 and upper surface 131 are used.
  • the point spread intensity distribution can be calculated more accurately.
  • the processor determines whether the wavefront propagating through the specimen has reached the outer edge of the specimen in a predetermined direction in the calculation process.
  • the second wavefront is a wavefront at a position where it is determined that the outer edge has been reached.
  • the first wavefront WF1 propagates from the area 93 to the upper surface 131. Therefore, it is necessary to determine whether the first wavefront WF1 has reached the upper surface 131 in a predetermined direction.
  • the second wavefront WF2 is located on the upper surface 131. Therefore, the second wavefront WF2 is the wavefront at the position where it is determined that the upper surface 131 has been reached.
  • the second wavefront is preferably a wavefront after passing through the specimen and before reaching the virtual observation optical system.
  • the third wavefront WF3 passes through the observation optical system 132. If the second wavefront WF2 is a wavefront after passing through the observation optical system 122, the point spread intensity distribution 135 cannot be calculated accurately. Therefore, the second wavefront WF2 must be a wavefront emitted from the upper surface 131 and a wavefront before reaching the observation optical system 132.
  • the processor acquires the refractive index distribution for each small area obtained by further dividing the divided area in the second acquisition process. Further, in the calculation process, the processor uses the refractive index distribution of the small area to calculate the point spread intensity distribution of the small area, and uses the point spread intensity distribution of the small area to calculate the point spread intensity distribution of the area. It is preferable.
  • FIG. 11 is a diagram showing a refractive index image.
  • FIG. 11(a) is a diagram showing the entire refractive index image.
  • FIG. 11(b) is a diagram showing a part of the refractive index image.
  • a detailed refractive index distribution may be used. The larger the number of areas or the smaller the area of the areas, the more detailed the refractive index distribution can be obtained.
  • the refractive index image 90 when the area 140 is the first area, the area 141 is included in the area group.
  • the area 141 is formed of one region. Therefore, the area 141 is divided into a plurality of regions. For example, as shown in FIG. 11(b), the area 141 is divided into 16 small areas 142. In this case, since a refractive index distribution is obtained for each small area 142, a detailed refractive index distribution can be obtained. As a result, the point spread intensity distribution can be calculated accurately.
  • the refractive index distribution of each small area 142 can be used. Furthermore, the average refractive index distribution can be determined from the refractive index distribution of each small area 142. Therefore, in calculation of wavefront propagation, the average refractive index distribution can be used as the refractive index distribution of the area 141.
  • the refractive index distribution is obtained for each small area, it is possible to calculate the point spread intensity distribution for each small area. Therefore, the point spread intensity distribution of the area 141 can be calculated using the point spread intensity distribution of the small area 142.
  • the processor executes a temporary calculation process to temporarily calculate a point spread intensity distribution for each area divided by the division process, and the intensity peak value of the temporarily calculated point spread intensity distribution is set to a reference value. It is preferable to perform a division process in which an area where the intensity peak value of the tentatively calculated point spread intensity distribution is set to be smaller than an area where the intensity peak value of the provisionally calculated point spread intensity distribution is less than 1/5 of the reference value is set to be smaller than an area where the area is less than 1/5 of the reference value.
  • the reference is the intensity peak value of the point spread intensity distribution when no sample is present.
  • FIG. 12 is a diagram showing a refractive index image.
  • FIG. 12(a) is a diagram showing the initial division state.
  • FIG. 12(b) is a diagram showing the state of the second division.
  • the point spread intensity distribution is calculated using the refractive index distribution. Therefore, the shape of the point spread intensity distribution differs depending on the distribution state of the refractive index. As shown in FIG. 12A, when the area 150 is the first area, one row of areas is located closer to the upper surface 151 than the area 150. Therefore, in calculating the point spread intensity distribution, the refractive index distribution of one row of areas is taken into consideration.
  • the detail of the refractive index distribution is influenced by the number of areas or the area of the areas. When the number of areas is small or the area of the area is large, the difference between the shape of the point spread intensity distribution and the ideal shape increases as the spread of the refractive index distribution increases. In the area selected as the first area, there may be a large difference between the shape of the point spread intensity distribution and the ideal shape. In this case, it is preferable to calculate the point spread intensity distribution in the selected area based on the detailed refractive index distribution.
  • a temporary calculation process is performed.
  • a point spread intensity distribution is provisionally calculated for each area divided in the division process.
  • the area is divided into a target area 153 and a non-target area 154, as shown in FIG. 12(a).
  • the target area 153 is an area where the intensity peak value is less than 1/5 of the reference.
  • the non-target area 154 is an area that is 1/5 or more of the intensity peak value reference.
  • the reference is the intensity peak value of the point spread intensity distribution when no sample is present.
  • each area of the target area 153 is divided into a plurality of areas. As a result, the size of each area in the target area 153 can be set smaller than the size of each area in the non-target area 154. In FIG. 12(b), each area of the target area 153 is divided into four areas.
  • the processor executes an estimation process to estimate the sample, and in the division process, the area of the estimated sample is the area of the estimated sample in a direction orthogonal to a predetermined direction, and the outer edge of the estimated sample is It is preferable to set the size of the area to which the sample belongs to be smaller than the size of the area that is not the area of the estimated sample and to which the outer edge of the estimated sample does not belong.
  • the specimen image generation device of this embodiment can generate an XY image, an XZ image, and a YZ image from a group of XY images. Therefore, an XY image, an XZ image, and a YZ image can be used as the first image.
  • the XY image is an image in a plane orthogonal to a predetermined direction.
  • a detailed refractive index distribution can be obtained by increasing the number of areas or decreasing the area of the areas. By dividing one area, the number of areas can be increased. To increase the number of areas, for example, only the area representing the sample may be set as the area to be divided. In this case, the area to be divided can be extracted using the outer edge.
  • FIG. 13 is a diagram showing a refractive index image.
  • FIG. 13(a) is a diagram showing the division of areas in the first example.
  • FIG. 13(b) is a diagram showing area division in the second example.
  • the refractive index image 160 has an inner area 161, an outer area 162, and an outer edge area 163.
  • the internal area 161 is an area located inside the outer edge 164.
  • the outer edge 164 does not belong to the inner area 161 .
  • Internal area 161 represents the specimen.
  • External area 162 is an area located outside outer edge 164.
  • the outer edge 164 does not belong to the outer area 162 .
  • External area 162 does not represent a specimen.
  • the outer edge area 163 is an area to which the outer edge 164 of the specimen belongs.
  • each area of the internal area 161 is divided into a plurality of areas, as shown in FIG. 13(a).
  • Each area of the external area 162 and each area of the outer edge area 163 is not divided into a plurality of areas.
  • each area of the inner area 161 and each area of the outer edge area 163 is divided into a plurality of areas, as shown in FIG. 13(b).
  • Each area of the external area 162 is not divided into multiple areas.
  • each area of the internal area 161 is divided, but each area of the external area 162 is not divided.
  • the size of each area of the internal area 161 is set smaller than the size of the external area 162.
  • the internal area 161 is an area representing the specimen and to which the outer edge 164 does not belong.
  • the external area 162 is an area that does not represent a specimen and to which the outer edge 164 does not belong.
  • the size of the area that represents the specimen and to which the outer edge does not belong is set smaller than the size of the area that does not represent the specimen and to which the outer edge does not belong. has been done.
  • each area of the outer edge area 163 is not divided into multiple areas.
  • each area of the outer edge area 163 is divided into a plurality of areas.
  • the size of each area of the outer edge area 163 is larger than the size of each area of the inner area 161 and the same as the size of the outer area 162.
  • the size of each area in the outer edge area 163 is the same as the size of each area in the inner area 161 and smaller than the size of the outer area 162.
  • the number of areas representing samples can be increased.
  • the point spread intensity distribution can be calculated based on the detailed refractive index distribution. As a result, even images in a plane perpendicular to the predetermined direction can be recovered with high accuracy.
  • the calculation process differs slightly depending on the type of microscope used to acquire the XY image.
  • FIG. 14 is a flowchart of the calculation process.
  • the first acquisition process in step S10, the division process in step S20, and the second acquisition process in step S30 have been completed. Therefore, the first image and the refractive index image are divided into a plurality of areas.
  • the number of divisions is Nm and Nn.
  • step S100 variable m and variable n are each set to 1.
  • a first area ARE(m,n) is set.
  • the first area ARE(m,n) is an area for which a point spread intensity distribution is calculated.
  • Each area of the first image has a one-to-one correspondence with each area of the refractive index image. Therefore, when the first area ARE (m, n) is set in the first image, the first area ARE (m, n) is also set in the refractive index image.
  • an area group is determined.
  • the area group is used to calculate the point spread intensity distribution.
  • Each area of the area group can be determined by the first area ARE(m,n) and the object-side numerical aperture of the observation optical system.
  • Area groups are determined using refractive index images.
  • scattered light may be used to determine each area of the area group.
  • all areas located closer to the upper surface of the specimen than the first area ARE(m,n) may be used as each area of the area group.
  • step S130 the refractive index distribution in the area group is determined.
  • the point spread intensity distribution is calculated using the refractive index distribution of each area included in the area group.
  • the refractive index image has a refractive index distribution. Since the area group is determined using the refractive index image, the refractive index distribution in the area group can be determined by determining the area group.
  • step S140 a point light source is set.
  • the point light source is set in the first area ARE(m,n).
  • step S150 a first wavefront is set.
  • step S160 a second wavefront is calculated.
  • step S170 a third wavefront is calculated.
  • step S180 a point spread intensity distribution is calculated.
  • the first wavefront, the second wavefront, the third wavefront, and the point spread intensity distribution have already been explained, so their explanation will be omitted here.
  • the microscopes used to obtain the XY images were a fluorescence microscope and a luminescence microscope.
  • excitation light uniformly illuminates a focal plane and a wide area in front of and behind the focal plane.
  • the specimen is not irradiated with excitation light. In either case, there is no need to consider the excitation light intensity. Therefore, the point spread intensity distribution can be calculated using only the intensity distribution set for the point light source.
  • step S190 a PSF image PSF(m,n) is generated.
  • the point spread intensity distribution calculated in step S180 is the point spread intensity distribution in the first area ARE(m,n).
  • the first area ARE(m,n) changes depending on the value of variable m and the value of variable n. Therefore, each time the point spread intensity distribution is calculated, the point spread intensity distribution is saved in the PSF image PSF(m,n).
  • step S200 a first image PIC1(m,n) is obtained.
  • step S210 a second image PIC2(m,n) is generated. Since the first image and the second image have already been explained, their explanation will be omitted here.
  • the first image PIC1(m,n) may be acquired between step S110 and step S220.
  • step S220 the value of variable n is compared with the number of divisions Nn. If the value of variable n does not match the number of divisions Nn, step S230 is executed. In step S230, 1 is added to the value of variable n.
  • step S230 ends, the process returns to step S110.
  • step S230 1 is added to the value of variable n. Therefore, the point spread intensity distribution is calculated for the new first area ARE(m,n).
  • step S220 if the value of the variable n matches the number of divisions Nn, step S240 is executed. In step S240, the value of variable m is compared with the number of divisions Nm. If the value of variable m does not match the number of divisions Nm, step S250 is executed. In step S250, 1 is added to the value of variable m.
  • step S250 ends, the process returns to step S110.
  • step S250 1 is added to the value of variable m. Therefore, the point spread intensity distribution is calculated for the new first area ARE(m,n).
  • step S240 if the value of variable m matches the number of divisions Nm, step S260 is executed.
  • step S260 a third image is generated. Since the third image has already been explained, the explanation here will be omitted.
  • the processor calculates the excitation light intensity at the position of the set point light source, and uses the calculated intensity distribution and the calculated excitation light intensity to calculate the fluorescence intensity. It is preferable to calculate the distribution and use the calculated fluorescence intensity distribution to calculate the point spread intensity distribution in the first area.
  • the case where the microscope used to acquire the XY image is an LSM, a two-photon microscope, and a sheet illumination microscope will be explained.
  • excitation light illuminates a single point on the focal plane.
  • excitation light enters toward the point light source 130 from the top surface 131.
  • the excitation light is affected by the refractive index distribution in the same way as the light emitted from the point light source 130.
  • excitation light intensity must be taken into consideration.
  • the excitation light intensity can be determined as follows.
  • step 1 the amplitude distribution of the wavefront with the excitation light condensing position as the wave source is calculated. At this time, the refractive index distribution in the refractive index image 90 is not used.
  • the condensing position of the excitation light is a position within the area where the point light source is set, that is, a position within the first area.
  • step 2 the amplitude distribution of the wavefront calculated in step 1 is used to calculate the amplitude distribution at the focusing position of the excitation light.
  • the refractive index distribution in the refractive index image 90 is used.
  • step 3 the excitation light intensity Iex(Pi) at the point light source position is calculated using the amplitude distribution at the excitation light condensation position calculated in step 2.
  • the predetermined intensity distribution IFL(Pi) is an intensity distribution when the microscope used to acquire the XY image is a fluorescence microscope or a luminescence microscope.
  • the predetermined intensity distribution IFL(Pi) is an intensity distribution on the image plane calculated based on the intensity distribution set for the point light source.
  • the predetermined intensity distribution IFL(Pi) is the fluorescence intensity distribution.
  • the microscope is an LSM, a two-photon microscope, or a sheet illumination microscope, a fluorescent image is formed in the same way as a fluorescence microscope. Therefore, even if the microscope is an LSM, a two-photon microscope, or a sheet illumination microscope, the predetermined intensity distribution IFL(Pi) is the fluorescence intensity distribution.
  • the intensity distribution F1(Pi) is the intensity distribution on the image plane when LSM is used. When LSM is used, the intensity distribution F1(Pi) is affected by the excitation light intensity.
  • the intensity distribution F2(Pi) is the intensity distribution on the image plane when a two-photon microscope is used. When a two-photon microscope is used, the intensity distribution F2(Pi) is affected by the excitation light intensity.
  • the point spread intensity distribution may be calculated from the intensity distribution F1(Pi). Furthermore, when a two-photon microscope is used to acquire the XY image, the point spread intensity distribution may be calculated from the intensity distribution F2(Pi).
  • the intensity distribution F1(Pi) and intensity distribution F2(Pi) are also fluorescence intensity distributions.
  • the excitation light illuminates the focal plane.
  • the light is incident on one block layer located on the focal plane FP. In this case, it is affected by the refractive index distribution of one block layer.
  • the excitation light intensity can be determined as follows.
  • step 1 the excitation light intensity in one block layer is calculated. At this time, the refractive index distribution in the refractive index image 90 is used.
  • step 2 the excitation light intensity I'ex(Pi) in the area where the point light source is set, that is, the first area, is calculated in one block layer.
  • the predetermined intensity distribution IFL(Pi) is a fluorescence intensity distribution.
  • the intensity distribution F3(Pi) is the intensity distribution on the image plane when a sheet illumination microscope is used. When a sheet illumination microscope is used, the intensity distribution F3(Pi) is affected by the excitation light intensity.
  • the point spread intensity distribution may be calculated from the intensity distribution F3(Pi). Since the predetermined intensity distribution IFL(Pi) is a fluorescence intensity distribution, the intensity distribution F3(Pi) is also a fluorescence intensity distribution.
  • the processor preferably calculates the excitation light intensity using the refractive index distribution of the excitation light wavelength in the calculation process.
  • the refractive index distribution is used in the calculation of the predetermined intensity distribution IFL(Pi), the calculation of the emission intensity Iex(Pi), and the calculation of the excitation light intensity I'ex(Pi).
  • Calculation of the predetermined intensity distribution IFL(Pi) is the intensity distribution of fluorescence.
  • the wavelength of fluorescence and the wavelength of excitation light are different. Therefore, in calculating the predetermined intensity distribution IFL(Pi), the refractive index distribution at the wavelength of fluorescence is used.
  • the refractive index distribution at the wavelength of the excitation light is used.
  • the first image is an image obtained by photographing with a device equipped with a confocal pinhole
  • the processor uses the calculated intensity distribution to The light intensity passing through the focal pinhole is calculated, the fluorescence intensity is calculated using the calculated excitation light intensity and the calculated light intensity, and the point spread intensity distribution of the first area is calculated using the calculated fluorescence intensity. It is preferable to calculate.
  • FIG. 15 is a diagram showing a predetermined intensity distribution and pinhole transmission characteristics.
  • the broken line shows a predetermined intensity distribution
  • the solid line shows the transmission characteristics of the pinhole.
  • the intensity distribution I'FL(Pi) of the light emitted from the confocal pinhole is determined by the intensity distribution located within the rectangular range shown by the solid line among the predetermined intensity distribution IFL(Pi).
  • the intensity distribution F4(Pi) is the intensity distribution on the image plane when a confocal LSM is used. When a confocal LSM is used, the intensity distribution F4(Pi) is affected by the excitation light intensity.
  • the point spread intensity distribution may be calculated from the intensity distribution F4(Pi). Since the predetermined intensity distribution IFL(Pi) is a fluorescence intensity distribution, the intensity distribution F4(Pi) is also a fluorescence intensity distribution.
  • the processor calculates the second wavefront using a beam propagation method in the calculation process.
  • the position of the first wavefront WF1, the position of the second wavefront WF2, and the position of the third wavefront WF3 are different from each other.
  • the wavefront propagates between the position of the first wavefront WF1 and the position of the second wavefront WF2, and between the position of the second wavefront WF2 and the position of the third wavefront WF3.
  • the beam propagation method may be used to calculate the second wavefront WF2 and the third wavefront WF3.
  • the object model is replaced with multiple thin layers. Then, the image of the object model is calculated by sequentially calculating the wavefront changes as the light passes through each layer.
  • the beam propagation method is disclosed, for example, in "High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images" Optica, Vol. 6, No. 9, pp. 1211-1219 (2019).
  • the specimen image generation system of this embodiment includes an observation optical system that forms an optical image of a specimen, an image sensor that takes an optical image, and a specimen image generation device of this embodiment.
  • the specimen image generation system of this embodiment includes a memory and a processor, and the processor executes a first acquisition process of acquiring a first image from the memory, and divides the acquired first image into a plurality of areas.
  • a second acquisition process is executed to acquire the refractive index distribution of the specimen from the memory, and a calculation process is executed to calculate a point spread intensity distribution for each of the divided areas using the acquired refractive index distribution.
  • executes a first generation process that generates a second image corresponding to each area using the point spread intensity distribution calculated for each area, synthesizes the second image corresponding to each area, and generates a second image corresponding to the first image.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first image is an image obtained by photographing the specimen
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system
  • the first area is , is the target area for calculating the point spread intensity distribution
  • the area group is composed of a plurality of areas inside the range in which the light ray radiates, starting from the first area in a predetermined direction, and starting from the first area in a predetermined direction. Includes areas outside the extended area.
  • the processor executes machine learning processing to train the AI model, and the machine learning processing trains the AI model using a plurality of data sets.
  • the data set includes a first image and training data corresponding to the first image, and the training data corresponding to the first image is a second image corresponding to the first image.
  • the third image is generated from the first image.
  • the first image is a degraded image and the third image is a restored image. If the third image is considered training data, the first image and the third image can be used as machine learning data.
  • the first image will be referred to as an image before being enhanced, and the third image will be referred to as an improved image.
  • the enhanced image can be generated using an AI model trained with supervised machine learning (hereinafter referred to as "supervised ML”).
  • supervised ML supervised machine learning
  • An AI model provides a computer system with the ability to execute tasks without explicitly programming by performing inference processing based on patterns found through data analysis during training processing.
  • the AI model Before performing inference processing, the AI model can be trained continuously or periodically.
  • Supervised ML AI models include algorithms that train on existing sample data and training data and make predictions on new data. Training data is also called teacher data.
  • Such algorithms operate by building an AI model from sample and training data to make data-driven predictions or decisions that are expressed as outcomes.
  • supervised ML learns a function that most closely approximates the relationship between input and output when sample data and training data are input, and when the learned AI model performs inference processing, new data input sometimes implementing the same function and producing corresponding output.
  • supervised ML algorithms include Logistic Regression (LR), Naive Bayes, Random Forests (RF), Neural Networks (NN), Deep Neural Networks (DNN), Matrix Factorization, and Support Vector Machines. (SVM), etc.
  • LR Logistic Regression
  • RF Random Forests
  • NN Neural Networks
  • DNN Deep Neural Networks
  • SVM Support Vector Machines.
  • the training process of this embodiment can execute supervised ML processing.
  • the training process trains or learns the AI model.
  • FIG. 16 is a diagram showing the training process.
  • the dataset includes an image before enhancement and an image after enhancement.
  • the image before enhancement is sample data.
  • the enhanced images are training data or teacher data corresponding to the sample data.
  • sample data is shown as image 1, image 2, and so on.
  • the improved images are training data 1, training data 2, and so on.
  • optimal parameters for generating estimated data from sample data are searched for and updated using, for example, a loss function.
  • Estimated data is generated for the input sample data, the difference between the generated estimated data and training is evaluated using a loss function, and a parameter that minimizes the value of the loss function is searched for.
  • the inference processing when new data to be inferred is input to the trained AI model, the inference processing that outputs the inference data can be executed.
  • the image before enhancement is input to the input layer of the AI model, and propagated to the output layer through the AI model.
  • an improved image can be generated from an image before improvement.
  • FIG. 17 is a diagram showing the specimen image generation system of this embodiment.
  • FIG. 17(a) is a diagram showing a first example of a specimen image generation system.
  • FIG. 17(b) is a diagram showing a second example of the specimen image generation system.
  • FIG. 17(c) is a diagram showing a third example of the specimen image generation system.
  • the specimen image generation system 170 is configured only with the specimen image generation device of this embodiment.
  • the processor 3 (hereinafter referred to as "first processor") of the sample image generation device can execute training processing and inference processing.
  • the specimen image generation device 1 can include a first processor and a second processor.
  • the second processor is a different processor than the first processor.
  • the second processor can perform training processing and inference processing.
  • the specimen image generation device 1 can include a first processor, a second processor, and a third processor.
  • the third processor is different from the first processor and the second processor.
  • the second processor can perform training processing, and the third processor can perform inference processing.
  • the memory 2 of the sample image generation device 1 stores an image before improvement used in the training process, an improved image, and an image before improvement used in the inference process.
  • the sample image generation system 180 is configured with the sample image generation device 1 of this embodiment and the learning inference device 190.
  • the learning inference device 190 includes a memory 191 and a processor 192.
  • the learning and inference device 190 can perform training processing and inference processing.
  • the learning inference device 190 includes memory and one or more processors. Inference processing can be executed on the same processor as training processing. The inference process may be executed by a different processor than the training process.
  • the memory 191 of the learning and inference device stores an image before improvement used in the training process, an improved image, and an image before improvement used in the inference process.
  • the specimen image generation system 200 includes the specimen image generation device 1 of the present embodiment, a learning device 210, and an inference device 220. has been done.
  • the learning device 210 executes training processing
  • the inference device 220 executes inference processing.
  • the learning device 210 includes a memory 211 and a processor 212.
  • the inference device 220 includes a memory 221 and a processor 222.
  • the processor 212 of the learning device 210 can perform training processing, and the processor 222 of the inference device 220 can perform inference processing.
  • the memory 211 of the learning device 210 stores images before and after improvement that are used in the training process.
  • the memory 221 of the inference device 220 stores images before enhancement used in inference processing.
  • the above-mentioned learning inference device 190 and learning device 210 input data used in training processing from the sample image generation device 1 via communication or via a recording medium such as a USB memory, and store the data in the memory provided in each device. do.
  • the specimen image generation method of the present embodiment is a specimen image generation method using a first image and a refractive index distribution of the specimen, in which a first acquisition process is executed to acquire a first image from a memory, and the acquired first image is Execute a division process to divide the image into multiple areas, execute a second acquisition process to acquire the refractive index distribution of the specimen from memory, and use the acquired refractive index distribution to calculate the point image intensity for each divided area.
  • a calculation process is executed to calculate the distribution, and a first generation process is executed to generate a second image corresponding to each area using the point spread intensity distribution calculated for each area, and a second image corresponding to each area is executed.
  • a third image corresponding to the first image is generated, and in the calculation process, the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first image is an image obtained by photographing the specimen
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system
  • the first area is , is the target area for calculating the point spread intensity distribution
  • the area group is composed of a plurality of areas inside the range where the light rays radiate in a predetermined direction, starting from the first area, and the first area Includes areas outside the extended range.
  • an image can be recovered with high accuracy.
  • the recording medium of the present embodiment is a computer-readable recording medium that records a program for generating a specimen image.
  • a division process that divides one image into multiple areas, a second acquisition process that acquires the refractive index distribution of the specimen from memory, and a point spread intensity distribution for each divided area using the acquired refractive index distribution.
  • a first generation process that generates a second image corresponding to each area using the point spread intensity distribution calculated for each area, and a second image that corresponds to each area is synthesized to create the first image.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first image is an image obtained by photographing the specimen
  • the predetermined direction in the first image is the direction in which the virtual observation optical system exists among the optical axis directions of the virtual observation optical system
  • the first area is is the target area for calculating the point spread intensity distribution
  • the area group is composed of a plurality of areas inside the range where the light rays radiate in a predetermined direction, starting from the first area, and the first area Includes areas outside the extended range.
  • the present invention is suitable for a specimen image generation device, a specimen image generation method, a specimen image generation system, and a recording medium that can recover images with high accuracy.
  • Specimen image generation device 2 Memory 3 Processor 4 Input section 10 Microscope system 20 Microscope 21 Main body 22 Objective lens 23 Stage 24 Epi-illumination device 25 Imaging unit 26 Controller 27 Specimen 30 Processing device 31 Input section 32 Memory 33 Processor 34 Output section 40 Estimation Apparatus 41 Input section 42 Memory 43 Processor 44 Output section 50 Specimen 51 Observation optical system 51' Observation optical system 52 Optical axis 53 XY image group 60 Optical image 70 Specimen 71 Cytoplasm 72 Cell nucleus 80 First image 81 Image of cell nucleus 82, 83, 84 Area 90 Refractive index image 90a Top surface 90b Bottom surface 91, 92, 93, 97, 98 Area 94 Center area 95, 96 Surrounding area 100, 104 Light ray 101 Optical axis 102 Predetermined direction 103 Predetermined outside direction 110 PSF image 111, 112, 113 Area 120 Third image 130 Point light source 131 Top surface 132 Observation optical system 133

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

高い正確さで画像を回復することができる標本画像生成装置を提供する。 標本画像生成装置1は、メモリ2と、プロセッサ3と、を備える。第1画像は、標本を撮影して得られた画像であり、第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向である。プロセッサ3は、メモリ2から、第1画像を取得し、第1画像を複数のエリアに分割し、メモリ2から、標本の屈折率分布を取得し、屈折率分布を用いて、点像強度分布を算出し、点像強度分布を用いて、第2画像を生成し、第2画像を合成し、第1画像に対応する第3画像を生成する。算出処理において、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、第1エリアは、点像強度分布を算出する対象のエリアであり、エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成される。

Description

標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体
 本発明は、標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体に関する。
 例えば、顕微鏡や内視鏡では、光学系によって標本の光学像が形成される。光学像を撮像素子で撮影することで、光学像の画像が取得される。
 図18は、結像の様子、光学像及び光学像の画像を示す図である。図18(a)は、標本が3次元物体の場合の結像の様子を示す図である。図18(b)は、標本のXY断面における光学像の画像を示す図である。図18(c)は、光学像のXZ断面における画像を示す図である。
 光学系は理想光学系である。光学系の光軸をZ軸とし、Z軸と直交する軸をX軸とし、Z軸とX軸の両方と直交する軸をY軸とする。XY断面は、X軸とY軸を含む平面である。XZ断面は、X軸とZ軸を含む平面である。
 標本は細胞塊である。細胞塊は、複数の細胞で形成されている。各細胞は、細胞核を有する。
 図18(a)に示すように、標本OBJは細胞塊なので、標本OBJは光軸AXと直交する方向だけでなく、光軸AXと平行な方向にも厚みを有する。光学系OSによって、像面IPに光学像IMGが形成される。
 標本OBJでは、細胞核だけが蛍光色素で染色されている。そのため、標本OBJに励起光が照射されると、細胞核だけから蛍光が射出される。その結果、光学像IMGとして、細胞核の蛍光像が形成される。
 光学像IMGを撮影することで、光学像の画像PICを取得することができる。光学像の画像PICでは、細胞核だけが画像化されている。
 像面IPは、合焦面FPと共役である。光学像IMGは、合焦面FPに位置する標本OBJのXY断面における光学像を表している。矢印で示すように、標本OBJと合焦面FPを、光軸AXに沿って相対的に移動させながら光学像を撮影することで、複数の光学像の画像を取得することができる。
 標本OBJを固定して、光学系OSを標本OBJに向かって移動させると、標本OBJの上面、標本OBJの内部、標本OBJの底面の順で、合焦面FPが移動する。
 図18(b)には、5つの光学像の画像が示されている。画像PIC1、画像PICm-1、画像PICm、画像PICm+1及び画像PICnの各々は、標本OBJのXY断面における光学像の画像である。例えば、画像PIC1は標本OBJの上面の画像、画像PICm-1、画像PICm及び画像PICm+1は標本OBJの内部の画像、画像PICnは標本OBJの底面の画像である。
 標本OBJにおけるXY断面の位置は、各光学像の画像で異なる。そのため、光学像の画像は互いに異なる。
 画像PIC1から画像PICnまでの各画像から、X軸と平行な一列のデータを抽出する。一列のデータをZ軸に沿って並べることで、光学像のXZ断面における画像が得られる。
 図18(c)は、光学像のXZ断面における画像を示す図である。画像PICxzは、細胞核の画像である。画像の左右方向は、光軸AXに沿う方向である。画像の右は標本OBJの上面の画像を表し、画像の左は標本OBJの底面の画像を表している。
 細胞核の形状が球の場合、XZ断面の形状は円である。図18(c)に示すように、画像PICxzでは、細胞核の画像の全てで、変形、鮮鋭度の低下及び明るさの低下が生じている。変形、鮮鋭度の低下及び明るさの低下を画質の劣化とすると、画像PICxzでは、画質の劣化が生じている。
 光学像の画像は、光学像の撮影によって得られる。光学像の画像で画質の劣化が生じているということは、光学像で劣化が生じているということである。
 標本が点光源の場合、光学像は点像であることが望ましい。点像が形成されるためには、光学系が無収差の光学系(以下、「理想光学系」という)で、且つ点光源から出た光の全てが光学系に入射していることが必要である。
 しかしながら、光学系の大きさは有限であるため、点光源から出た光の全てを光学系に入射させることはできない。この場合、光学像は回折の影響を受ける。その結果、光学系が理想光学系であっても点像は形成されず、広がりを持つ像が形成される。広がりを持つ像は、点像強度分布と呼ばれる。
 光学像は、点像強度分布を用いて以下の式(1)で表される。
 I=O*PSF   (1)
 ここで、
 Iは光学像、
 Oは標本、
 PSFは点像強度分布、
 *はコンボリューション、
である。
 点像強度分布を光学的なフィルタと見なすと、式(1)は、光学像が点像強度分布というフィルタを介して得られること表している。光学像で劣化が生じているということは、フィルタ、すなわち、点像強度分布が、変形、鮮鋭度の低下及び明るさの低下を生じる特性(以下、「劣化特性」とする)を持っているということになる。
 周波数空間では、式(1)は以下の式(2)で表される。
 FI=FO×OTF   (2)
 ここで、
 FIは光学像のフーリエ変換、
 FOは標本のフーリエ変換、
 OTFは光学伝達関数、
である。
 OTFは、点像強度分布のフーリエ変換である。点像強度分布が劣化特性を持っている場合、OTFも劣化特性を持つ。
 式(2)を変形すると、式(2)は以下の式(3)で表される。
 FO=FI/OTF   (3)
 FIとOTFを求めることができれば、FOを求めることができる。そして、FOを逆フーリエ変換することで、Oを求めることができる。Oは標本である。この演算は、デコンボリューションとよばれる。
 図18(c)に示す画像PICxzは、細胞核の光学像の画像である。画像PICxzでは、細胞核だけが画像化されている。そのため、画像PICxzとOTFの画像を用いてデコンボリューションを行うと、細胞核の画像だけが求まる。
 標本OBJは細胞塊なので、複数の細胞質と複数の細胞核を有する。しかしながら、画像PICxzでは、デコンボリューションを行っても、細胞核の画像だけしか求まらない。細胞質の画像は求まらないので、標本OBJが求まったとは言い難い。デコンボリューションを行うことで標本が求まるが、標本が求まるか否かは、光学像の画像に依存する。
 画像で考えると、式(1)は、光学像の画像が点像強度分布というフィルタを介して得られた画像であること表している。点像強度分布が劣化特性を持っている場合、Iは画質が劣化した光学像の画像と見なすことができ、Oは画質が劣化する前の光学像の画像と見なすことができる。
 この場合、式(3)は、画質が劣化した光学像の画像から、画質が劣化する前の光学像の画像が生成されること表している。以下、画質が劣化した光学像の画像を「劣化画像」という。また、画質が劣化する前の光学像の画像は、画質が劣化した画像において、画像の回復が行われたということができる。よって、画質が劣化する前の光学像の画像を「回復画像」という。
 回復画像を生成するためには、点像強度分布を求める必要がある。図18(a)を用いて説明する。図18(a)では、標本OBJの外側の屈折率をn1とし、標本OBJの内側の屈折率をn2としている。
 理想形状を、理想光学系の点像強度分布の形状とする。理想形状では、合焦面と理想光学系の間の屈折率が、予め決められた屈折率と一致している。
 標本OBJを合焦面FPから遠ざけた状態から、標本OBJを光学系OSに向かって移動させる。光学系OSは動かないので、標本OBJの上面が合焦面FPに到達する。この状態(以下、「第1状態」という)では、合焦面FPと光学系OSの間には、屈折率がn1の空間だけが存在している。合焦面FPに点光源を配置すると、第1状態の点像強度分布が得られる。
 第1状態では、合焦面FPと光学系OSの間の屈折率はn1である。予め決められた屈折率をn1とすると、第1状態の点像強度分布は、予め決められた屈折率だけに基づいて得られている。よって、第1状態の点像強度分布の形状は、理想形状と同じである。
 更に標本OBJを移動させると、合焦面FPが標本OBJの内部に到達する。この状態(以下、「第2状態」という)では、合焦面FPと光学系OSの間には、屈折率がn1の空間と屈折率がn2の空間が位置している。合焦面FPに点光源を配置すると、第2状態の点像強度分布が得られる。
 第2状態では、合焦面FPと光学系OSの間の屈折率は、n1とn2で決まる。予め決められた屈折率はn1なので、n2は予め決められた屈折率ではない。この場合、第2状態の点像強度分布は、予め決められた屈折率と予め決められていない屈折率に基づいて得られている。よって、第2状態の点像強度分布の形状は、理想形状と異なる。
 このように、点像強度分布の形状は、屈折率がn2の空間の広さに応じて変化する。よって、点像強度分布の算出では、標本OBJにおける屈折率分布を適切に考慮しなくてはならない。
 画像を回復する技術が、非特許文献1に開示されている。この回復技術では、厚い標本から取得した光学像の画像と点像強度分布が用いられている。点像強度分布の算出では、標本を複数のブロックに分割し、光軸と平行な一列のブロックの屈折率を用いている。
 点像強度分布の算出では、1つのブロックに点光源を配置し、標本から射出された波面を求める。点光源から射出された波面は、球面波である。そのため、波面は、点光源が配置されたブロックと接し、且つ光軸と平行な一列のブロックと、一列のブロックの周辺に位置するブロックを伝搬する。
 上述の回復技術では、一列のブロックの屈折率だけを用いて点像強度分布を算出している。この場合、点像強度分布は正確に算出されない。そのため、高い正確さで画像が回復されているとは言えない。
 本発明は、このような課題に鑑みてなされたものであって、高い正確さで画像を回復することができる標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係る標本画像生成装置は、
 メモリと、プロセッサと、を備え、
 第1画像は、標本を撮影して得られた画像であり、
 第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、
 プロセッサは、
 メモリから、第1画像を取得する第1取得処理を実行し、
 取得した第1画像を複数のエリアに分割する分割処理を実行し、
 メモリから、標本の屈折率分布を取得する第2取得処理を実行し、
 取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、
 エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
 エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成し、
 算出処理において、
 第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
 第1エリアは、点像強度分布を算出する対象のエリアであり、
 エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含むこと特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る標本画像生成システムは、
 標本の光学像を形成する観察光学系と、
 光学像を撮影する撮像素子と、
 上記の標本画像生成装置と、を有することを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る標本画像生成システムは、
 メモリと、プロセッサと、を備え、
 第1画像は、標本を撮影して得られた画像であり、
 第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、
 プロセッサは、
 メモリから、第1画像を取得する第1取得処理を実行し、
 取得した第1画像を複数のエリアに分割する分割処理を実行し、
 メモリから、標本の屈折率分布を取得する第2取得処理を実行し、
 取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、
 エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
 エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成し、
 算出処理において、
 第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
 第1エリアは、点像強度分布を算出する対象のエリアであり、
 エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含み、
 プロセッサは、AIモデルを学習させる機械学習処理を実行し、
 機械学習処理は、複数のデータセットでAIモデルを学習させ、
 データセットは、第1画像と第1画像に対応するトレーニングデータを含み、
 第1画像に対応するトレーニングデータは、第1画像に対応する第2画像であることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る標本画像生成方法は、
 第1画像と標本の屈折率分布を用いる標本画像生成方法であって、
 第1画像は、標本を撮影して得られた画像であり、
 第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、
 メモリから、第1画像を取得する第1取得処理を実行し、
 取得した第1画像を複数のエリアに分割する分割処理を実行し、
 メモリから、標本の屈折率分布を取得する第2取得処理を実行し、
 取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、
 エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
 エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成し、
 算出処理において、
 第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
 第1エリアは、点像強度分布を算出する対象のエリアであり、
 エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含むこと特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る記録媒体は、
 標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、
 第1画像は、標本を撮影して得られた画像であり、
 第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、
 コンピュータに、
 メモリから、第1画像を取得する第1取得処理と、
 取得した第1画像を複数のエリアに分割する分割処理と、
 メモリから、標本の屈折率分布を取得する第2取得処理と、
 取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理と、
 エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理と、
 エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成する処理と、を実行させ、
 算出処理において、
 第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
 第1エリアは、点像強度分布を算出する対象のエリアであり、
 エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含むことを特徴する。
 本発明によれば、高い正確さで画像を回復することができる標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体を提供することができる。
本実施形態の標本画像生成装置、顕微鏡システム及び推定システムを示す図である。 標本、光学像、光学像の画像及びXY画像群を示す図である。 プロセッサで行われる処理のフローチャートである。 標本、光学像、及び第1画像を示す図である。 第1画像、屈折率画像、第1エリア及びエリア群を示す図である。 エリア群を示す図である。 第1画像、屈折率画像及びPSF画像を示す図である。 第1画像、第2画像及び第3画像を示す図である。 第1画像と第3画像を示す図である。 波面の伝搬を示す図である。 屈折率画像を示す図である。 屈折率画像を示す図である。 屈折率画像を示す図である。 算出処理のフローチャートである。 所定の強度分布とピンホールの透過特性を示す図である。 トレーニング処理を示す図である。 本実施形態の標本画像生成システムを示す図である。 結像の様子、光学像及び光学像の画像を示す図である。
 実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 本実施形態の標本画像生成装置では、標本の光学像の画像を用いる。観察光学系で標本の光学像を形成し、標本の光学像を撮像素子で撮影することで、標本の光学像の画像を取得することができる。
 標本は3次元物体なので、標本の光学像の画像は、XY画像、XZ画像及びYZ画で表すことができる。また、標本の光学像の画像は観察光学系を介して取得されているので、標本の光学像の画像は劣化画像である。
 観察光学系の光軸をZ軸とし、Z軸と直交する軸をX軸とし、Z軸とX軸の両方と直交する軸をY軸とする。XY断面は、X軸とY軸を含む平面である。XY画像は、XY断面における画像である。XZ断面は、X軸とZ軸を含む平面である。XZ画像は、XZ断面における画像である。YZ断面は、Y軸とZ軸を含む平面である。YZ画像は、YZ断面における画像である。
 本実施形態の標本画像生成装置は、メモリと、プロセッサと、を備え、プロセッサは、メモリから、第1画像を取得する第1取得処理を実行し、取得した第1画像を複数のエリアに分割する分割処理を実行し、メモリから、標本の屈折率分布を取得する第2取得処理を実行し、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成する。算出処理において、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像は、標本を撮影して得られた画像であり、第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向である。第1エリアは、点像強度分布を算出する対象のエリアであり、エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。
 図1は、本実施形態の標本画像生成装置、顕微鏡システム及び推定システムを示す図である。図1(a)は、本実施形態の標本画像生成装置を示す図である。図1(b)は、顕微鏡システムを示す図である。図1(c)は、推定システムを示す図である。
 図1(a)に示すように、標本画像生成装置1は、メモリ2と、プロセッサ3、とを備える。メモリ2には、第1画像と標本の屈折率分布が保存されている。
 第1画像は、標本を撮影して得られた画像である。第1画像は、例えば、複数のXY画像(以下、「XY画像群」という)から生成することができる。XY画像群における各々のXY画像は、標本の光学像の画像である。上述のように、標本の光学像の画像は劣化画像である。よって、第1画像も劣化画像である。
 プロセッサ3で、標本画像を生成する処理が行われる。この処理では、第1画像と標本の屈折率分布が用いられる。第1画像は劣化画像なので、標本画像は回復画像である。よって、プロセッサ3では、劣化画像から標本画像が生成する処理が行われる。
 標本画像生成装置1で第1画像を生成するためには、XY画像群を標本画像生成装置1に入力する必要がある。XY画像群の標本画像生成装置1への入力は、入力部4を介して行われる。XY画像は、例えば、顕微鏡システムで取得することができる。
 図1(b)に示すように、顕微鏡システム10は、顕微鏡20と、処理装置30と、を有する。顕微鏡20は、本体21と、対物レンズ22と、ステージ23と、落射照明装置24と、撮像ユニット25と、コントローラー26と、を有する。処理装置30は、入力部31と、メモリ32と、プロセッサ33と、出力部34を有する。
 ステージ23上に、標本27が載置されている。顕微鏡20では、観察光学系の像面に、標本27の光学像が形成される。撮像ユニット25にレンズが配置されている場合、対物レンズ22、結像レンズ及び撮像ユニット25のレンズで、観察光学系が形成される。撮像ユニット25にレンズが配置されていない場合、対物レンズ22と結像レンズで、観察光学系が形成される。
 撮像ユニット25は、撮像素子を有する。像面に形成された光学像を撮像素子で撮影することで、光学像の画像が取得される。像面に形成された光学像は、標本27のXY断面の光学像である。よって、光学像の画像はXY画像である。
 対物レンズ22とステージ23は、観察光学系の光軸に沿って相対的に移動させることができる。対物レンズ22の移動又はステージ23の移動は、コントローラー26で行うことができる。標本27は厚い標本である。よって、対物レンズ22とステージ23を相対的に移動させることで、複数の断面についてXY画像を取得することができる。XY画像群について説明する。
 図2は、標本、光学像、光学像の画像及びXY画像群を示す図である。図2(a)は、標本を示す図である。図2(b)、図2(c)及び図2(d)は、光学像と光学像の画像を示す図である。図2(e)は、XY画像群を示す図である。
 図2(a)に示すように、標本50は3次元物体なので、複数のブロック層で表すことができる。図2(a)では、Z軸方向で、標本50は7つのブロック層に分けられている。ただし、ブロック層の数は7に限られない。標本OZ1は一端のブロック層を表し、標本OZ7は他端のブロック層を表している。各ブロック層は、標本50のXY断面を表している。
 標本50の光学像の形成では、標本OZ1から標本OZ7までのブロック層を、順番に観察光学系51の合焦面に位置させる。光学像は平面であるが、見易さのために、光学像をブロック層で表す。また、光学像をブロック層で表しているため、光学像の画像もブロック層で表す。
 標本50の光学像の形成では、標本50と観察光学系51を光軸52に沿って相対的に移動させる。ここでは、標本50は移動させず、観察光学系51を光軸52に沿って相対的に移動させている。
 図2(b)に示すように、観察光学系51の合焦面に標本OZ1が位置している場合、光学像IZ1が形成される。光学像IZ1を撮像素子で撮影することで、光学像の画像PZ1が取得される。
 図2(c)に示すように、観察光学系51の合焦面に標本OZ4が位置している場合、光学像IZ4が形成される。光学像IZ4を撮像素子で撮影することで、光学像の画像PZ4が取得される。
 図2(d)に示すように、観察光学系51の合焦面に標本OZ7が位置している場合、光学像IZ7が形成される。光学像IZ7を撮像素子で撮影することで、光学像の画像PZ7が取得される。
 画像PZ1、画像PZ4及び画像PZ7は、XY画像である。画像PZ1と画像PZ4の間には2つのブロック層が位置している。また、画像PZ4と画像PZ7の間にも2つのブロック層が位置している。これらのブロック層の画像を、各々、画像PZ2、画像PZ3、画像PZ5及び画像PZ6とすると、画像PZ2、画像PZ3、画像PZ5及び画像PZ6もXY画像である。
 画像PZ1から画像PZ7までの全ての画像はXY画像なので、これらの画像からXY画像群が得られる。また、これらの画像を光軸52の方向に積み重ねることで、立体的なXY画像群が得られる。
 図2(e)には、立体的なXY画像群53が示されている。XY画像群53は、X軸方向、Y軸方向及びZ軸方向の各々で、明るさの情報を有する。よって、XY画像群53から、XY画像、XZ画像及びYZ画像を生成することができる。
 上述のように、第1画像は、XY画像群から生成される。よって、XY画像、XZ画像及びYZ画像は、いずれも第1画像として用いることができる。
 図1(b)に戻って説明を続ける。顕微鏡20では、複数の対物レンズをレボルバーに装着することができる。レボルバーを回転させることで、対物レンズの倍率を変更することができる。レボルバーの回転は、コントローラー26で行うことができる。
 XY画像は撮像ユニット25から出力され、処理装置30に入力される。光学情報、移動情報及び顕微鏡情報(以下、「各種情報」という)は、コントローラー26から出力され、処理装置30に入力される。
 光学情報は、例えば、対物レンズの倍率の情報と対物レンズの開口数の情報である。移動情報は、例えば、1回あたりのステージの移動量の情報とステージの移動回数の情報、又は1回あたりの対物レンズの移動量の情報と対物レンズの移動回数の情報である。
 顕微鏡情報は、XY画像の取得に使用した顕微鏡の情報である。XY画像の取得に使用できる顕微鏡のタイプは、例えば、蛍光顕微鏡、走査型レーザ顕微鏡(以下、「LSM」という)、2光子顕微鏡、シート照明顕微鏡及び発光顕微鏡である。
 XY画像と各種情報は入力部31に入力された後、メモリ32に保存される。複数のXY画像から、XY画像群が得られる。XY画像群と各種情報は、出力部34から出力される。よって、XY画像群と各種情報を、標本画像生成装置1に入力することができる。XY画像群と各種情報は、メモリ2に保存される。
 XY画像群と各種情報は、関連付けておく必要がある。XY画像群と各種情報の関連付けは、処理装置30と標本画像生成装置1のどちらで行っても良い。
 XY画像群と各種情報の入力は、有線又は無線で行うことできる。また、処理装置30で、XY画像群と各種情報を記録媒体に記録しても良い。この場合、XY画像群と各種情報は、記録媒体を介して標本画像生成装置1に入力される。
 上述のように、プロセッサ3で行われる処理では、第1画像と標本の屈折率分布が用いられる。第1画像の生成に必要なXY画像群は、顕微鏡システム20で生成することができる。標本の屈折率分布は、例えば、推定装置で生成することができる。
 図1(c)に示すように、推定装置40は、入力部41と、メモリ42と、プロセッサ43と、出力部44を有する。推定装置40では、コンピュテーショナルイメージング又は深層学習による推定によって、標本の屈折率分布が推定される。
 コンピュテーショナルイメージングによる屈折分布の推定について説明する。推定では、標本の光学像と推定標本の光学像が用いられる。推定標本の光学像は、仮想光学系を用いたシミュレーションによって取得することができる。標本は3次元物体なので、推定標本も3次元物体である。この場合、推定標本の光学像は、複数の推定XY画像(以下、「推定XY画像群」という)で表される。
 屈折率分布は、画像で表すことができる。この場合、標本の屈折率分布は、複数の分布画像(以下、「分布画像群」という)で表すことができる。推定標本の屈折率分布は、複数の推定分布画像(以下、「推定分布画像群」という)で表すことができる。分布画像と推定分布画像は、XY画像と同様に、XY断面における屈折率分布の画像である。
 上述のように、推定では、標本の光学像が用いられる。よって、推定装置40では、入力部41を介してXY画像群と各種情報が入力される。XY画像群と各種情報は、メモリ42に保存される。
 プロセッサ43では、コンピュテーショナルイメージングによって、推定分布画像群の推定が行われる。推定では、XY画像群と推定XY画像群との比較が行われる。具体的には、XY画像群と推定XY画像群との違いが小さくなるように、推定分布画像群における屈折率の値が変更される。
 2つの画像の違いは、数値で表すことができる。よって、この数値が閾値よりも小さくまで、2つの画像の比較と屈折率の値の変更を繰返す。そして、この数値が閾値よりも小さくなったときの推定分布画像群を、分布画像群とする。分布画像群は、標本の屈折率分布を表している。よって、標本の屈折率分布が求まる。分布画像群は、出力部44から出力される。
 分布画像群は、有線又は無線で推定装置40から標本画像生成装置1に入力することができる。又は、推定装置40で分布画像群を記録媒体に記録し、記録媒体を介して標本画像生成装置1に入力しても良い。分布画像群は、標本の屈折率分布を表している。よって、標本の屈折率分布を、標本画像生成装置1に入力することができる。分布画像群は、メモリ2に保存される。
 標本画像生成装置1では、標本画像を生成する処理が行われる。標本画像を生成する処理は、プロセッサ3で行われる。プロセッサ3で行われる処理について説明する。
 図3は、プロセッサで行われる処理のフローチャートである。図4は、標本、光学像、及び第1画像を示す図である。図4(a)は、標本と光学像を立体的に示す図である。図4(b)は、標本のXZ断面を示す図である。図4(c)は、第1画像を示す図である。図4(d)は、標本のXZ断面と第1画像を示す図である。図2(a)と同じ構成については同じ番号を付し、説明は省略する。
 上述のように、第1画像は、XY画像群から生成される。XY画像群は、複数の光学像から得られる。図4(a)に示すように、標本50を動かさずに、観察光学系51を光軸52に沿って移動させると、複数の光学像が形成される。
 位置Z1では、標本OZ1の光学像IZ1が形成される。位置Z7では、標本OZ7の光学像IZ7が形成される。光学像IZ1から光学像IZ7までの光学像で、光学像60が形成される。光学像60を撮影することで、XY画像群を取得することができる。
 XY画像群から、XY画像、XZ画像及びYZ画像を生成することができる。XY画像、XZ画像及びYZ画像は、いずれも第1画像として用いることができる。第1画像として、XZ画像がメモリに保存されているとする。
 ステップS10では、第1取得処理を実行する。第1取得処理では、メモリから第1画像を取得する。
 第1画像は、標本のXZ断面における光学像の画像である。図4(b)には、標本70のXZ断面が示されている。標本70は細胞塊である。細胞塊は、複数の細胞で形成されている。標本70の各細胞は、細胞質71と、細胞核72と、を有する。
 図4(c)は、メモリから取得された第1画像を示している。第1画像80は蛍光像の画像である。標本70では、細胞核72だけが蛍光で染色されている。この場合、細胞核72の光学像だけが形成される。よって、第1画像80は、細胞核の画像81だけを有する。
 第1画像80は光学像の画像なので、第1画像80は劣化画像である。細胞核の形状を円とすると、細胞核の画像81では、形状は楕円になっている。テップS10が終了すると、ステップS20が実行される。
 ステップS20では、分割処理を実行する。分割処理では、取得した第1画像を複数のエリアに分割する。図4(d)に示すように、第1画像80は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。
 図4(d)では、標本70と第1画像80の対応関係を示すために、便宜的に観察光学系と光線を図示している。観察光学系51’は仮想光学系で、光学的な仕様は観察光学系51と同じである。
 光学的な結像では、標本の光学像の上下は、標本の上下と逆になる。第1画像80は画像なので、第1画像80の生成時に上下を逆にすることができる。よって、図4(d)では、標本70の上下と第1画像80の上下は一致している。
 エリア82の位置は、位置OP1と対応している。エリア83の位置は、位置OP2と対応している。ステップS20が終了すると、ステップS30が実行される。
 ステップS30では、第2取得処理を実行する。第2取得処理では、メモリから、標本の屈折率分布を取得する。屈折率分布の取得については後述する。ステップS30が終了すると、ステップS40が実行される。
 ステップS40では、算出処理を実行する。算出処理では、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する。具体的には、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。よって、第1エリアとエリア群を決定する必要がある。
 図5は、第1画像、屈折率画像、第1エリア及びエリア群を示す図である。図5(a)は、第1画像、屈折率画像及び第1エリアを示す図である。図5(b)は、エリア群の第1例を示す図である。図5(c)は、エリア群の第2例を示す図である。
 第1エリアは、点像強度分布を算出する対象のエリアである。ステップS20では、第1画像80を複数のエリアに分割している。よって、第1エリアとエリア群は、第1画像80におけるエリアで決まる。
 ただし、第1画像80は、標本の光学像の画像である。標本の光学像の画像は、明るさの情報を有するが、屈折率分布の情報は有していない。点像強度分布はエリア群の屈折率分布を用いて算出するので、第1画像80は点像強度分布の算出に適さない。第1画像80では、第1エリアは決定できるが、エリア群は決定できない。
 上述のように、分布画像群は、標本の屈折率分布を表している。よって、分布画像群から第1画像に対応する画像(以下、「屈折率画像」という)を取得する。点像強度分布は屈折率分布を用いて算出される。屈折率画像は屈折率分布の画像なので、屈折率画像は点像強度分布の算出に適している。
 屈折率画像はメモリ2に保存しておき、算出処理の実行時にメモリ2から屈折率画像を読み出せば良い。第1画像はXZ画像なので、屈折率画像はXZ断面の画像である。
 第1画像80は、複数のエリアに分割されている。よって、図5(a)に示すように、屈折率画像90も複数のエリアに分割されている。屈折率画像90は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。見易さのために、屈折率画像90では、細胞核だけが図示されている。
 図4(d)と同じように、屈折率画像90の上下と第1画像80の上下は一致している。また、屈折率画像90と第1画像80の対応関係を示すために、便宜的に観察光学系51’と光線を図示している。
 屈折率画像90において、エリア82に対応するエリアは、エリア91である。エリア83に対応するエリアは、エリア92である。エリア84に対応するエリアは、エリア93である。
 上述のように、屈折率画像90は、点像強度分布の算出に適している。よって、屈折率画像90で、第1エリアとエリア群を決定する。
 エリア群の第1例について説明する。図5(b)には、エリア91、観察光学系51’、光線100及び観察光学系の光軸101が示されている。画像から光線が放射されることはないので、光線100は仮想的な光線である。
 第1例では、第1画像80における第1エリアは、エリア82である。エリア82に対応するエリアは、屈折率画像90ではエリア91である。よって、屈折率画像90では、エリア91が第1エリアである。
 エリア群と所定方向は、次のように規定されている。エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。第1画像における所定方向は、仮想観察光学系の光軸方向のうち観察光学系が存在する方向である。
 上述のように、屈折率画像90で、第1エリアとエリア群を決定する。そこで、上記の規定において、第1画像を屈折率画像に置き換える。この場合、エリア群と所定方向は、次のように規定される。
 エリア群は、屈折率画像において、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。屈折率画像の所定方向は、観察光学系の光軸方向のうち仮想観察光学系が存在する方向である。
 屈折率画像90において、観察光学系51’に近い側を標本の上面側とし、観察光学系51’から遠い側を標本の底面側とする。エリア91は、上面90aにおいて光軸101と交差する場所に位置している。エリア91から光線100が放射される。エリア91から放射された光線100は、観察光学系51’に入射する。
 光線100は、観察光学系51’に入射する光である。観察光学系51’に入射する光は、観察光学系51’の物体側開口数で決まる。上述のように、標本画像生成装置1では、メモリ2に光学情報が保存されている。
 光学情報は、対物レンズの開口数の情報を有する。対物レンズの開口数は、観察光学系51’の物体側開口数と見なせる。よって、対物レンズの開口数から、光線100を特定することができる。
 図5(b)には、所定方向102と所定外方向103が図示されている。所定方向102と所定外方向103は、観察光学系51’の光軸方向である。観察光学系51’の光軸方向のうち、所定方向102には観察光学系51’が位置しているが、所定外方向103には観察光学系51’は位置していない。
 2つの光線100は、エリア91から放射される放射光の光線である。2つの光線100で挟まれた範囲の内側には、屈折率画像90のエリアは位置していない。よって、エリア91の位置では、エリア群におけるエリアの数はゼロである。
 エリア群の第2例について説明する。図5(c)には、エリア93、中心エリア94、周辺エリア95及び周辺エリア96が示されている。図5(b)と同じ構成については同じ番号を付し、説明は省略する。
 第2例では、第1画像80における第1エリアは、エリア84である。エリア84に対応するエリアは、屈折率画像90ではエリア93である。よって、屈折率画像90では、エリア93が第1エリアである。
 エリア93は、底面90bにおいて光軸101と交差する場所に位置している。エリア93から光線100と光線104が放射される。エリア93から放射された光線100と光線104は、観察光学系51’に入射する。光線104は仮想的な光線である。
 2つの光線100と2つの光線104は、エリア93から放射される光線である。標本における光の散乱が非常に小さい場合、エリア93から放射される光線は、2つの光線100で表される。2つの光線100で挟まれた範囲の内側には、中心エリア94と周辺エリア95が位置している。中心エリア94と周辺エリア95で、エリア群が形成されている。光線100と交差するエリアは、エリア群に含まれていると見なす。
 中心エリア94と周辺エリア95は、各々、複数のエリアで構成されている。よって、エリア群は、複数のエリアで構成されている。
 エリア群では、中心エリア94は、所定方向102に向かってエリア93を延長した範囲に位置している。周辺エリア95は、中心エリア94の外側に位置している。
 標本における光の散乱が非常に大きい場合、エリア93から放射される光線は、2つの光線104で表される。2つの光線104で挟まれた範囲の内側には、中心エリア94、周辺エリア95及び周辺エリア96が位置している。よって、エリア94、周辺エリア95及び周辺エリア96で、エリア群が形成されている。光線104と交差するエリアは、エリア群に含まれていると見なす。
 中心エリア94、周辺エリア95及び周辺エリア96は、各々、複数のエリアで構成されている。よって、エリア群は、複数のエリアで構成されている。
 図6は、エリア群を示す図である。図6(a)は、エリア群の第3例を示す図である。図6(b)は、エリア群の第4例を示す図である。
 第3例では、図6(a)に示すように、エリア97が第1エリアである。エリア97は、上面と底面の間において光軸101と交差する場所に位置している。
 標本における光の散乱が非常に小さい場合、エリア97から放射される光線は、2つの光線100で表される。2つの光線100で挟まれた範囲の内側には、中心エリア94と周辺エリア95が位置している。中心エリア94と周辺エリア95で、エリア群が形成されている。第3例と第2例を比べると、第3例の方がエリア群におけるエリアの数が少ない。
 標本における光の散乱が非常に大きい場合エリア97から放射される光線は、2つの光線104で表される。2つの光線104で挟まれた範囲の内側には、中心エリア94、周辺エリア95及び周辺エリア96が位置している。中心エリア94、周辺エリア95及び周辺エリア96で、エリア群が形成されている。
 第4例では、図6(b)に示すように、エリア98が第1エリアである。エリア98は、底面において光軸101から離れた場所に位置している。
 標本における光の散乱が非常に小さい場合、エリア98から放射される光線は、2つの光線100で表される。2つの光線100で挟まれた範囲の内側には、中心エリア94と周辺エリア95が位置している。中心エリア94と周辺エリア95で、エリア群が形成されている。第4例と第2例を比べると、第4例の方がエリア群におけるエリアの数が少ない。
 標本における光の散乱が非常に大きい場合、エリア98から放射される光線は、2つの光線104で表される。2つの光線104で挟まれた範囲の内側には、中心エリア94、周辺エリア95及び周辺エリア96が位置している。中心エリア94、周辺エリア95及び周辺エリア96で、エリア群が形成されている。
 第1例では、エリア群におけるエリアの数はゼロである。よって、演算処理では、エリア群に含まれる各エリアの屈折率分布は用いられない。点像強度分布は、屈折率画像90と観察光学系51’の間の空間の屈折率を用いて算出される。エリア群におけるエリアの数がゼロの場合の算出も、算出処理における算出に含まれるものとする。
 第2例、第3例及び第4例では、周辺エリア96の外側に位置するエリアは、エリア群に含まれない。よって、これらのエリアは、点像強度分布の算出に用いられない。しかしながら、これらのエリアを点像強度分布の算出に用いても良い。すなわち、第1エリアよりも所定方向102側に位置する全てのエリアをエリア群と見なして、点像強度分布を算出しても良い。
 第1エリアは、点像強度分布を算出する対象のエリアである。よって、第1エリアの対象となるエリアを変えていくことで、分割したエリアそれぞれについて、点像強度分布を算出することができる。
 算出処理では、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像80における第1エリアは、第2例ではエリア84である。屈折率画像90では、エリア93がエリア84に対応する。そして、屈折率画像90では、エリア群は、中心エリア94と周辺エリア95で構成されているか、又は中心エリア94、周辺エリア95及び周辺エリア96で構成されている。
 よって、中心エリア94を構成する各エリアの屈折率分布と、周辺エリア95を構成する各エリアの屈折率分布を用いて、エリア93の点像強度分布を算出するか、又は中心エリア94を構成する各エリアの屈折率分布、周辺エリア95を構成する各エリアの屈折率分布及び周辺エリア96を構成する各エリアの屈折率分布を用いて、エリア93の点像強度分布を算出する。エリア93の点像強度分布を、第1画像80におけるエリア84の点像強度分布として扱えば良い。
 エリア84は、第1画像80における第1エリアである。第1画像80の各エリアは、標本の光学像の明るさの情報を既に有している。よって、第1画像80とは別に、点像強度分布を有する画像(以下、「PSF画像」という)が生成される。
 図7は、第1画像、屈折率画像及びPSF画像を示す図である。図7(a)は、第1画像と屈折率画像を示す図である。図7(b)は、屈折率画像とPSF画像を示す図である。図7(a)は、図5(a)と同じ図であるので、説明は省略する。
 第1画像80は、複数のエリアに分割されている。よって、図7(b)に示すように、PSF画像110も複数のエリアに分割されている。PSF画像110は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。
 図7(a)と図7(b)との比較からわかるように、PSF画像110において、エリア111に対応するエリアは、エリア82である。エリア112に対応するエリアは、エリア83である。エリア113に対応するエリアは、エリア84である。よって、PSF画像110の各エリアは、第1画像80の第1エリアに対応するエリアの点像強度分布を有している。図7(b)では、一部のエリアのみ、点像強度分布が図示されている。
 図3に戻って説明する。ステップS40が終了すると、ステップS50が実行される。
 ステップS50では、第1生成処理を実行する。第1生成処理では、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する。
 図8は、第1画像、第2画像及び第3画像を示す図である。図8(a)は、第1画像と第2画像を示す図である。図8(b)は、第1画像と第3画像を示す図である。
 図8(a)には、第1画像の一部のエリア、PSF画像の一部のエリア及び第2画像群が示されている。
 エリアDEGは、第1画像80の一部のエリアである。エリアDEGは、エリアDEG1、エリアDEG2、エリアDEG3、エリアDEG4、エリアDEG5及びエリアDEG6で形成されている。
 エリアPSFは、PSF画像110の一部のエリアであって、エリアDEGと対応するエリアである。エリアPSFは、エリアPSF1、エリアPSF2、エリアPSF3、エリアPSF4、エリアPSF5及びエリアPSF6で形成されている。
 第2画像群RECは、エリアDEGとエリアPSFに対応するエリアの画像である。第2画像群RECは、第2画像REC1、第2画像REC2、第2画像REC3、第2画像REC4、第2画像REC5及び第2画像REC6で形成されている。
 エリアDEG1の画像は、第1画像である。エリアPSF1の画像は、点像強度分布である。エリアDEG1の画像とエリアPSF1の画像から、第2画像REC1が生成される。
 エリアDEGでは、細胞核の形状は楕円である。第2画像では、細胞核の形状は円である。よって、第1生成処理では、劣化画像から回復画像が生成される。ステップS50が終了すると、ステップS60が実行される。
 第2画像の生成では、エリアDEGの各エリアの画像に対してマスク処理を施すと良い。マスク処理としては、例えば、画像の周辺部をぼかす処理がある。
 ステップS60では、第3画像を生成する。第3画像は、第1画像に対応する画像である。第3画像の生成では、エリアそれぞれに対応する第2画像を合成する。
 図8(b)には、第1画像80と第3画像120が示されている。第3画像120は、第2画像を合成することで生成される。第2画像は第1画像80に基づいて生成され、第3画像は第2画像に基づいて生成される。よって、第3画像120は、第1画像80に対応する画像である。
 第1画像80では、細胞核の形状は楕円である。第3画像120では、細胞核の形状は円である。よって、標本画像生成装置1では、劣化画像から高い画質の回復画像を生成することができる。
 第2画像の合成では、重みづけを行うと良い。隣接する2つの第2画像では、2つの画像の境界で、一方の第2画像からの影響が半分となるようにすれば良い。
 図9は、第1画像と第3画像を示す図である。図9(a)は、第1画像を示す図である。図9(b)は、第3画像を示す図である。
 画像の右端は標本の上面の画像を表し、画像の左端は標本の底面の画像を表している。標本の上面から底面の全ての範囲で、画質は第1画像よりも第3画像の方が高い。
 上述のように、点像強度分布の算出では、中心エリアの屈折率分布だけでなく、周辺エリアの屈折率分布が用いられている。よって、中心エリアの屈折率分布だけを用いる回復技術と比べると、高い正確さで点像強度分布を算出することができる。その結果、本実施形態の標本画像生成装置では、高い正確さで画像を回復することができる。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、第1エリア内に点光源を設定し、設定した点光源を波源とする第1波面を用いて、第1エリアの点像強度分布を算出することが好ましい。
 図5(c)で説明したように、エリア群は、第1エリアを起点に、所定方向に放射する光の範囲で決まる。第1エリアから射出された光はエリア群を通過して、観察光学系に入射する。そして、観察光学系から射出された光によって点像強度分布が得られる。
 第1エリアを起点に放射する光は、第1エリアに点光源を設定することで得られる。点光源から、点光源を波源とする波面が射出される。この波面を第1波面とすると、第1波面を用いて、第1エリアの点像強度分布を算出することができる。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、第1波面と、エリア群に含まれる各エリアに対応する屈折率分布を用いて、第2波面を算出し、算出した第2波面を用いて、第3波面に対応する強度分布を算出し、算出した強度分布を用いて、第1エリアの点像強度分布を算出することが好ましい。第2波面は、所定方向に標本を伝播した波面であり、第3波面は、仮想観察光学系の合焦面の位置の波面である。
 図10は、波面の伝搬を示す図である。図5(c)と同じ構成については同じ番号を付し、説明は省略する。
 点像強度分布の算出には、屈折率分布が用いられる。よって、屈折率画像90を用いて説明する。屈折率画像90では、エリア93が第1エリアに対応する。よって、エリア93が合焦面FPに位置している。また、エリア93に点光源130が設定されている。
 点光源130から、第1波面WF1が射出される。第1波面WF1は、エリア93から屈折率画像90の上面131に向かって伝搬する。上面131は、標本の外縁である。上面131側には、観察光学系132が位置している。よって、第1波面WF1は、所定方向に伝搬する。
 波面の伝搬の計算は、シミュレーションで求めることができる。観察光学系132は仮想光学系で、例えば、対物レンズ133と結像レンズ134で形成されている。観察光学系132の光学的な仕様は、観察光学系51と同じである。光学的な仕様、例えば、倍率と開口数は、各種情報に基づいて取得することができる。
 第1波面WF1はエリア群を伝搬し、上面131に到達する。上面131から、第2波面WF2が出射する。第2波面WF2は、エリア群を伝搬した後の波面である。エリア群は、中心エリア94と周辺エリア95で形成されている。よって、第2波面WF2は、エリア群に含まれる各エリアの屈折率分布を用いて算出することができる。
 観察光学系132では、合焦面FPと像面IPが共役である。像面IPにおける点像強度分布135を求めるためには、合焦面FPにおける波面が必要である。第2波面WF2は、上面131に位置している。第2波面WF2を合焦面FPまで伝搬させることで、合焦面FPにおける波面として第3波面WF3を得ることができる。
 結像光学系132は、フーリエ光学系を形成している。第3波面WF3の結像面に対応する点像強度分布135は、結像光学系132の瞳関数を用いて算出することができる。算出式を以下に示す。算出式において、WF3は第3波面、Pは結像光学系132の瞳関数、U135は像面における波面、I135は像面における強度分布を表す。
Figure JPOXMLDOC01-appb-M000001
 図10と図5(c)では、エリア群の広さが異なる。図10における周辺エリア95の範囲は、図5(c)における周辺エリア95と周辺エリア96を足し合わせた範囲よりも広い。図10では、第1エリアよりも所定方向側に位置する全てのエリアをエリア群と見なして、点像強度分布を算出している。
 点像強度分布135を正確に算出するためには、エリア群を構成するエリア全ての屈折率分布を全て用いることが好ましい。図10では、エリア93が第1エリアなので、エリア93から上面131までの間に位置する全てのエリアの屈折率分布を用いている。第1エリアから標本の上面までの間に位置する全てのエリアの屈折率分布を用いると、点像強度分布をより正確に算出することができる。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、標本を伝搬する波面が、所定方向で、標本の外縁に到達したか否かを判断することが好ましい。第2波面は、外縁に到達したと判断した位置の波面である。
 第1波面WF1は、エリア93から上面131までの間を伝搬する。よって、第1波面WF1が、所定方向で、上面131に到達したか否かを判断する必要がある。第2波面WF2は、上面131に位置している。よって、第2波面WF2は、上面131に到達したと判断した位置の波面である。
 本実施形態の標本画像生成装置では、第2波面は、標本を通過した後の波面であり、仮想観察光学系に到達する前の波面であることが好ましい。
 点像強度分布135の算出では、第3波面WF3が観察光学系132を通過する。第2波面WF2が観察光学系122を通過した後の波面だと、点像強度分布135を正確に算出することができない。よって、第2波面WF2は、上面131から射出された波面で、且つ観察光学系132に到達する前の波面でなくてはならない。
 本実施形態の標本画像生成装置では、プロセッサは、第2取得処理において、分割したエリアを更に分割した小エリア毎に、屈折率分布を取得することが好ましい。更に、プロセッサは、算出処理において、小エリアの屈折率分布を用いて、小エリアの点像強度分布を算出し、小エリアの点像強度分布を用いて、エリアの点像強度分布を算出することが好ましい。
 図11は、屈折率画像を示す図である。図11(a)は、屈折率画像の全体を示す図である。図11(b)は、屈折率画像の一部を示す図である。
 点像強度分布を正確に算出するためには、詳細な屈折率分布を用いれば良い。エリアの数が多いほど又はエリアの面積が小さいほど、詳細な屈折率分布が得られる。屈折率画像90において、エリア140が第1エリアの場合、エリア141はエリア群に含まれる。
 図11(a)では、エリア141は1つの領域で形成されている。そこで、エリア141を、複数の領域に分割する。例えば、図11(b)に示すように、エリア141を16の小エリア142に分割する。この場合、小エリア142毎に屈折率分布が得られるので、詳細な屈折率分布を得ることができる。その結果、点像強度分布を正確に算出することができる。
 波面の伝搬の計算では、各小エリア142の屈折率分布を用いることができる。また、各小エリア142の屈折率分布から、平均の屈折率分布を求めることができる。そこで、波面の伝搬の計算では、平均の屈折率分布をエリア141の屈折率分布として用いることができる。
 また、小エリア毎に屈折率分布が得られるので、小エリア毎に点像強度分布を算出することができる。よって、小エリア142の点像強度分布を用いて、エリア141の点像強度分布を算出することができる。
 本実施形態の標本画像生成装置では、プロセッサは、分割処理で分割したエリアそれぞれについて点像強度分布を仮算出する仮算出処理を実行し、仮算出した点像強度分布の強度ピーク値が、基準の1/5未満のエリアを、仮算出した点像強度分布の強度ピーク値が、基準の1/5以上のエリアよりも小さく設定する分割処理を実行することが好ましい。基準は、標本が存在しないときの点像強度分布の強度ピーク値である。
 図12は、屈折率画像を示す図である。図12(a)は、最初の分割の状態を示す図である。図12(b)は、2回目の分割の状態を示す図である。
 点像強度分布は、屈折率分布を用いて算出される。そのため、点像強度分布の形状は、屈折率の分布状態によって異なる。図12(a)に示すように、エリア150が第1エリアの場合、エリア150より上面151側には、1列のエリアが位置している。よって、点像強度分布の算出では、1列のエリアの屈折率分布を考慮することになる。
 これに対して、エリア152が第1エリアの場合、エリア152より上面151側には、10列のエリアが位置している。よって、点像強度分布の算出では、10列のエリアの屈折率分布を考慮することになる。
 エリア群に含まれるエリアの数が多くなるほど、屈折率分布の広がりが大きくなる。この場合、例えば、計算対象となる屈折率分布が多くなる。屈折率分布の詳細さは、エリアの数又はエリアの面積の影響を受ける。エリアの数が少ない場合又はエリアの面積が大きい場合、屈折率分布の広がりが大きくなるほど、点像強度分布の形状と理想形状との違いが大きくなる。第1エリアに選ばれたエリアおいて、点像強度分布の形状と理想形状との違いが大きい場合がある。この場合、選択されたエリアでは、詳細な屈折率分布に基づいて点像強度分布を算出することが好ましい。
 そこで、仮算出処理を実行する。仮算出処理では、分割処理で分割したエリアそれぞれについて、点像強度分布を仮算出する。続いて、仮算出した点像強度分布の強度ピーク値に基づいて、図12(a)に示すように、対象エリア153と非対象エリア154に分ける。
 対象エリア153は、強度ピーク値が基準の1/5未満のエリアである。非対象エリア154は、強度ピーク値基準の1/5以上のエリアである。基準は、標本が存在しないときの点像強度分布の強度ピーク値である。
 最後に、図12(b)に示すように、対象エリア153の各エリアを、複数のエリアに分割する。その結果、対象エリア153の各エリアの大きさを、非対象エリア154の各エリアの大きさよりも小さく設定することができる。図12(b)では、対象エリア153の各エリアは、4つのエリアに分割されている。
 本実施形態の標本画像生成装置では、プロセッサは、標本を推定する推定処理を実行し、分割処理において、所定方向に直交する方向で、推定した標本のエリアであり、且つ推定した標本の外縁が属するエリアの大きさを、推定した標本のエリアではないエリアであり、且つ推定した標本の外縁が属さないエリアの大きさよりも、小さく設定することが好ましい。
 本実施形態の標本画像生成装置では、XY画像群から、XY画像、XZ画像及びYZ画像を生成することができる。よって、第1画像として、XY画像、XZ画像及びYZ画像を用いることができる。XY画像は、所定方向と直交する面における画像である。
 XY画像においても、第1エリアに選ばれたエリアおいて、点像強度分布の形状と理想形状との違いが大きい場合がある。この場合、選択されたエリアでは、詳細な屈折率分布に基づいて点像強度分布を算出することが好ましい。
 詳細な屈折率分布は、エリアの数を多くするか又はエリアの面積を小さくすることで得られる。1つのエリアを分割することで、エリアの数を多くすることができる。エリアの数を多くするには、例えば、標本を表しているエリアだけを、分割する対象のエリアとすれば良い。この場合、外縁を用いて分割する対象のエリアを抽出することができる。
 エリアの分割は、第1画像で行われる。屈折率画像は第1画像に対応するため、屈折率画像を用いて説明する。
 図13は、屈折率画像を示す図である。図13(a)は、第1例のエリアの分割を示す図である。図13(b)は、第2例のエリアの分割を示す図である。
 図13(a)と図13(b)に示すように、屈折率画像160は、内部エリア161と、外部エリア162と、外縁エリア163と、を有する。
 内部エリア161は、外縁164の内側に位置しているエリアである。内部エリア161には、外縁164は属していない。内部エリア161は、標本を表している。外部エリア162は、外縁164の外側に位置しているエリアである。外部エリア162には、外縁164は属していない。外部エリア162は、標本を表していない。外縁エリア163は、標本の外縁164が属するエリアである。
 第1例のエリアの分割では、図13(a)に示すように、内部エリア161の各エリアは、複数のエリアに分割されている。外部エリア162の各エリアと外縁エリア163の各エリアは、複数のエリアに分割されていない。
 第2例のエリアの分割では、図13(b)に示すように、内部エリア161の各エリアと外縁エリア163の各エリアは、複数のエリアに分割されている。外部エリア162の各エリアは、複数のエリアに分割されていない。
 第1例でも第2例でも、内部エリア161の各エリアは分割されているが、外部エリア162の各エリアは分割されていない。内部エリア161の各エリアの大きさは、外部エリア162の大きさよりも小さく設定されている。
 内部エリア161は、標本を表しているエリアであり、且つ外縁164が属さないエリアである。外部エリア162は、標本を表していないエリアであり、且つ外縁164が属さないエリアである。第1例でも第2例でも、標本を表しているエリアであり、且つ外縁が属さないエリアの大きさは、標本を表していないエリアであり、且つ外縁が属さないエリアの大きさよりも小さく設定されている。
 外縁エリア163については、第1例と第2例とでエリアの分割が異なる。第1例では、外縁エリア163の各エリアは、複数のエリアに分割されていない。これに対して、第2例では、外縁エリア163の各エリアは、複数のエリアに分割されている。
 第1例では、外縁エリア163の各エリアの大きさは、内部エリア161の各エリアの大きさよりも大きく、外部エリア162の大きさと同じである。第2例では、外縁エリア163の各エリアの大きさは、内部エリア161の各エリアの大きさと同じで、外部エリア162の大きさよりも小さい。
 第1例でも第2例でも、標本を表しているエリアの数を多くすることができる。この場合、詳細な屈折率分布に基づいて点像強度分布を算出することができる。その結果、所定方向と直交する面における画像においても、高い正確さで画像を回復することができる。
 本実施形態の標本画像生成装置では、XY画像の取得に使用した顕微鏡の種類によって、算出処理が若干異なる。XY画像の取得に使用した顕微鏡が蛍光顕微鏡と発光顕微鏡の場合について説明する。
 図14は、算出処理のフローチャートである。ステップS10の第1取得処理、ステップS20の分割処理及びステップS30の第2取得処理は終了している。よって、第1画像と屈折率画像は、複数のエリアに分割されている。分割数はNmとNnである。
 ステップS100では、変数mと変数nに、それぞれ1を設定する。
 ステップS110では、第1エリアARE(m,n)を設定する。第1エリアARE(m,n)は、点像強度分布を算出する対象のエリアである。第1画像の各エリアは、屈折率画像における各エリアと一対一で対応している。よって、第1画像で第1エリアARE(m,n)を設定すると、屈折率画像でも第1エリアARE(m,n)が設定される。
 ステップS120では、エリア群を決定する。エリア群は、点像強度分布の算出に用いられる。エリア群の各エリアは、第1エリアARE(m,n)と観察光学系の物体側開口数で決定することができる。エリア群の決定は、屈折率画像で行う。
 物体側開口数の代わりに、散乱光を用いてエリア群の各エリアを決めても良い。又は、第1エリアARE(m,n)よりも標本の上面側に位置する全てのエリアを、エリア群の各エリアとしても良い。
 ステップS130では、エリア群における屈折率分布を求める。点像強度分布は、エリア群に含まれる各エリアの屈折率分布を用いて算出される。屈折率画像は、屈折率分布を有する。エリア群の決定は屈折率画像で行われるので、エリア群を決定することで、エリア群における屈折率分布が求まる。
 ステップS140では、点光源を設定する。点光源は、第1エリアARE(m,n)に設定される。
 ステップS150では、第1波面を設定する。ステップS160では、第2波面を算出する。ステップS170では、第3波面を算出する。ステップS180では、点像強度分布を算出する。第1波面、第2波面、第3波面、点像強度分布については、既に説明しているので、ここでの説明は省略する。
 XY画像の取得に使用した顕微鏡は、蛍光顕微鏡と発光顕微鏡である。蛍光顕微鏡では、励起光は合焦面と、合焦面の前後の広い範囲を均一に照明する。また、発光顕微鏡では、励起光は標本に照射されない。いずれの場合も、励起光強度については考慮しなくて良い。よって、点光源で設定した強度分布だけで、点像強度分布を算出することができる。
 ステップS190では、PSF画像PSF(m,n)を生成する。ステップS180で算出した点像強度分布は、第1エリアARE(m,n)における点像強度分布である。第1エリアARE(m,n)は、変数mの値と変数nの値で変わる。よって、点像強度分布が算出されるごとに、PSF画像PSF(m,n)に点像強度分布を保存する。
 ステップS200では、第1画像PIC1(m,n)を取得する。ステップS210では、第2画像PIC2(m,n)を生成する。第1画像と第2画像については、既に説明しているので、ここでの説明は省略する。第1画像PIC1(m,n)の取得は、ステップS110からステップS220までの間で行えば良い。
 ステップS220では、変数nの値が分割数Nnと比較される。変数nの値が分割数Nnと一致しない場合、ステップS230が実行される。ステップS230では、変数nの値に1が加算される。
 ステップS230が終了すると、ステップS110に戻る。ステップS230で、変数nの値に1が加算されている。よって、新たな第1エリアARE(m,n)について、点像強度分布の算出が行われる。
 ステップS220で、変数nの値が分割数Nnと一致する場合、ステップS240が実行される。ステップS240では、変数mの値が分割数Nmと比較される。変数mの値が分割数Nmと一致しない場合、ステップS250が実行される。ステップS250では、変数mの値に1が加算される。
 ステップS250が終了すると、ステップS110に戻る。ステップS250で、変数mの値に1が加算されている。よって、新たな第1エリアARE(m,n)について、点像強度分布の算出が行われる。
 ステップS240で、変数mの値が分割数Nmと一致する場合、ステップS260が実行される。ステップS260では、第3画像を生成する。第3画像については、既に説明しているので、ここでの説明は省略する。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、設定した点光源の位置における励起光強度を算出し、算出した強度分布と、算出した励起光強度と、を用いて、蛍光強度分布を算出し、算出した蛍光強度分布を用いて、第1エリアの点像強度分布を算出することが好ましい。
 XY画像の取得に使用した顕微鏡がLSM、2光子顕微鏡及びシート照明顕微鏡の場合について説明する。
 LSMと2光子顕微鏡では、励起光は、合焦面上の1点を照明する。例えば、図10に示す屈折率画像90において、励起光は上面131から点光源130に向かって入射する。この場合、励起光は、点光源130から放射される光と同じように、屈折率分布の影響を受ける。
 よって、LSMと2光子顕微鏡では、励起光強度を考慮しなくてはならない。励起光強度は、以下のようにして求めることができる。
 ステップ1では、励起光の集光位置を波源とする波面の振幅分布を計算する。この時、屈折率画像90における屈折率分布は使用しない。励起光の集光位置は点光源を設定するエリア内の位置、すなわち第1エリア内の位置である。
 ステップ2では、ステップ1で計算した波面の振幅分布を用いて、励起光の集光位置における振幅分布を計算する。この時、屈折率画像90における屈折率分布を使用する。
 ステップ3で、ステップ2で計算した励起光の集光位置における振幅分布を用いて、点光源位置における励起光強度Iex(Pi)を計算する。
 所定の強度分布IFL(Pi)は、XY画像の取得に使用した顕微鏡が蛍光顕微鏡又は発光顕微鏡の場合の強度分布である。所定の強度分布IFL(Pi)は、点光源で設定した強度分布基づいて算出した像面における強度分布である。
 XY画像の取得に使用した顕微鏡が蛍光顕微鏡の場合、所定の強度分布IFL(Pi)は蛍光強度分布である。顕微鏡がLSM、2光子顕微鏡及びシート照明顕微鏡では、蛍光顕微鏡と同じように蛍光像が形成される。よって、顕微鏡がLSM、2光子顕微鏡及びシート照明顕微鏡でも、所定の強度分布IFL(Pi)は蛍光強度分布である。
 強度分布F1(Pi)は、LSMを使用した場合の像面における強度分布である。LSMを使用した場合、強度分布F1(Pi)は励起光強度の影響を受ける。強度分布F1(Pi)は以下の式(4)で表される。
 F1(Pi)=Iex(Pi)×IFL(Pi)   (4)
 強度分布F2(Pi)は、2光子顕微鏡を使用した場合の像面における強度分布である。2光子顕微鏡を使用した場合、強度分布F2(Pi)は励起光強度の影響を受ける。強度分布F2(Pi)は以下の式(5)で表される。
 F2(Pi)=Iex(Pi)×IFL(Pi)   (5)
 XY画像の取得にLSMを使用した場合は、強度分布F1(Pi)から点像強度分布を算出すれば良い。また、XY画像の取得に2光子顕微鏡を使用した場合は、強度分布F2(Pi)から点像強度分布を算出すれば良い。
 所定の強度分布IFL(Pi)は蛍光強度分布なので、強度分布F1(Pi)と強度分布F2(Pi)も蛍光強度分布である。
 シート照明顕微鏡では、励起光は合焦面を照明する。例えば、図10に示す屈折率画像90において、合焦面FPに位置する1つのブロック層に入射する。この場合、1つのブロック層の屈折率分布の影響を受ける。
 よって、シート照明顕微鏡では、励起光強度を考慮しなくてはならない。励起光強度は、以下のようにして求めることができる。
 ステップ1では、1つのブロック層における励起光強度を計算する。この時、屈折率画像90における屈折率分布を使用する。
 ステップ2では、1つのブロック層のなかで、点光源を設定するエリア、すなわち第1エリア内における励起光強度I’ex(Pi)を計算する。上述のように、所定の強度分布IFL(Pi)は、蛍光強度分布である。
 強度分布F3(Pi)は、シート照明顕微鏡を使用した場合の像面における強度分布である。シート照明顕微鏡を使用した場合、強度分布F3(Pi)は励起光強度の影響を受ける。強度分布F3(Pi)は以下の式(6)で表される。
 F3(Pi)=I’ex(Pi)×IFL(Pi)   (6)
 XY画像の取得にシート照明顕微鏡を使用した場合は、強度分布F3(Pi)から点像強度分布を算出すれば良い。所定の強度分布IFL(Pi)は蛍光強度分布なので、強度分布F3(Pi)も蛍光強度分布である。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、励起光強度を、励起光波長の屈折率分布を用いて算出することが好ましい。
 所定の強度分布IFL(Pi)の算出、起光強度Iex(Pi)の算出及び励起光強度I’ex(Pi)の算出では、屈折率分布が用いられる。所定の強度分布IFL(Pi)の算出は蛍光の強度分布である。蛍光の波長と励起光の波長とは異なる。よって、所定の強度分布IFL(Pi)の算出では、蛍光の波長における屈折率分布を用いる。励起光強度Iex(Pi)との算出では、励起光の波長における屈折率分布を用いる。
 本実施形態の標本画像生成装置では、第1画像は、共焦点ピンホールを備えた装置で撮影して得られた画像であり、プロセッサは、算出処理において、算出した強度分布を用いて、共焦点ピンホールを通過する光強度を算出し、算出した励起光強度と、算出した光強度と、を用いて蛍光強度を算出し、算出した蛍光強度を用いて、第1エリアの点像強度分布を算出することが好ましい。
 非共焦点型のLSMでは、像面にピンホールが配置されていない。そのため、強度分布F1(Pi)は式(4)で表される。これに対して、共焦点型のLSMでは、像面にピンホールが配置されている。そのため、所定の強度分布IFL(Pi)は、ピンホールの開口部の影響を受ける。
 図15は、所定の強度分布とピンホールの透過特性を示す図である。破線は所定の強度分布を示し、実線はピンホールの透過特性を示している。ピンホールでは、開口部だけを光が通過する。よって、共焦点ピンホールから射出される光の強度分布I’FL(Pi)は、所定の強度分布IFL(Pi)のうち、実線で示す矩形の範囲内に位置する強度分布で決まる。
 強度分布F4(Pi)は、共焦点型LSMを使用した場合の像面における強度分布である。共焦点型LSMを使用した場合、強度分布F4(Pi)は励起光強度の影響を受ける。強度分布F4(Pi)は以下の式(7)で表される。
 F4(Pi)=Iex(Pi)×I’FL(Pi)   (7)
 XY画像の取得に共焦点型LSMを使用した場合は、強度分布F4(Pi)から点像強度分布を算出すれば良い。所定の強度分布IFL(Pi)は蛍光強度分布なので、強度分布F4(Pi)も蛍光強度分布である。
 本実施形態の標本画像生成装置では、プロセッサは、算出処理において、ビーム伝搬法を用いて第2波面を算出することが好ましい。
 図10に示すように、第1波面WF1の位置、第2波面WF2の位置及び第3波面WF3の位置は、各々異なる。第1波面WF1の位置から第2波面WF2の位置までの間と、第2波面WF2の位置から第3波面WF3の位置までの間では、波面が伝搬している。第2波面WF2の算出と第3波面WF3の算出には、ビーム伝搬法を用いれば良い。
 ビーム伝搬法では、物体モデルを複数の薄い層に置き換える。そして、光が各層を通過する際の波面変化を逐次計算して、物体モデルの像を計算する。ビーム伝搬法は、例えば、"High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images" Optica, Vol. 6, No. 9, pp.1211-1219(2019) に、開示されている。
 本実施形態の標本画像生成システムは、標本の光学像を形成する観察光学系と、光学像を撮影する撮像素子と、本実施形態の標本画像生成装置と、を有する。
 本実施形態の標本画像生成システムによれば、高い正確さで画像を回復することができる。
 本実施形態の標本画像生成システムは、メモリと、プロセッサを備え、プロセッサは、メモリから、第1画像を取得する第1取得処理を実行し、取得した第1画像を複数のエリアに分割する分割処理を実行し、メモリから、標本の屈折率分布を取得する第2取得処理を実行し、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成し、算出処理において、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像は、標本を撮影して得られた画像であり、第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、第1エリアは、点像強度分布を算出する対象のエリアであり、エリア群は、所定方向に、第1エリアを起点に、光線が放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。プロセッサは、AIモデルを学習させる機械学習処理を実行し、機械学習処理は、複数のデータセットでAIモデルを学習させる。データセットは、第1画像と第1画像に対応するトレーニングデータを含み、第1画像に対応するトレーニングデータは、第1画像に対応する第2画像である。
 本実施形態の標本画像生成装置では、第1画像から、第3画像が生成される。第1画像は劣化画像で、第3画像は回復画像である。第3画像をトレーニングデータと見なすと、第1画像と第3画像は、機械学習のデータとして用いることができる。以下、第1画像を向上する前の画像とし、第3画像を向上した画像という。
 向上した画像は、教師あり機械学習(以下、「教師ありML」という)でトレーニングされたAIモデルを用いて生成することが可能である。
 AIモデルは、トレーニング処理のデータ分析で見つかったパターンに基づいて推論処理を行うことで、明示的にプログラムを行わずに、コンピュータシステムにタスクを実行する機能を提供する。
 推論処理を実行するより前に、AIモデルを継続的または定期的にトレーニング処理をすることができる。
 教師ありMLのAIモデルは、既存のサンプルデータとトレーニングデータでトレーニングし、新しいデータに関する予測を行うアルゴリズムが含まれる。トレーニングデータは、教師データともいう。
 このようなアルゴリズムは、データ駆動型の予測または結果として表される決定を行うために、サンプルデータとトレーニングデータからAIモデルを構築することによって動作する。
 教師ありMLは、トレーニング処理を実行するとき、サンプルデータとトレーニングデータを入力すると、入力と出力の関係を最も近似する関数を学習し、学習したAIモデルが推論処理を実行するとき、新しいデータ入力時に、同じ関数を実装して対応する出力を生成する。
 一般的に使用される教師ありMLアルゴリズムの例としては、ロジスティック回帰(LR)、ナイーブベイズ、ランダムフォレスト(RF)、ニューラルネットワーク(NN)、ディープニューラルネットワーク(DNN)、マトリックスファクタリゼーション、サポートベクターマシン(SVM)などがある。
 本実施例のトレーニング処理は、教師ありMLの処理を実行することができる。トレーニング処理は、AIモデルをトレーニング又は学習する。
 トレーニング処理を実行すると、AIモデルの入力レイヤーに、十分な数のデータセットが入力され、AIモデルを通じて、出力レイヤーに伝播する。
 図16は、トレーニング処理を示す図である。データセットは、向上する前の画像と、向上した画像と、を含む。向上する前の画像は、サンプルデータである。向上した画像は、サンプルデータに対応するトレーニングデータ又は教師データである。図16では、サンプルデータは、画像1、画像2等で示されている。向上した画像は、トレーニングデータ1、トレーニングデータ2等である。
 トレーニング処理では、サンプルデータから推定データを生成する最適なパラメータを、例えば、ロス関数を用いて探索し、更新する。入力されたサンプルデータに対して推定データを生成し、生成した推定データとトレーニングと差をロス関数で評価し、ロス関数の値が最も小さくなるようなパラメータを探索する。
 本実施例の推論処理は、トレーニングしたAIモデルに対して新たに推論したいデータが入力されると、推論データを出力する推論処理を実行することができる。
 推論処理を実行すると、AIモデルの入力レイヤーに、向上する前の画像を入力し、AIモデルを通じて、出力レイヤーに伝播する。
 推論処理を実行することで、向上する前の画像から向上した画像を生成することができる。
 図17は、本実施形態の標本画像生成システムを示す図である。図17(a)は、第1例の標本画像生成システムを示す図である。図17(b)は、第2例の標本画像生成システムを示す図である。図17(c)は、第3例の標本画像生成システムを示す図である。
 図17(a)に示すように、第1例の標本画像生成システムでは、標本画像生成システム170は、本実施形態の標本画像生成装置のみで構成されている。この場合、標本画像生成装置のプロセッサ3(以下、「第1のプロセッサ」という)では、トレーニング処理と推論処理を実行することができる。
 標本画像生成装置1は、第1のプロセッサと第2プロセッサを備えることができる。第2プロセッサは、第1のプロセッサと異なるプロセッサである。第2プロセッサで、トレーニング処理、推論処理を実行することができる。
 標本画像生成装置1は、第1のプロセッサ、第2プロセッサ及び第3プロセッサを備えることができる。第3プロセッサは、第1のプロセッサ及び第2プロセッサと異なるプロセッサである。第2プロセッサでトレーニング処理を実行し、第3プロセッサで推論処理を実行することができる。
 標本画像生成装置1のメモリ2は、トレーニング処理で使用する向上する前の画像と、向上した画像と、推論処理で使用する向上する前の画像と、を記憶する。
 図17(b)に示すように、第2例の標本画像生成システムでは、標本画像生成システム180は、本実施形態の標本画像生成装置1と、学習推論装置190と、で構成されている。学習推論装置190は、メモリ191と、プロセッサ192、とを備える。
 学習推論装置190では、トレーニング処理と推論処理を実行することができる。この場合、学習推論装置190は、メモリと、1つ以上のプロセッサを備える。推論処理は、トレーニング処理と同じプロセッサで実行することができる。推論処理を、トレーニング処理と異なるプロセッサで実行しても良い。
 学習推論装置のメモリ191は、トレーニング処理で使用する向上する前の画像と、向上した画像と、推論処理で使用する向上する前の画像と、を記憶する。
 図17(c)に示すように、第3例の標本画像生成システムでは、標本画像生成システム200は、本実施形態の標本画像生成装置1と、学習装置210と、推論装置220と、で構成されている。学習装置210は、トレーニング処理を実行し、推論装置220は推論処理を実行する。
 学習装置210は、メモリ211と、プロセッサ212、とを備える。推論装置220は、メモリ221と、プロセッサ222と、を備える。学習装置210のプロセッサ212は、トレーニング処理を実行することができ、推論装置220のプロセッサ222は、推論処理を実行することができる。
 学習装置210のメモリ211は、トレーニング処理で使用する向上する前の画像と、向上した画像と、を記憶する。推論装置220のメモリ221は、推論処理で使用する向上する前の画像を記憶する。
 上述した学習推論装置190と学習装置210は、トレーニング処理で使用するデータを、標本画像生成装置1から、通信経由で又はUSBメモリなどの記録媒体経由で入力し、それぞれの装置が備えるメモリに記憶する。
 本実施形態の標本画像生成システムによれば、高い正確さで画像を回復することができる。
 本実施形態の標本画像生成方法は、第1画像と標本の屈折率分布を用いる標本画像生成方法であって、メモリから、第1画像を取得する第1取得処理を実行し、取得した第1画像を複数のエリアに分割する分割処理を実行し、メモリから、標本の屈折率分布を取得する第2取得処理を実行し、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理を実行し、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成し、算出処理において、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像は、標本を撮影して得られた画像であり、第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、第1エリアは、点像強度分布を算出する対象のエリアであり、エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。
 本実施形態の標本画像生成方法によれば、高い正確さで画像を回復することができる。
 本実施形態の記録媒体は、標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、コンピュータに、メモリから、第1画像を取得する第1取得処理と、取得した第1画像を複数のエリアに分割する分割処理と、メモリから、標本の屈折率分布を取得する第2取得処理と、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する算出処理と、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する第1生成処理と、エリアそれぞれに対応する第2画像を合成し、第1画像に対応する第3画像を生成する処理と、を実行させ、算出処理において、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像は、標本を撮影して得られた画像であり、第1画像における所定方向は、仮想観察光学系の光軸方向のうち仮想観察光学系が存在する方向であり、第1エリアは、点像強度分布を算出する対象のエリアであり、エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。
 本実施形態の記録媒体によれば、高い正確さで画像を回復することができる。
 本発明は、高い正確さで画像を回復することができる標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体に適している。
 1 標本画像生成装置
 2 メモリ
 3 プロセッサ
 4 入力部
 10 顕微鏡システム
 20 顕微鏡
 21 本体
 22 対物レンズ
 23 ステージ
 24 落射照明装置
 25 撮像ユニット
 26 コントローラー
 27 標本
 30 処理装置
 31 入力部
 32 メモリ
 33 プロセッサ
 34 出力部
 40 推定装置
 41 入力部
 42 メモリ
 43 プロセッサ
 44 出力部
 50 標本
 51 観察光学系
 51’ 観察光学系
 52 光軸
 53 XY画像群
 60 光学像
 70 標本
 71 細胞質
 72 細胞核
 80 第1画像
 81 細胞核の画像
 82、83、84 エリア
 90 屈折率画像
 90a 上面
 90b 底面
 91、92、93、97、98 エリア
 94 中心エリア
 95、96 周辺エリア
 100、104 光線
 101 光軸
 102 所定方向
 103 所定外方向
 110 PSF画像
 111、112、113 エリア
 120 第3画像
 130 点光源
 131 上面
 132 観察光学系
 133 対物レンズ
 134 結像レンズ
 135 点像強度分布
 140、141 エリア
 142 小エリア
 150、152 エリア
 151 上面
 153 対象エリア
 154 非対象エリア
 160 屈折率画像
 161 内部エリア
 162 外部エリア
 163 外縁エリア
 164 標本の外縁
 170、180、200 標本画像生成システム
 190 学習推論装置
 191、211、221 メモリ
 192、212、222 プロセッサ
 210 学習装置
 211 メモリ
 212 プロセッサ
 220 推論装置
 221 メモリ
 222 プロセッサ
 OBJ 標本
 AX 光軸
 OS 光学系
 IP 像面
 IMG光学像 
 PIC 光学像の画像
 FP 合焦面
 DEG、PSF、REC エリア
 WF1 第1波面
 WF2 第2波面
 WF3 第3波面

Claims (16)

  1.  メモリと、プロセッサと、を備え、
     第1画像は、標本を撮影して得られた画像であり、
     前記第1画像における所定方向は、仮想観察光学系の光軸方向のうち前記仮想観察光学系が存在する方向であり、
     前記プロセッサは、
     前記メモリから、前記第1画像を取得する第1取得処理を実行し、
     取得した前記第1画像を複数のエリアに分割する分割処理を実行し、
     前記メモリから、前記標本の屈折率分布を取得する第2取得処理を実行し、
     取得した前記屈折率分布を用いて、分割した前記エリアそれぞれについて点像強度分布を算出する算出処理を実行し、
     前記エリアそれぞれについて前記算出した前記点像強度分布を用いて、前記エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
     前記エリアそれぞれに対応する前記第2画像を合成し、前記第1画像に対応する第3画像を生成し、
     前記算出処理において、
     第1エリアの前記点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
     前記第1エリアは、前記点像強度分布を算出する対象のエリアであり、
     前記エリア群は、前記第1エリアを起点に、光線が前記所定方向に放射する範囲の内側にある複数のエリアで構成され、前記所定方向に前記第1エリアを延長した範囲の外側にあるエリアを含むこと特徴とする標本画像生成装置。
  2.  前記プロセッサは、前記算出処理において、
     前記第1エリア内に点光源を設定し、設定した前記点光源を波源とする第1波面を用いて、前記第1エリアの点像強度分布を算出すること特徴とする請求項1に記載の標本画像生成装置。
  3.  前記プロセッサは、前記算出処理において、
     前記第1波面と、前記エリア群に含まれる各エリアに対応する前記屈折率分布を用いて、第2波面を算出し、前記第2波面は、前記所定方向に前記標本を伝播した波面であり、
     算出した前記第2波面を用いて、第3波面に対応する強度分布を算出し、前記第3波面は、前記仮想観察光学系の合焦面の位置の波面であり、
     算出した前記強度分布を用いて、前記第1エリアの点像強度分布を算出すること特徴とする請求項2に記載の標本画像生成装置。
  4.  前記プロセッサは、前記算出処理において、
     前記標本を伝搬する波面が、前記所定方向で、前記標本の外縁に到達したか否かを判断し、
     前記第2波面は、前記外縁に到達したと前記判断した位置の波面であること特徴とする請求項3に記載の標本画像生成装置。
  5.  前記第2波面は、前記標本を通過した後の波面であり、前記仮想観察光学系に到達する前の波面であること特徴とする請求項3に記載の標本画像生成装置。
  6.  前記プロセッサは、前記第2取得処理において、分割した前記エリアを更に分割した小エリア毎に、前記屈折率分布を取得し、
     前記プロセッサは、前記算出処理において、
     前記小エリアの前記屈折率分布を用いて、前記小エリアの点像強度分布を算出し、
     前記小エリアの点像強度分布を用いて、前記エリアの点像強度分布を算出すること特徴とする請求項1に記載の標本画像生成装置。
  7.  前記プロセッサは、
     前記分割処理で分割した前記エリアそれぞれについて点像強度分布を仮算出する仮算出処理を実行し、
     仮算出した点像強度分布の強度ピーク値が、基準の1/5未満の前記エリアを、仮算出した点像強度分布の強度ピーク値が、前記基準の1/5以上の前記エリアよりも小さく設定する前記分割処理を実行し、
     前記基準は、前記標本が存在しないときの点像強度分布の強度ピーク値であること特徴とする請求項1に記載の標本画像生成装置。
  8.  前記プロセッサは、
     前記標本を推定する推定処理を実行し、
     前記分割処理において、
     前記所定方向に直交する方向で、
     推定した前記標本のエリアであり、且つ推定した前記標本の外縁が属さないエリアの大きさを、推定した前記標本のエリアではないエリアであり、且つ推定した前記標本の外縁が属さないエリアの大きさよりも、小さく設定すること特徴とする請求項1に記載の標本画像生成装置。
  9.  前記プロセッサは、前記算出処理において、
     設定した前記点光源の位置における励起光強度を算出し、
     算出した前記強度分布と、算出した前記励起光強度と、を用いて、蛍光強度分布を算出し、
     算出した前記蛍光強度分布を用いて、前記第1エリアの点像強度分布を算出すること特徴とする請求項3に記載の標本画像生成装置。
  10.  前記プロセッサは、前記算出処理において、前記励起光強度を、励起光波長の屈折率分布を用いて算出すること特徴とする請求項9に記載の標本画像生成装置。
  11.  前記第1画像は、共焦点ピンホールを備えた装置で撮影して得られた画像であり、
     前記プロセッサは、前記算出処理において、
     算出した前記強度分布を用いて、前記共焦点ピンホールを通過する光強度を算出し、
     算出した前記励起光強度と、算出した前記光強度と、を用いて蛍光強度を算出し、
     算出した前記蛍光強度を用いて、前記第1エリアの点像強度分布を算出すること特徴とする請求項9に記載の標本画像生成装置。
  12.  前記プロセッサは、前記算出処理において、ビーム伝搬法を用いて前記第2波面を算出すること特徴とする請求項3に記載の標本画像生成装置。
  13.  標本の光学像を形成する観察光学系と、
     前記光学像を撮影する撮像素子と、
     請求項1に記載の標本画像生成装置と、を有することを特徴とする標本画像生成システム。
  14.  メモリと、プロセッサと、を備え、
     第1画像は、標本を撮影して得られた画像であり、
     前記第1画像における所定方向は、仮想観察光学系の光軸方向のうち前記仮想観察光学系が存在する方向であり、
     前記プロセッサは、
     前記メモリから、前記第1画像を取得する第1取得処理を実行し、
     取得した前記第1画像を複数のエリアに分割する分割処理を実行し、
     前記メモリから、前記標本の屈折率分布を取得する第2取得処理を実行し、
     取得した前記屈折率分布を用いて、分割した前記エリアそれぞれについて点像強度分布を算出する算出処理を実行し、
     前記エリアそれぞれについて前記算出した前記点像強度分布を用いて、前記エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
     前記エリアそれぞれに対応する前記第2画像を合成し、前記第1画像に対応する第3画像を生成し、
     前記算出処理において、
     第1エリアの前記点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
     前記第1エリアは、前記点像強度分布を算出する対象のエリアであり、
     前記エリア群は、前記第1エリアを起点に、光線が前記所定方向に放射する範囲の内側にある複数のエリアで構成され、前記所定方向に前記第1エリアを延長した範囲の外側にあるエリアを含み、
     前記プロセッサは、AIモデルを学習させる機械学習処理を実行し、
     前記機械学習処理は、複数のデータセットで前記AIモデルを学習させ、
     前記データセットは、前記第1画像と前記第1画像に対応するトレーニングデータを含み、
     前記第1画像に対応するトレーニングデータは、前記第1画像に対応する前記第2画像であることを特徴とする標本画像生成システム。
  15.  第1画像と標本の屈折率分布を用いる標本画像生成方法であって、
     前記第1画像は、標本を撮影して得られた画像であり、
     前記第1画像における所定方向は、仮想観察光学系の光軸方向のうち前記仮想観察光学系が存在する方向であり、
     前記メモリから、前記第1画像を取得する第1取得処理を実行し、
     取得した前記第1画像を複数のエリアに分割する分割処理を実行し、
     前記メモリから、前記標本の屈折率分布を取得する第2取得処理を実行し、
     取得した前記屈折率分布を用いて、分割した前記エリアそれぞれについて点像強度分布を算出する算出処理を実行し、
     前記エリアそれぞれについて前記算出した前記点像強度分布を用いて、前記エリアそれぞれに対応する第2画像を生成する第1生成処理を実行し、
     前記エリアそれぞれに対応する前記第2画像を合成し、前記第1画像に対応する第3画像を生成し、
     前記算出処理において、
     第1エリアの前記点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
     前記第1エリアは、前記点像強度分布を算出する対象のエリアであり、
     前記エリア群は、前記第1エリアを起点に、光線が前記所定方向に放射する範囲の内側にある複数のエリアで構成され、前記所定方向に前記第1エリアを延長した範囲の外側にあるエリアを含むこと特徴とする標本画像生成方法。
  16.  標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、
     第1画像は、標本を撮影して得られた画像であり、
     前記第1画像における所定方向は、仮想観察光学系の光軸方向のうち前記仮想観察光学系が存在する方向であり、
     前記コンピュータに、
     前記メモリから、前記第1画像を取得する第1取得処理と、
     取得した前記第1画像を複数のエリアに分割する分割処理と、
     前記メモリから、前記標本の屈折率分布を取得する第2取得処理と、
     取得した前記屈折率分布を用いて、分割した前記エリアそれぞれについて点像強度分布を算出する算出処理と、
     前記エリアそれぞれについて前記算出した前記点像強度分布を用いて、前記エリアそれぞれに対応する第2画像を生成する第1生成処理と、
     前記エリアそれぞれに対応する前記第2画像を合成し、前記第1画像に対応する第3画像を生成する処理と、を実行させ、
     前記算出処理において、
     第1エリアの前記点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出し、
     前記第1エリアは、前記点像強度分布を算出する対象のエリアであり、
     前記エリア群は、前記第1エリアを起点に、光線が前記所定方向に放射する範囲の内側にある複数のエリアで構成され、前記所定方向に前記第1エリアを延長した範囲の外側にあるエリアを含むことを特徴するコンピュータ読取可能な記録媒体。
     
PCT/JP2022/012406 2022-03-17 2022-03-17 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体 WO2023175860A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012406 WO2023175860A1 (ja) 2022-03-17 2022-03-17 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012406 WO2023175860A1 (ja) 2022-03-17 2022-03-17 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023175860A1 true WO2023175860A1 (ja) 2023-09-21

Family

ID=88022595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012406 WO2023175860A1 (ja) 2022-03-17 2022-03-17 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023175860A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531840A (ja) * 1998-12-01 2002-09-24 イェダ リサーチ アンド デベロップメント カンパニー リミテッド コンピュータを使用した適応画像形成装置及び方法
JP2012237693A (ja) * 2011-05-13 2012-12-06 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2015178338A1 (ja) * 2014-05-21 2015-11-26 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
US20170205390A1 (en) * 2015-05-07 2017-07-20 Technology Innovation Momentum Fund (Israel) Limited Partnership Interferometric system and method for use with biological cells and organisms including sperm
US20190251330A1 (en) * 2016-06-13 2019-08-15 Nanolive Sa Method of characterizing and imaging microscopic objects
JP2021076575A (ja) * 2019-11-05 2021-05-20 トモキューブ, インコーポレーテッド 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531840A (ja) * 1998-12-01 2002-09-24 イェダ リサーチ アンド デベロップメント カンパニー リミテッド コンピュータを使用した適応画像形成装置及び方法
JP2012237693A (ja) * 2011-05-13 2012-12-06 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2015178338A1 (ja) * 2014-05-21 2015-11-26 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
US20170205390A1 (en) * 2015-05-07 2017-07-20 Technology Innovation Momentum Fund (Israel) Limited Partnership Interferometric system and method for use with biological cells and organisms including sperm
US20190251330A1 (en) * 2016-06-13 2019-08-15 Nanolive Sa Method of characterizing and imaging microscopic objects
JP2021076575A (ja) * 2019-11-05 2021-05-20 トモキューブ, インコーポレーテッド 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置

Similar Documents

Publication Publication Date Title
Baddeley et al. Three-dimensional sub-100 nm super-resolution imaging of biological samples using a phase ramp in the objective pupil
WO2014117079A1 (en) Depth of field 3d imaging slm microscope
CN110378473B (zh) 基于深度学习和随机图案的相位层析方法及装置
DE102017106984B4 (de) Lichtmikroskop und Verfahren zum Betreiben eines Lichtmikroskops mit optimierter Beleuchtungsgeometrie
US6756980B2 (en) Imaging simulation method and imaging simulation system using the same and recording medium programmed with the simulation method
US20150176966A1 (en) Digital holography three-dimensional imaging apparatus and digital holography three-dimensional imaging method
CN114002190B (zh) 三维光学衍射层析成像方法及装置
Weigert et al. Biobeam—Multiplexed wave-optical simulations of light-sheet microscopy
Ikoma et al. A convex 3D deconvolution algorithm for low photon count fluorescence imaging
CN118339494A (zh) 观察装置和观察方法
WO2023175860A1 (ja) 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体
Bouchama et al. Fourier ptychographic microscopy image enhancement with bi-modal deep learning
Wijesinghe et al. Experimentally unsupervised deconvolution for light-sheet microscopy with propagation-invariant beams
Merchant et al. Three-dimensional imaging
CN102109329A (zh) 厚度信息获取装置、方法和程序以及显微镜
CN115272136B (zh) 基于大数据的证件照眼镜反光消除方法、装置、介质及设备
WO2023175862A1 (ja) 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体
EP4310570A1 (en) Microscope system
JP7133718B2 (ja) 屈折率分布推定システム
CN116774426A (zh) 一种生成准无衍射光片的光瞳掩模及其优化设计方法
Wei et al. Blurring kernel extraction and super-resolution image reconstruction based on style generative adersarial networks
Ibrahim et al. Viewing label-free white blood cells using phase-only spatial light modulator
Trattner et al. Can Born approximate the unborn? A new validity criterion for the Born approximation in microscopic imaging
Ahmad et al. Sorting cells from fluorescent markers organization in confocal microscopy: 3D versus 2D images
EP3717951A1 (en) Method of lightnening at least one biological sample, three-dimensional high resolution depletion microscopy method and corresponding microscope

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932134

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024507368

Country of ref document: JP

Kind code of ref document: A