WO2022195805A1 - 顕微鏡システム - Google Patents

顕微鏡システム Download PDF

Info

Publication number
WO2022195805A1
WO2022195805A1 PCT/JP2021/011097 JP2021011097W WO2022195805A1 WO 2022195805 A1 WO2022195805 A1 WO 2022195805A1 JP 2021011097 W JP2021011097 W JP 2021011097W WO 2022195805 A1 WO2022195805 A1 WO 2022195805A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
regions
area
wavefront
detection optical
Prior art date
Application number
PCT/JP2021/011097
Other languages
English (en)
French (fr)
Inventor
鈴木良政
Original Assignee
株式会社エビデント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデント filed Critical 株式会社エビデント
Priority to EP21931555.3A priority Critical patent/EP4310570A1/en
Priority to JP2023506627A priority patent/JPWO2022195805A1/ja
Priority to PCT/JP2021/011097 priority patent/WO2022195805A1/ja
Publication of WO2022195805A1 publication Critical patent/WO2022195805A1/ja
Priority to US18/464,660 priority patent/US20230418038A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/082Condensers for incident illumination only
    • G02B21/084Condensers for incident illumination only having annular illumination around the objective
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0032Optical details of illumination, e.g. light-sources, pinholes, beam splitters, slits, fibers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes

Definitions

  • the present invention relates to microscope systems.
  • the image of the object is acquired with the measurement optical system.
  • An image calculation method is used to calculate what kind of image the object model image will be. Therefore, in this reconstruction method, two things, the measurement optical system and the image calculation method, are important.
  • the optical system of a microscope can be used as the measurement optical system.
  • a microscope optical system uses a halogen lamp or an LED to acquire an image of a specimen.
  • Halogen lamps and LEDs are incoherent light sources.
  • Illumination using an incoherent light source is classified into incoherent illumination, coherent illumination, and partial coherent illumination depending on the lighting conditions. These lights will be explained.
  • Koehler illumination is used in microscopes.
  • the light source is placed on the focal plane of the condenser lens, or an image of the light source is formed on the focal plane of the condenser lens.
  • Light emitted from each point of the light source is converted into parallel rays by a condenser lens.
  • the specimen is thus illuminated with a parallel beam.
  • Changing the size of the light source changes the spatial coherence of the illumination light on the specimen plane. Imaging characteristics change as the spatial coherence of the illumination light changes.
  • the light source can be regarded as a point light source. Illumination that irradiates a specimen with light from a point light source is called coherent illumination.
  • Image computation methods can be classified into linear computation and nonlinear computation.
  • Linear arithmetic considers only one scatter within the sample.
  • Non-linear arithmetic takes into account not only single scattering but also multiple scattering.
  • the linear operation uses the first-order Born approximation.
  • Born approximation even if more than one scattering occurs in the specimen, the more than two scatterings are ignored.
  • sample information and output information are determined in a one-to-one relationship. Therefore, the output information can be calculated analytically.
  • the output information is, for example, an image of the specimen.
  • the image of the object model reconstructed using linear arithmetic is obtained by deconvolving the measured image of the specimen with the point spread intensity distribution.
  • Nonlinear calculation is a calculation method that takes into account the fact that multiple scattering occurs in a sample.
  • One of the nonlinear operations is the beam propagation method.
  • the beam propagation method replaces the object model with multiple thin layers. Then, the image of the object model is calculated by sequentially calculating the wavefront change when the light passes through each layer.
  • the beam propagation method can calculate the image of the object model more accurately than the linear operation.
  • Non-Patent Document 1 discloses a method for restoring the refractive index distribution of a specimen by optimization calculation. This technique utilizes the beam propagation method. Spatial coherent illumination is also used in image acquisition.
  • a three-dimensional optical property is, for example, the refractive index distribution of an object.
  • Non-Patent Document 1 illumination is performed with one luminous flux. In this case, it is necessary to change the illumination angle in order to illuminate the sample from multiple directions. Therefore, it takes time to acquire an image. As a result, it takes a long time from the start of image acquisition to the completion of object model estimation.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a microscope system in which the time from the start of image acquisition to the completion of object model estimation is short.
  • a microscope system includes: Equipped with an incoherent light source, a detection optical system, and an imaging device,
  • An incoherent light source is a light source that emits light that is not temporally coherent
  • the detection optical system is an optical system that forms an optical image of the specimen
  • the imaging element receives an optical image of the specimen formed by the detection optical system.
  • Coherent illumination is illumination with light that is spatially coherent
  • the direction in which the specimen is irradiated with the light beam differs for each coherent illumination
  • the light beams of the coherent illumination pass through different first regions, Each of the first regions satisfies the following condition (1), At least one of the intervals between two adjacent first regions is characterized by satisfying the following condition (2).
  • LS is the area of the first region (unit: mm 2 ); PS is the area of the pupil of the detection optical system (unit: mm 2 ); d is the distance between two adjacent first regions (unit: mm); T is the diameter of the pupil of the detection optical system (unit: mm); is.
  • a microscope system comprises: An incoherent light source, an illumination optical system, a detection optical system, and an imaging device
  • An incoherent light source is a light source that emits light that is not temporally coherent
  • the detection optical system is an optical system that forms an optical image of the specimen
  • the imaging element receives an optical image of the specimen formed by the detection optical system
  • Coherent illumination is illumination with light that is spatially coherent
  • the direction in which the specimen is irradiated with the light beam differs for each coherent illumination
  • the light beams of the coherent illumination are positioned in different second regions, Each of the second regions satisfies the following condition (6), At least one of the intervals between two adjacent second regions is characterized by satisfying the following condition (7).
  • LS' is the area of the second region (unit: mm 2 ); PS′ is the pupil area of the illumination optical system (unit: mm 2 ); d' is the distance between two adjacent second regions (unit: mm); T′ is the diameter of the pupil of the illumination optical system (unit: mm); is.
  • FIG. 1 shows the pupil plane of the detection optical system of a 1st example. It is a figure which shows the pupil plane of the detection optical system of a 2nd example. It is a figure which shows the pupil plane of the detection optical system of a 3rd example. It is a figure which shows the pupil plane of the detection optical system of a 4th example. It is a figure which shows the pupil plane of the detection optical system of a 5th example. It is a figure which shows the pupil plane of the detection optical system of a 6th example.
  • FIG. 1st example It is a figure which shows the pupil plane of the detection optical system of a 2nd example. It is a figure which shows the pupil plane of the detection optical system of a 3rd example. It is a figure which shows the pupil plane of the detection optical system of a 4th example. It is a figure which shows the pupil plane of the detection optical system of a 5th example. It is a figure which shows the pupil plane of the detection optical system of a 6th example.
  • FIG. 11 is a diagram showing a pupil plane of a detection optical system of a seventh example; It is a figure which shows the pupil plane of the detection optical system of the 8th example.
  • FIG. 21 is a diagram showing a pupil plane of a detection optical system of a ninth example; It is a figure which shows the microscope system of this embodiment. It is a figure which shows the pupil plane of an illumination optical system. It is a figure which shows the microscope system of this embodiment.
  • FIG. 10 is a diagram showing an aperture member; It is a figure which shows the microscope system of this embodiment. 4 is a flow chart of a first simulation; It is a figure which shows the optical system used by simulation.
  • FIG. 10 is a diagram showing an image of an estimated sample; FIG.
  • FIG. 4 is a diagram illustrating correction of a wavefront
  • FIG. 10 is a diagram showing the gradient of a sample
  • FIG. 10 is a diagram showing the gradient of a sample
  • It is a figure which shows the microscope system of this embodiment. It is a figure which shows a picked-up image.
  • 10 is a flow chart of a second simulation
  • 10 is a flow chart of a second simulation
  • It is a figure which shows the optical system used by simulation.
  • FIG. 4 is a diagram showing a wavefront at an acquisition position of a photographed image and a wavefront at an imaging plane
  • FIG. 10 is a diagram showing an image of an estimated sample
  • FIG. 4 is a diagram illustrating correction of a wavefront
  • FIG. 2 shows the sample gradient and wavefront propagation
  • Fig. 2 shows the sample gradient and wavefront propagation
  • FIG. 10 is a diagram showing the gradient of a sample
  • FIG. 10 is a diagram showing the gradient of a sample
  • FIG. 11 shows an aperture member and a reconstructed putative sample
  • FIG. 10 is a diagram showing images of the aperture member and the specimen in the measurement of the second example; It is a figure which shows the estimation sample of a 2nd example.
  • a thin specimen is called a "thin specimen”
  • a thick specimen is called a "thick specimen”.
  • the microscope system of this embodiment includes an incoherent light source, a detection optical system, and an imaging device.
  • An incoherent light source is a light source that emits light that is not temporally coherent.
  • the detection optical system is an optical system that forms an optical image of the sample, and the imaging element receives the optical image of the sample formed by the detection optical system.
  • Multiple coherent illuminations are simultaneously provided at the specimen by light emitted from an incoherent light source, where coherent illumination is illumination with light that is spatially coherent. The direction in which the specimen is irradiated with the light flux differs for each coherent illumination. On the pupil plane of the detection optical system, the coherent illumination light beams pass through different first regions.
  • the first area is an area of the light flux passing through the pupil plane of the detection optical system, each of the first areas satisfies the following condition (1), and at least one of the intervals between the two adjacent first areas is The interval satisfies the following condition (2).
  • LS is the area of the first region (unit: mm 2 ); PS is the area of the pupil of the detection optical system (unit: mm 2 ); d is the distance between two adjacent first regions (unit: mm); T is the diameter of the pupil of the detection optical system (unit: mm); is.
  • FIG. 1 is a diagram showing a microscope system and captured images of this embodiment.
  • FIG. 1(a) is a diagram showing a microscope system.
  • FIG.1(b) is a figure which shows a picked-up image.
  • the microscope system 1 includes an incoherent light source 2, a detection optical system 3, and an imaging device 4.
  • the incoherent light source 2 is a light source that emits light that is temporally incoherent. Coherent illumination is performed on the sample 5 by light emitted from an incoherent light source. Coherent illumination is illumination with light that is spatially coherent.
  • each of the plurality of light beams is irradiated onto the sample 5 from different directions.
  • the luminous flux L1 and the luminous flux L2 are illustrated.
  • a luminous flux L1 and a luminous flux L2 are luminous fluxes emitted from the incoherent light source 2 to irradiate the sample 5 .
  • the luminous flux L1 and the luminous flux L2 are mutually independent luminous fluxes, and the sample 5 is irradiated with them at the same time.
  • the direction of the light flux L1 with respect to the specimen 5 and the direction of the light flux L2 with respect to the specimen 5 are different.
  • the luminous flux L1 and the luminous flux L2 are respectively coherent illumination light fluxes.
  • Specimen 5 is a thin specimen.
  • the focal position Fo of the detection optical system 3 is positioned inside the sample 5 .
  • the detection optical system 3 is an optical system that forms an optical image 5' of the specimen 5. Light emitted from the specimen 5 is condensed on the imaging plane IP by the detection optical system 3 . An optical image 5' is formed on the imaging plane IP.
  • the imaging plane of the imaging device 4 is positioned on the imaging plane IP.
  • the imaging element 4 receives an optical image 5 ′ of the specimen 5 formed by the detection optical system 3 .
  • An image of the optical image 5 ′ is acquired by the imaging device 4 .
  • the photographed image I mea (r) shown in FIG. 1B is obtained. r indicates the two-dimensional coordinates of (x, y).
  • the specimen 5 is a thin specimen, one photographed image is acquired. Therefore, the detection optical system 3 and the imaging element 4 do not move in the optical axis direction. Also, the sample 5 does not move in the optical axis direction.
  • the luminous flux emitted from the sample 5 reaches the pupil position Pu of the detection optical system 3 .
  • the sample 5 is simultaneously irradiated with a plurality of light beams. Therefore, a plurality of light beams reach the pupil position Pu at the same time. Moreover, each of the plurality of light beams is irradiated onto the sample 5 from different directions. Therefore, at the pupil position Pu, a plurality of light beams pass through different regions.
  • FIG. 2 is a diagram showing the pupil plane of the detection optical system.
  • the first area is the area of the light flux passing through the pupil plane of the detection optical system.
  • the number of first regions on the pupil plane 10 of the detection optical system 3 is eight.
  • the first area 11 is an area through which the luminous flux L1 passes through the pupil plane 10 .
  • the first area 12 is an area through which the luminous flux L2 passes through the pupil plane 10 .
  • each of the first regions satisfies the following condition (1).
  • LS is the area of the first region (unit: mm 2 );
  • PS is the area of the pupil of the detection optical system (unit: mm 2 ); is.
  • Each of the multiple luminous fluxes is an independent luminous flux. Therefore, the emission positions of the light beams in the light source are different for each light beam.
  • a light beam emitted from the light source is applied to the sample. At this time, it is preferable that the sample is irradiated with one wavefront in the irradiation of the light flux emitted from one emission position.
  • the microscope system of the present embodiment can acquire a captured image I mea (r).
  • the captured image I mea (r) can be used, for example, to estimate the refractive index distribution. Estimation of the refractive index distribution will be described later.
  • a partially coherent imaging beam propagation method is used to compute a computed image from the estimated sample.
  • the parameter (refractive index distribution) of the estimated sample is changed by the gradient descent method or the like so that the calculated image approaches the captured image I mea (r).
  • the computation time is proportional to the number of wavefronts irradiated to the specimen. If the upper limit of condition (1) is exceeded, a plurality of wavefronts will be applied to the specimen by irradiation of the light flux emitted from one emission position. Therefore, the calculation time becomes too long.
  • At least one of the intervals between the two adjacent first regions satisfies the following condition (2).
  • d is the distance between two adjacent first regions (unit: mm);
  • T is the diameter of the pupil of the detection optical system (unit: mm); is.
  • An optical image is formed by the light flux in one first area, and an optical image is formed by the light flux in the other first area. Since the angles of incidence on the sample are different for the two light beams, the two optical images are also different.
  • half of the first area preferably satisfies condition (2).
  • condition (2) When half of the first region satisfies condition (2), mutually different information can be obtained from two adjacent optical images, and a large number of mutually different information can be obtained.
  • condition (2) When estimating the refractive index distribution, it can be estimated with relatively high accuracy.
  • the microscope system of this embodiment preferably satisfies the following condition (3).
  • LSi is the area of the i-th first region (unit: mm 2 );
  • PS is the area of the pupil of the detection optical system (unit: mm 2 );
  • n is the number of first regions; is.
  • condition (3) is the total area obtained by adding the respective areas of the first region.
  • some of the first regions are located within the first annular region, and the first annular region is an area having a radius of 50% or more of the pupil region of the detection optical system.
  • the first annular region is an area having a radius of 50% or more of the pupil region of the detection optical system.
  • FIG. 3 is a diagram showing the pupil plane of the detection optical system of the first example.
  • FIG. 3 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 20 and the first area 21 are positioned on the circumference.
  • the first area 20 is located outside the circumference where the first area 21 is located. Either one of the first area 20 and the first area 21 is sufficient.
  • one circle is drawn with a dashed line.
  • the radius of the circle is 50% of the radius of pupil 10 .
  • the area outside the circle is the first annular area 30 .
  • the first annular region 30 is a region with a radius of 50% or more.
  • the first region 20 and the first region 21 are located in the first annular region 30 .
  • the first example satisfies the conditions (1), (2) and (3).
  • relatively fine structures can be estimated.
  • condition (2) The more first regions that satisfy condition (2), the shorter the calculation time. Even if some of the first regions do not satisfy the condition (2), the computation time is shortened. It is desirable that more than half of the first regions satisfy condition (2).
  • the first regions are arranged so as to form a double circle within the first annular region.
  • a double circle is formed in the first annular region 30 by the first region 20 and the first region 21 . Therefore, a large number of mutually different information can be acquired.
  • relatively fine structures can be estimated.
  • some of the first regions are located within the second annular region, and the second annular region has a radius of 70% to 90% of the pupil region of the detection optical system.
  • a region is preferred.
  • FIG. 4 is a diagram showing the pupil plane of the detection optical system of the second example.
  • FIG. 4 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 20 and the first area 21 are positioned on the circumference.
  • the first area 20 is located outside the circumference where the first area 21 is located. Only the first region 20 may be present and the first region 21 may be absent.
  • the radius of the inner circle is 70% of the radius of pupil 10 .
  • the radius of the outer circle is 90% of the radius of pupil 10 .
  • a region sandwiched between the two circles is the second annular region 31 .
  • the second annular region 31 is a region with a radius of 70% to 90%.
  • the first region 20 is located in the second annular region 31.
  • the second example satisfies the conditions (1), (2) and (3).
  • relatively fine structures can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • some of the first regions are located within the third annular region, and the third annular region has a radius of 50% to 70% of the pupil region of the detection optical system. A region is preferred.
  • FIG. 5 is a diagram showing the pupil plane of the detection optical system of the third example.
  • FIG. 5 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 20 and the first area 21 are positioned on the circumference.
  • the first area 20 is located outside the circumference where the first area 21 is located. Only the first region 21 may be present and the first region 20 may be absent.
  • the radius of the inner circle is 50% of the radius of pupil 10 .
  • the radius of the outer circle is 70% of the radius of pupil 10 .
  • the area sandwiched between the two circles is the third annular area 32 .
  • the third annular region 32 is a region with a radius of 50% to 70%.
  • the first region 21 is located in the third annular region 32.
  • the third example satisfies the conditions (1), (2) and (3).
  • a relatively fine structure can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • some of the first regions are located within the first circular region, and the first circular region is the central region of the pupil region of the detection optical system relative to the first annular region. is preferably
  • FIG. 6 is a diagram showing the pupil plane of the detection optical system of the fourth example.
  • FIG. 6 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 20 and the first area 40 are positioned on the circumference.
  • the first area 20 is positioned outside the circumference of the circumference where the first area 40 is positioned.
  • one circle is drawn with a dashed line.
  • the area outside the circle is the first annular area 30 .
  • the area inside the circle is the first circular area 50 .
  • the first circular area 50 is an area closer to the center than the first annular area.
  • the first area 40 is located in the first circular area 50.
  • the fourth example satisfies the conditions (1), (2) and (3).
  • the fourth example not only relatively fine structures but also relatively coarse structures can be estimated.
  • Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the first regions are arranged so as to form a circle within the first circular region.
  • a circle is formed in the first circular area 50 by the first area 40 .
  • relatively coarse structures can be estimated.
  • the first regions are located within the second circular region, and the second circular region is a region having a radius of 50% or less of the pupil region of the detection optical system. is preferred.
  • FIG. 7 is a diagram showing the pupil plane of the detection optical system of the fifth example.
  • FIG. 7 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 40 and the first area 41 are positioned on the circumference.
  • the first area 41 is positioned outside the circumference of the circumference where the first area 40 is positioned. Either one of the first area 40 and the first area 41 is sufficient.
  • one circle is drawn with a dashed line.
  • the radius of the circle is 50% of the radius of pupil 10 .
  • the area inside the circle is the second circular area 51 .
  • the second circular area 51 is an area with a radius of 50% or less.
  • the first area 40 and the first area 41 are located in the second circular area 51 .
  • the fifth example satisfies the conditions (1), (2) and (3).
  • a relatively rough structure can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the first regions are arranged so as to form a circle within the second circular region.
  • a circle is formed in the second circular area 51 by the first area 40 and the first area 41 . Therefore, a large number of mutually different information can be obtained.
  • relatively coarse structures can be estimated.
  • some of the first regions are located within the fourth annular region, and the fourth annular region has a radius of 30% or more to 50% of the pupil region of the detection optical system. is preferably in the region of
  • FIG. 8 is a diagram showing the pupil plane of the detection optical system of the sixth example.
  • FIG. 8 shows a first region in the pupil plane 10 of the detection optics.
  • the first area 40 and the first area 41 are positioned on the circumference.
  • the first area 41 is positioned outside the circumference of the circumference where the first area 40 is positioned. Only the first region 41 may be present, and the first region 40 may be absent.
  • the radius of the inner circle is 30% of the radius of pupil 10 .
  • the radius of the outer circle is 50% of the pupil 10 radius.
  • the area between the two circles is the fourth annular area 52 .
  • the fourth annular region 52 is a region with a radius of 30% to 50%.
  • the first region 41 is located in the fourth annular region 52.
  • the sixth example satisfies the conditions (1), (2) and (3).
  • a relatively rough structure can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the microscope system of this embodiment some of the first regions are located within the third circular region, and the third circular region is a region having a radius of 30% or less of the pupil region of the detection optical system. is preferred.
  • FIG. 9 is a diagram showing the pupil plane of the detection optical system of the seventh example.
  • FIG. 9 shows the first region in the pupil plane 10 of the detection optics.
  • the first area 40 and the first area 41 are positioned on the circumference.
  • the first area 41 is positioned outside the circumference of the circumference where the first area 40 is positioned. Only the first region 40 may be present, and the first region 41 may be absent.
  • one circle is drawn with a dashed line.
  • the radius of the circle is 30% of the radius of pupil 10 .
  • the area inside the circle is the third circular area 53 .
  • the third circular area 53 is an area with a radius of 30% or less.
  • the first area 40 is located in the third circular area 53.
  • the seventh example satisfies the conditions (1), (2) and (3).
  • a relatively rough structure can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the pupil of the detection optical system is divided into four fan shapes with the same central angle, it is preferable that one of the first regions is located in all four fan shapes.
  • FIG. 10 is a diagram showing the pupil plane of the detection optical system of the eighth example.
  • FIG. 10 shows the first region in the pupil plane 10 of the detection optics.
  • the first regions 60 are arranged in a grid pattern.
  • FIG. 10 two orthogonal straight lines are drawn.
  • the two straight lines divide the pupil plane 10 into a first fan-shaped region 70 , a second fan-shaped region 71 , a third fan-shaped region 72 and a fourth fan-shaped region 74 .
  • the central angle in one fan-shaped region is equal to the central angle in the other fan-shaped region.
  • the first regions 60 are located in all of the first fan-shaped region 70, the second fan-shaped region 71, the third fan-shaped region 72, and the fourth fan-shaped region 74. .
  • the eighth example satisfies the conditions (1), (2) and (3).
  • the refractive index distribution in the eighth example, not only relatively fine structures but also relatively coarse structures can be estimated.
  • Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the microscope system of this embodiment it is preferable that some of the first regions are paired across the center of the pupil of the detection optical system.
  • FIG. 11 is a diagram showing the pupil plane of the detection optical system of the ninth example.
  • FIG. 11 shows the first area on the pupil plane 10 of the detection optical system.
  • the first area 80 and the first area 81 are positioned on the circumference.
  • the first area 80 and the first area 81 form a pair across the center C of the pupil of the detection optical system.
  • the ninth example satisfies the conditions (1), (2) and (3).
  • a relatively rough structure can be estimated. Some of the first regions do not have to satisfy condition (2). It is desirable that more than half of the first regions satisfy condition (2).
  • the number of first regions is smaller than in the seventh example.
  • it can be estimated in a shorter time than the estimation time in the seventh example.
  • each of the first regions preferably satisfies the following condition (4).
  • the optical image becomes dark.
  • the SN in the captured image I mea (r) deteriorates.
  • the captured image I mea (r) can be used, for example, to estimate the refractive index distribution. If the SN in the captured image I mea (r) deteriorates, the estimation accuracy deteriorates.
  • At least one of the intervals between the two adjacent first regions preferably satisfies the following condition (5).
  • d is the distance between two adjacent first regions (unit: mm);
  • T is the pupil diameter of the detection optical system (unit: mm) is.
  • condition (2) It is desirable that the first region that satisfies condition (2) also satisfies condition (5).
  • the microscope system of this embodiment preferably satisfies the following condition (A). 4 ⁇ n ⁇ 100 (A) here, n is the number of first regions; is.
  • the lower limit of condition (A) If the lower limit of condition (A) is not reached, the number of first regions will decrease. Therefore, the optical image becomes dark. If the upper limit of condition (A) is exceeded, for example, it takes a long time to estimate the refractive index profile.
  • the microscope system of this embodiment includes an incoherent light source, an illumination optical system, a detection optical system, and an imaging device.
  • An incoherent light source is a light source that emits light that is not temporally coherent.
  • the detection optical system is an optical system that forms an optical image of the sample, and the imaging element receives the optical image of the sample formed by the detection optical system.
  • Multiple coherent illuminations are simultaneously provided at the specimen by light emitted from an incoherent light source, where coherent illumination is illumination with light that is spatially coherent.
  • the directions in which the specimen is irradiated with the light beams are different for each of the coherent illuminations, and the light beams of the coherent illuminations are positioned in mutually different second regions on the pupil plane of the illumination optical system.
  • Each of the second regions satisfies condition (6) below, and at least one interval between two adjacent second regions satisfies condition (7) below.
  • FIG. 12 is a diagram showing the microscope system of this embodiment. The same numbers are assigned to the same configurations as in FIG. 1, and the description thereof is omitted.
  • a microscope system 90 includes an incoherent light source 2 , an illumination optical system 91 , a detection optical system 3 and an imaging device 4 .
  • the incoherent light source 2 When the incoherent light source 2 is arranged at a position away from the pupil plane PI of the illumination optical system 91, the light emitted from the incoherent light source 2 passes through the pupil plane PI. When the incoherent light source 2 is arranged at the position of the pupil plane PI, light is emitted from the pupil plane PI. The light emitted from the incoherent light source 2 passes through the illumination optical system 91 and irradiates the specimen 5 .
  • FIG. 13 is a diagram showing the pupil plane of the illumination optical system.
  • the number of second regions on the pupil plane 100 of the illumination optical system 91 is eight.
  • the pupil plane 100 multiple lights are located in different regions. Each position of the second region is different from each other.
  • a second area indicates the position of each of the plurality of lights.
  • the second area 101 is an area where the light flux L1 passes through the pupil plane 100, or an area where the light flux L1 is generated.
  • the second area 102 is an area through which the light flux L2 passes through the pupil plane 100, or an area where the light flux L2 is generated.
  • the luminous flux L1 and the luminous flux L2 are respectively coherent illumination light fluxes.
  • each of the second regions satisfies the following condition (6).
  • LS' ⁇ PS' ⁇ 10 ⁇ 3 (6) here, LS' is the area of the second region (unit: mm 2 ); PS′ is the pupil area of the illumination optical system (unit: mm 2 ); is.
  • condition (6) is the same as that of condition (1).
  • At least one of the intervals between two adjacent second regions satisfies the following condition (7).
  • d' is the distance between two adjacent second regions (unit: mm);
  • T′ is the pupil diameter of the illumination optical system (unit: mm), l is.
  • condition (7) is the same as that of condition (2).
  • the detection optical system includes an objective lens and an imaging lens
  • the illumination optical system includes a condenser lens
  • the area of the second region is expressed by the following equation (8).
  • the pupil diameter of the illumination optical system is preferably represented by the following equation (9).
  • PS′ (FLcd ⁇ NA) 2 ⁇ (8)
  • T′ FLcd ⁇ NA (9) here, FLcd is the focal length of the condenser lens (unit: mm), NA is the numerical aperture of the objective lens; is.
  • the microscope system of this embodiment preferably further includes an aperture member.
  • Each of the plurality of luminous fluxes is emitted from each of the plurality of independent regions on the predetermined surface.
  • the predetermined surface is a surface perpendicular to the optical axis of the detection optical system and located on the opposite side of the specimen from the detection optical system.
  • the aperture member is arranged on a predetermined plane and has a plurality of independent transmission areas.
  • the transmissive regions are regions that transmit light, and each of the transmissive regions corresponds to each of the second regions.
  • FIG. 14 is a diagram showing the microscope system of this embodiment. The same numbers are assigned to the same configurations as in FIG. 12, and the description thereof is omitted.
  • the microscope system 110 includes an incoherent light source 2, an illumination optical system 91, an aperture member 111, a detection optical system 3, and an imaging element 4.
  • each of the plurality of light beams is emitted from each of the plurality of regions on the predetermined plane.
  • Each of the plurality of regions are independent of each other.
  • the predetermined surface is a surface perpendicular to the optical axis of the detection optical system 3 and located on the opposite side of the specimen 5 from the detection optical system 3 .
  • the pupil plane PI of the illumination optical system 91 is the predetermined plane.
  • the opening member 111 is arranged on a predetermined surface.
  • the aperture member 111 is arranged on the pupil plane PI.
  • the microscope system 110 may include a processor 112. By providing the processor 112, for example, the refractive index profile of the sample 5 can be estimated.
  • FIG. 15 is a diagram showing an opening member.
  • the aperture member 111 has a plurality of independent transmissive regions 112 .
  • Each of the multiple transmissive regions 112 is independent of each other.
  • a light-shielding region 113 surrounds the transmissive region 112 .
  • the transmissive area 112 is an area that transmits light. As the light passes through the transmissive region 112, the specimen 5 is irradiated with the light flux L1. As the light passes through another transmission region 112, the specimen 5 is irradiated with the light flux L2.
  • the transmission area 112 is the area of light on the pupil plane PI.
  • Each of the transmissive regions 112 corresponds to each of the second regions.
  • the transmissive regions 112 are positioned on the circumference of the four circles.
  • the four circles are the first circle, the second circle, the third circle, and the fourth circle from the outer edge of the opening member toward the center.
  • a transmissive region 112a is located on the circumference of the first circle.
  • a transmissive region 112b is located on the circumference of the second circle.
  • a transmissive region 112c is positioned on the circumference of the third circle.
  • a transmissive region 112d is positioned on the circumference of the fourth circle. If the refractive index distribution is estimated using the aperture member 111, it can be estimated with high accuracy.
  • a transmission region is provided in the center of the aperture member 111 . Positioning of the opening member 111 can be facilitated by providing the transmission region in the center. However, a central transmissive region is not absolutely necessary.
  • the second region is located on the pupil plane PI and the first region is located on the pupil plane Pu.
  • the pupil plane PI can be conjugated with the pupil plane Pu.
  • the second region is conjugated with the first region. Since the second area is the transmissive area of the aperture member, the first area can be regarded as the transmissive area of the aperture member.
  • FIGS. 3-11 can be viewed as showing specific examples of aperture members.
  • FIG. 3 shows a first example of the opening member.
  • a first region 20 and a first region 21 represent the transmissive regions of the aperture member.
  • Some of the aperture members are located in a region with a radius of 50% or more of the pupil region of the illumination optical system.
  • Some of the transmissive regions of the aperture member are arranged to form double circles within the region with a radius of 50% or more.
  • the first example satisfies the conditions (6) and (7).
  • relatively fine structures can be estimated.
  • FIG. 4 shows a second example of the opening member.
  • some of the transmissive regions of the aperture member are located in a region with a radius of 70% to 90% of the pupil region of the illumination optical system.
  • the second example satisfies conditions (6) and (7).
  • relatively fine structures can be estimated.
  • FIG. 5 shows a third example of the opening member.
  • some of the transmissive regions of the aperture member are located in a region with a radius of 50% to 70% of the pupil region of the illumination optical system.
  • the third example satisfies conditions (6) and (7).
  • a relatively fine structure can be estimated.
  • FIG. 6 shows a fourth example of the opening member.
  • some of the transmission areas of the aperture member are located in the area closer to the center than the area with a radius of 50% or more in the pupil area of the illumination optical system.
  • the fourth example satisfies the conditions (6) and (7).
  • the refractive index distribution in the fourth example, not only relatively fine structures but also relatively coarse structures can be estimated.
  • FIG. 7 shows a fifth example of the opening member.
  • some of the transmissive regions of the aperture member are located in a region with a radius of 50% or less of the pupil region of the illumination optical system.
  • the fifth example satisfies the conditions (6) and (7).
  • a relatively rough structure can be estimated.
  • FIG. 8 shows a sixth example of the opening member.
  • some of the transmission regions of the aperture member are located in a region with a radius of 30% or more to 50% of the pupil region of the illumination optical system.
  • the sixth example satisfies the conditions (6) and (7).
  • a relatively rough structure can be estimated.
  • FIG. 9 shows a seventh example of the opening member.
  • some of the transmissive regions of the aperture member are located in regions with a radius of 30% or less in the pupil region of the illumination optical system.
  • the seventh example satisfies the conditions (6) and (7).
  • a relatively rough structure can be estimated.
  • FIG. 10 shows an eighth example of the opening member.
  • the pupil of the illumination optical system is divided into four fan shapes with the same central angle, one of the transmission regions of the aperture member is positioned in all four fan shapes.
  • the eighth example satisfies the conditions (6) and (7).
  • the eighth example not only relatively fine structures but also relatively coarse structures can be estimated.
  • FIG. 11 shows a ninth example of the opening member.
  • some of the transmissive regions of the aperture member are paired across the center of the pupil of the illumination optical system.
  • the ninth example satisfies the conditions (6) and (7).
  • a relatively rough structure can be estimated.
  • the number of transmission regions of the opening member is smaller than that in the seventh example.
  • it can be estimated in a shorter time than the estimation time in the seventh example.
  • each of the plurality of light beams is preferably emitted from each of the plurality of independent regions on the predetermined plane.
  • the predetermined surface is a surface perpendicular to the optical axis of the detection optical system and located on the opposite side of the specimen from the detection optical system.
  • a plurality of incoherent light sources are arranged on a predetermined surface, and each of the incoherent light sources corresponds to each of the second regions.
  • FIG. 16 is a diagram showing the microscope system of this embodiment. The same numbers are assigned to the same configurations as in FIG. 12, and the description thereof is omitted.
  • the microscope system 120 includes an incoherent light source 121, an illumination optical system 122, a detection optical system 3, and an imaging device 4.
  • each of the plurality of light beams is emitted from each of the plurality of regions on the predetermined plane.
  • Each of the plurality of regions are independent of each other.
  • the predetermined surface is a surface perpendicular to the optical axis of the detection optical system 3 and located on the opposite side of the specimen 5 from the detection optical system 3 .
  • the pupil plane PI of the illumination optical system 122 is the predetermined plane.
  • the incoherent light source 121 is arranged on a predetermined plane. In the microscope system 120, an incoherent light source 121 is placed in the pupil plane PI.
  • the incoherent light source 121 has a plurality of independent light emitting regions 121a. Each of the plurality of light emitting regions 121a is independent of each other.
  • the light emitting area 121a is an area that emits light.
  • the specimen 5 is irradiated with the light beam L1 by the light emitted from the light emitting region 121a.
  • the specimen 5 is irradiated with the light beam L2 by the light emitted from the other light emitting region 121a.
  • the light emitting region 121a is a region of light on the pupil plane PI. Each of the light emitting regions 121a corresponds to each of the second regions.
  • FIG. 15 can be regarded as a diagram showing an incoherent light source. 3-11 can also be viewed as examples of incoherent light sources. Therefore, the effects produced by the aperture members of the first to ninth examples are also produced when an incoherent light source is used.
  • the microscope system of this embodiment preferably further includes a processor.
  • the processor obtains the wavefront passing through the estimated specimen modeled on the specimen by forward propagation calculation for each luminous flux, calculates the intensity distribution at the imaging position of the detection optical system corresponding to the wavefront for each luminous flux, A calculated image is generated by summing the intensity distributions, and optimization processing is performed to reduce the difference between the calculated image and the measured image output from the imaging device, thereby reconstructing the estimated sample.
  • the microscope system of this embodiment includes a processor. By providing the processor, the microscope system of this embodiment can reconstruct an estimated specimen. In reconstructing the estimated specimen, for example, the refractive index profile of the specimen is estimated.
  • the wavefront passing through the estimated sample that models the sample is obtained by forward propagation calculation for each luminous flux.
  • the intensity distribution at the imaging position of the detection optical system corresponding to the wavefront is calculated for each light beam.
  • a calculated image is generated by summing the intensity distribution of each light flux. Optimization processing is performed to reduce the difference between the calculated image and the measured image output from the imaging device.
  • the specimen 5 is positioned between the illumination optical system 91 and the detection optical system 3.
  • the sample 5 is positioned between the illumination optical system 122 and the detection optical system 3.
  • a measurement optical system is formed by the illumination optical system and the detection optical system.
  • Light beams are simultaneously incident on the specimen 5 from a plurality of directions.
  • a sample 5 is illuminated by light rays incident simultaneously from a plurality of directions.
  • the illumination by each light beam is coherent illumination.
  • An optical image 5 ′ of the specimen 5 is formed by the detection optical system 3 .
  • the captured image I mea (r) shown in FIG. 1B is obtained.
  • the captured image I mea (r) is input to the processor.
  • the processor reconstructs the estimated sample using the captured image I mea (r). In reconstruction, a simulation is performed.
  • the sample is a thin sample.
  • the specimen is a thick specimen.
  • the optical system used in the first simulation is the measurement optical system of the microscope system 110 shown in FIG.
  • specimen 5 is a thin specimen.
  • a focal position Fo of the detection optical system 3 is located inside the specimen 5 .
  • the distance between the focal position Fo and the surface 5a of the sample 5 is ⁇ z1.
  • the specimen 5 is a thin specimen, one photographed image is acquired. Therefore, the detection optical system 3 and the imaging element 4 do not move in the optical axis direction. Also, the sample 5 does not move in the optical axis direction.
  • FIG. 17 is a flowchart of the first simulation. Before describing the flow chart, the estimated sample and wavefront will be described.
  • FIG. 18 is a diagram showing an optical system used in the simulation.
  • the optical system used in the simulation is the same as the measurement optical system that acquired the captured image I mea (r). In the simulation, instead of sample 5, estimated sample 130 is used.
  • FIG. 18 shows the estimated sample 130, the wavefront f in m (r), the amplitude transmittance T s (r), the wave front g out m (r), the wave front u m (r) at the captured image acquisition position, and the imaging
  • the wavefront u img m (r) in plane is shown.
  • the aperture member 111 is arranged on the pupil plane PI.
  • the second area is the transmission area of the opening member 111 .
  • the second area can be regarded as a light source, since light is emitted from the transmissive area.
  • FIG. 18 shows the second area from the first light source to the NLSth light source.
  • the second area can be arranged at the pupil position of the illumination optical system 91 .
  • the simulation includes the steps of estimating the estimated specimen, calculating the image of the estimated specimen, optimizing the refractive index distribution of the estimated specimen, updating the estimated specimen, and reconstructing the structure of the estimated specimen. and outputting.
  • step S10 the number N_LS of the second regions is set.
  • the transmission area of the aperture member is positioned in the pupil plane of the illumination optical system.
  • the transmissive area is the second area. Therefore, in step S10 , the number of transmissive regions is set in NLS.
  • Step S20 is a step of estimating an estimated sample. For the sample 5, one photographed image is acquired. Since the putative sample 130 is a thin sample, it can be considered as one thin layer. Therefore, the initial value of the amplitude transmittance is set once.
  • step S20 an initial value is set for the amplitude transmittance T s (r) in the estimated sample 130.
  • the estimated sample 130 is a modeled sample of the sample 5 . Therefore, it is preferable that the refractive index distribution of the specimen 5 can be used as the refractive index distribution of the estimated specimen 130 .
  • the refractive index profile of the sample 5 cannot be accurately obtained from the captured image I mea (r). Therefore, the refractive index distribution of the estimated sample 130 must be estimated.
  • the refractive index profile n s (r) of the putative sample 130 can be converted to amplitude transmittance T s (r). Therefore, in step S20, the initial value of the amplitude transmittance T s (r) in the estimated sample 130 is set.
  • k 0 is 2 ⁇ / ⁇ with respect to the wavelength ⁇ of the illumination light
  • n 0 is the refractive index of the medium dz is the thickness of the specimen, is.
  • step S30 the value of variable m is initialized. Steps S41, S42, S43, S44, and S45, which will be described later, are executed for all light sources.
  • the variable m represents the number of times these steps have been performed.
  • Steps S40 and S50 are steps for calculating the image of the estimated specimen.
  • the number of estimated sample images is the same as the number of captured images. Since the number of captured images is one, the number of images of the estimated sample is also one.
  • Step S40 includes steps S41, S42, S43, S44, S45, S46, and S47.
  • step S41 the wavefront f in m (r) incident on the estimated sample 130 is calculated.
  • f in m (r) represents the wavefront of light emitted from the first to NLS -th light sources.
  • the first to NLS -th light sources are positioned, and the first wavefront is the wavefront emitted from each light source. represents the wavefront.
  • each of the second regions can be regarded as a point light source.
  • illumination light Lm is emitted from the m-th light source.
  • Illumination light Lm is incident on the estimated specimen 130 .
  • the wavefront f in m (r) is represented by Equations (11) and (12).
  • k is 2 ⁇ n 0 /r
  • n 0 is the refractive index of the medium
  • ⁇ x,m and ⁇ y,m are incident angles to the estimated sample, is.
  • step S42 the wavefront g out m (r) emitted from the estimated sample 130 is calculated.
  • the wavefront g out m (r) is given by equation (13).
  • T s (r) is the amplitude transmittance of the estimated sample; is.
  • Wavefront g out m (r) is the wave front after wave front f in m (r) has passed through estimated sample 130 . Since wavefront f in m (r) represents the first wavefront, wavefront g out m (r) represents the second wavefront.
  • the wavefront g out m (r) can be directly calculated from the wave front f in m (r) as shown in equation (13).
  • step S43 the wavefront u m (r) at the acquisition position of the captured image is calculated.
  • the acquisition position of the photographed image is the focal position Fo of the detection optical system 3 on the specimen side when the photographed image is acquired.
  • Wavefront u m (r) is represented by Equation (14).
  • ⁇ z1 is the distance from the surface of the estimated specimen to the acquisition position of the photographed image
  • is the wavelength
  • u is a two-dimensional notation of pupil plane coordinates ( ⁇ , ⁇ )
  • F 2D is the two-dimensional Fourier transform
  • F 2D ⁇ 1 is the two-dimensional inverse Fourier transform
  • step S60 which will be described later, the residual is calculated.
  • the captured image and the image of the estimated sample are used to calculate the residual.
  • the distance between the focal position Fo and the surface 5a is ⁇ z1. Assuming that the sign of the distance measured in the traveling direction of light is positive, the captured image acquisition position is - ⁇ z1 away from the surface 5a.
  • the captured image acquisition position is - ⁇ z1 away from the surface 130a of the estimated specimen 130.
  • the wavefront at the acquisition position of the captured image is the wavefront at the position separated from the surface 130a by - ⁇ z1.
  • the wavefront u m (r) in Equation (14) is a wavefront propagated by ⁇ z1 in the direction opposite to the traveling direction of light from the wavefront g out m (r). This wavefront is the wavefront at a position - ⁇ z1 away from the surface 130a. Therefore, the wavefront u m (r) in Equation (14) represents the wavefront at the captured image acquisition position.
  • the acquisition position of the photographed image and the position of the surface 5a are different.
  • sample 5 is a thin sample, the value of ⁇ z1 is very small. Therefore, the acquisition position of the captured image and the position of the surface 5a can be regarded as substantially the same.
  • the estimated sample 130 is also a thin sample. Therefore, the position of the surface 130a and the position separated from the surface 130a by - ⁇ z1 can be regarded as substantially the same. That is, the position of the wavefront g out m (r) and the position of the wave front u m (r) can be regarded as substantially the same. In this case, instead of the wavefront u m (r), the wavefront g out m (r) can also be used.
  • step S44 the wavefront u img m (r) on the imaging plane is calculated.
  • the wavefront u m (r) is propagated to the imaging plane IP. At this time, it passes through the detection optical system 3 .
  • the detection optical system 3 forms a Fourier optical system. Therefore, as shown in Equation (15), the wavefront u img m (r) on the imaging plane IP can be calculated using the wavefront u m (r) and the pupil function P(u) of the detection optical system. .
  • step S45 the wavefront u img m (r) is squared.
  • the wavefront u img m (r) represents the amplitude of the light. Therefore, the light intensity is calculated by squaring the wavefront u img m (r).
  • 2 represents the light intensity distribution on the imaging plane IP. Assuming that the first intensity distribution is the light intensity distribution at the imaging position of the detection optical system,
  • Wavefront f in m (r), wave front g out m (r), wave front u m (r), and wave front u img m (r) are the illumination light emitted from the m-th light source, that is, from one light source It represents the wavefront generated by the emitted illumination light.
  • An estimated specimen image I est (r) is generated by illumination light emitted from all light sources. Therefore, the wavefronts f in m (r), g out m (r), u m (r), and u img m (r) must be determined for all light sources.
  • step S46 it is determined whether or not the value of the variable m matches the number NLS of the second regions. If the determination result is NO, step S47 is executed. If the determination result is YES, step S50 is executed.
  • step S47 If the judgment result is NO: m ⁇ N LS , If the determination result is NO, 1 is added to the value of the variable m in step S47. After step S47 ends, the process returns to step S41.
  • step S47 the value of variable m is increased by one. Therefore, for another light source, the wavefront f in m (r) is calculated in step S41, the wavefront g out m (r) is calculated in step S42, the wavefront u m (r) is calculated in step S43, and the wavefront u m (r) is calculated in step S44. , and
  • Steps S41, S42, S43, S44, and S45 are repeated until
  • FIG. 19 is a diagram showing an image of an estimated specimen.
  • the estimated sample image I est (r) is an image when the wavefront u img m (r) is obtained for all light sources. As shown in FIG. 19, the wavefront u img m (r) is calculated for each light source, and
  • a residual is represented by Formula (17). As shown in Equation (17), the residual is calculated from the captured image I mea (r) and the estimated sample image I est (r).
  • Equation (17) expresses the norm of the matrix.
  • a norm is represented by Formula (18).
  • step S70 the residual is compared with the threshold. If the determination result is NO, step S80 is executed. If the determination result is YES, step S110 is executed.
  • step S80 the value of variable m is initialized. Steps S91 and S92, which will be described later, are executed for all light sources. The variable m represents the number of times these steps have been performed.
  • Step S90 is a step of optimizing the refractive index distribution of the estimated sample.
  • Step S90 includes steps S91, S92, S93, and S94.
  • step S91 the wavefront u' m (r) is calculated.
  • the captured image I mea (r) and the estimated sample image I est (r) are used.
  • a wavefront u′ m (r) is the wavefront at the acquisition position of the captured image.
  • Wavefront u' m (r) is represented by Equation (19).
  • FIG. 20 is a diagram showing wavefront correction.
  • FIG. 20(a) is a diagram showing a wavefront before correction emitted from an estimated sample.
  • FIG. 20B is a diagram showing the wavefront before correction at the acquisition position of the captured image.
  • FIG. 20(c) is a diagram showing the corrected wavefront at the acquisition position of the captured image.
  • FIG. 20(d) is a diagram showing a corrected wavefront emitted from the estimated sample.
  • the estimated specimen image I est (r) is calculated based on the wavefront u img m (r). Further, as shown in FIGS. 19 and 20(b), the wavefront u img m (r) is calculated based on the wave front u m (r).
  • the amplitude transmittance T s (r) is used to calculate the wavefront u m (r).
  • Amplitude transmittance T s (r) is the estimated amplitude transmittance. This amplitude transmittance T s (r) is different from the amplitude transmittance of the sample 5 at the first execution of step S90.
  • the difference between the amplitude transmittance T s (r) and the amplitude transmittance of the sample 5 increases, the difference between the estimated sample image I est (r) and the captured image I mea (r) also increases. Therefore, the difference between the estimated specimen image I est (r) and the captured image I mea (r) can be regarded as reflecting the difference between the amplitude transmittance T s (r) and the amplitude transmittance of the specimen 5. can be done.
  • Equation (11) the estimated specimen image I est (r) and the captured image I mea (r) are used to correct the wavefront u m (r).
  • the corrected wavefront that is, the wavefront u' m (r) is obtained.
  • a new amplitude transmittance T s (r) can be calculated by using the wavefront u′ m (r). Wavefront u′ m (r) is different from wavefront u m (r). Therefore, the new amplitude transmittance T s (r) differs from the amplitude transmittance when the wavefront u m (r) was calculated.
  • the wavefront u′ m (r) can be used to calculate the amplitude transmittance T s (r).
  • the wavefront g out m (r) is required to calculate the amplitude transmittance T s (r).
  • the position of the wavefront u′ m (r) and the position of the wavefront g out m (r) are different. Therefore, in order to calculate the amplitude transmittance T s (r), the wavefront g′ out m (r) is required as shown in FIG. 20(d).
  • Wavefront g′ out m (r) is represented by Equation (20). Since the wavefront u′ m (r) is the wavefront after correction, the wavefront g′ out m (r) is also the wavefront after correction.
  • the acquisition position of the photographed image is a position away from the surface 130a by - ⁇ z1.
  • the position of the surface 130a is ⁇ z1 away from the captured image acquisition position. Therefore, the wavefront at the position of the surface 130a becomes the wavefront at a position separated by ⁇ z1 from the captured image acquisition position.
  • the wavefront g′ out m (r) in Equation (20) is a wavefront obtained by propagating the wavefront u′ m (r) by ⁇ z1 in the traveling direction of light. This wavefront is the wavefront at a position separated by ⁇ z1 from the shadow image acquisition position. Therefore, the wavefront g′ out m (r) in equation (20) represents the wavefront at the position of surface 130a.
  • the wavefront at surface 130 a is the wavefront after f in m (r) has passed through putative sample 130 .
  • f in m (r) represents the first wavefront.
  • the wavefront g′ out m (r) represents the second wavefront.
  • the value of ⁇ z1 is very small.
  • the estimated sample 130 is a thin sample. Therefore, the acquisition position of the captured image and the position separated by ⁇ z1 from the acquisition position of the captured image can be regarded as substantially the same. That is, the position of the wavefront u′ m (r) and the position of the wavefront g out m (r) can be regarded as substantially the same. In this case, instead of the wavefront g'outm (r), the wavefront u'm ( r) can also be used.
  • step S92 the sample gradient ⁇ T s m (r) is calculated.
  • the sample gradient ⁇ T s m is expressed by Equation (21).
  • Gradient descent for example, can be used to calculate the sample gradient ⁇ T s m (r).
  • f * is the complex conjugate of f
  • is a normalization constant to prevent division by zero, is.
  • the amplitude transmittance T s (r) is used to calculate the wavefront g out m (r).
  • Amplitude transmittance T s (r) is the estimated amplitude transmittance. Therefore, this amplitude transmittance T s (r) differs from the amplitude transmittance of the sample 5 .
  • the difference between the wavefront g out m (r) and the wave front g′ out m (r) can be regarded as reflecting the difference between the amplitude transmittance T s (r) and the amplitude transmittance of the sample 5.
  • the wavefront f in m (r), the amplitude transmittance T s (r), the wavefront g out m (r), and the wave front g′ out m (r) are known. Therefore, as shown in Equation (21), using wavefront f in m (r), amplitude transmittance T s (r), wavefront g out m (r), and wave front g′ out m (r), The slope ⁇ T s m (r) can be calculated.
  • FIG. 21 is a diagram showing the gradient of the sample.
  • the sample gradient ⁇ T s m (r) obtained in step S92 represents the sample gradient in the illumination light emitted from one light source.
  • the sample gradient ⁇ T s m (r) is determined by the illumination light emitted from all light sources. Therefore, the sample gradient ⁇ T s m (r) must be determined for all sources.
  • step S93 it is determined whether or not the value of the variable m matches the number of light sources NLS . If the determination result is NO, step S94 is executed. If the determination result is YES, step S100 is executed.
  • step S94 If the judgment result is NO: m ⁇ N LS , If the determination result is NO, 1 is added to the value of the variable m in step S94. After step S94 ends, the process returns to step S91.
  • step S94 the value of variable m is incremented by one. Therefore, for another light source, the wavefront u′ m (r) is calculated in step S91, and the sample gradient ⁇ T s m (r) is calculated in step S92.
  • Steps S91 and S92 are repeated until the sample gradients ⁇ T s m (r) are obtained for all light sources.
  • FIG. 22 is a diagram showing sample gradients.
  • sample gradients ⁇ T s m (r) are determined for all light sources.
  • Step S100 is a step of updating the estimated samples.
  • Equation (22) The updated amplitude transmittance T s (r) is represented by Equation (22). here, ⁇ is the correction factor for the slope of the sample, is.
  • equation (23) can be used to further update the amplitude transmittance T s (r).
  • step S100 ends, the process returns to step S30.
  • Steps S30 to S100 are executed with the updated amplitude transmittance T s (r).
  • the updated amplitude transmittance T s (r) gradually approaches the amplitude transmittance of the sample 5 . That is, the residual becomes smaller. Over time, the residual will be less than the threshold.
  • the refractive index profile of the putative sample is calculated.
  • the amplitude transmittance T s (r) obtained is identical or nearly identical to the amplitude transmittance of the sample 5 .
  • a refractive index distribution n(r) can be obtained from the obtained amplitude transmittance T s (r) and Equation (1).
  • the structure of the estimated specimen can be reconstructed.
  • the reconstructed estimated sample structure can be output to, for example, a display device.
  • the estimated sample 130 is a thin sample. In the first simulation, the structure of the thin specimen can be reconstructed.
  • the amplitude transmittance T s (r) obtained in step S110 is the same as or substantially the same as the amplitude transmittance of the sample 5 .
  • the refractive index distribution n(r) can also be regarded as the same as or substantially the same as the refractive index distribution of the specimen 5 . Therefore, the structure of the reconstructed putative sample 130 can be considered identical or nearly identical to the structure of the sample 5 .
  • steps S40, S50, and S90 are repeatedly performed. As a result, the amplitude transmittance T s (r) is updated. As described above, steps S40 and S50 are steps for calculating the image of the estimated sample. Step S90 is a step of optimizing the refractive index profile of the estimated sample.
  • the amplitude transmittance T s (r) represents the estimated sample. Therefore, the estimated sample is updated by repeatedly executing the step of calculating the image of the estimated sample and the step of optimizing the refractive index distribution of the estimated sample.
  • the optical system used in the second simulation is the measurement optical system of microscope system 120 shown in FIG.
  • FIG. 23 is a diagram showing the microscope system of this embodiment. The same numbers are assigned to the same configurations as in FIG. 16, and the description thereof is omitted.
  • the specimen 140 is a thick specimen. Light beams are simultaneously incident on the specimen 140 from a plurality of directions.
  • FIG. 23 shows the luminous flux L1 and the luminous flux L2.
  • the light emitted from the specimen 140 is condensed on the imaging plane IP by the detection optical system 3 .
  • An optical image 140' is formed on the imaging plane IP.
  • Optical image 140 ′ is an optical image of specimen 140 .
  • the microscope system 120 has a moving stage 141.
  • the moving stage 141 moves in the direction of the optical axis AX.
  • the captured image is used to optimize the refractive index distribution of the estimated specimen. Since the specimen 140 is a thick specimen, multiple captured images are acquired. In order to acquire a plurality of captured images, the sample 140 is fixed and the focal position of the detection optical system 3 is moved by the moving stage 141 .
  • the detection optical system 3 has, for example, an infinity correction objective lens and an imaging lens.
  • the focal position of the detection optical system 3 can be moved by moving the objective lens.
  • the detection optical system 3 and the imaging element 4 may be fixed, and the sample 140 may be moved.
  • FIG. 24 is a diagram showing a captured image.
  • FIG. 24(a) is a diagram showing a photographed image at the first position.
  • FIG. 24(b) is a diagram showing a photographed image at the second position.
  • FIG. 24(c) is a diagram showing a photographed image at the third position.
  • FIG. 24(d) is a diagram showing a photographed image at the fourth position.
  • Photographed image I mea1 (r) An image at a distance of 3 ⁇ z from the surface 140a.
  • Photographed image I mea2 (r) An image at a position at a distance of 2 ⁇ z from the surface 140a.
  • Photographed image I mea3 (r) An image at a position ⁇ z from the surface 140a.
  • Photographed image I mea4 (r) Image of surface 140a.
  • the captured image I mea1 (r), the captured image I mea2 (r), the captured image I mea3 (r), and the captured image I mea4 (r) are input to the processor.
  • the processor reconstructs the estimated sample using the four captured images. In reconstruction, a simulation is performed.
  • 25 and 26 are flowcharts of the second simulation. The same processing as the processing in the first flow chart is given the same number, and the explanation is omitted. Before describing the flow chart, the estimated sample and wavefront will be described.
  • FIG. 27 is a diagram showing an optical system used in the simulation. The same numbers are assigned to the same configurations as in FIG. 16, and the description thereof is omitted.
  • the optical system used in the simulation is the same measurement optical system that acquired the captured image I mea1 (r), the captured image I mea2 (r), the captured image I mea3 (r), and the captured image I mea4 (r).
  • Estimated samples 150 are used instead of samples 140 in the simulation.
  • FIG. 27 illustrates the estimated sample 150, wavefront f in m (r), amplitude transmittance T z (r), and wavefront g out m (r).
  • the wavefront g out m (r) can be directly calculated from the wave front f in m (r) as shown in equation (13).
  • the estimated sample is a thick sample, it is difficult to directly calculate the wavefront goutm (r) from the wavefront finm ( r).
  • the estimated sample 150 is a thick sample. Therefore, the estimated sample 150 is replaced with a plurality of thin layers along the optical axis direction. Then, for each thin layer, the wavefronts on both sides of the layer are calculated.
  • FIG. 28 is a diagram showing wavefronts in each layer. Calculation of the wavefront will be described later.
  • the number of layers can be the same as the number of acquired images. However, the number of layers may be greater than the number of acquired images. In FIG. 28, the number of layers is the same as the number of acquired images.
  • step S10 the number N_LS of the second regions is set.
  • an incoherent light source is located in the pupil plane of the illumination optics. Therefore, in step S10, the number of light sources is set to NLS .
  • step S200 the number of layers N IM is set.
  • the estimated sample 150 is a thick sample.
  • the number of layers N IM represents the number of thin layers.
  • Photographed images are acquired at a plurality of positions on the specimen 140 .
  • the number of layers NIM can be set freely.
  • the number of layers N IM can be greater than the number of locations from which shot images were acquired.
  • the number of thin layers is seven.
  • images of seven putative specimens are calculated.
  • the simulation uses the captured image and the image of the estimated specimen in the thin layer, as described below. Therefore, the seven positions for which the images of the estimated specimen are calculated include the four positions for which the photographed images are obtained.
  • the relationship between the seven positions and the captured image can be as follows.
  • the number 1 represents the position of the first layer. At this position, the captured image I mea1 (r) is acquired. Also, at this position, the image of the estimated specimen in the first layer is calculated. Therefore, the image of the estimated specimen in the first layer and the captured image I mea1 (r) are used in the steps described later.
  • the number 2 represents the position of the second layer. There is no captured image acquired at this position.
  • the number 3 represents the position of the third layer. At this position, the captured image I mea2 (r) is acquired. Also, at this position, the image of the estimated sample in the third layer is calculated. Therefore, the image of the estimated specimen in the third layer and the captured image I mea2 (r) are used in the steps described later.
  • the number 4 represents the position of the 4th layer. There is no captured image acquired at this position.
  • the number 5 represents the position of the fifth layer. At this position, the captured image I mea3 (r) is acquired. Also, at this position, the image of the estimated sample in the fifth layer is calculated. Therefore, the image of the estimated specimen in the fifth layer and the captured image I mea3 (r) are used in the steps described later.
  • the number 6 represents the position of the 6th layer. There is no captured image acquired at this position.
  • the number 7 represents the position of the seventh layer. At this position, the captured image I mea4 (r) is acquired. Also, at this position, the image of the estimated sample in the seventh layer is calculated. Therefore, the image of the estimated specimen in the seventh layer and the captured image I mea4 (r) are used in the steps described later.
  • step S210 the number of corrections N-- CR is set.
  • step S220 the value of variable z is initialized.
  • Step S231, which will be described later, is executed for all acquisition positions.
  • a variable z represents the number of times step S231 has been executed.
  • Step S230 is a step of estimating an estimated sample.
  • Four captured images are acquired for the specimen 140 .
  • the estimated sample 150 has been replaced with four thin layers. Therefore, the initial value of the amplitude transmittance is set four times.
  • Step S230 has steps S231, S232, and S233.
  • step S231 an initial value is set for the amplitude transmittance T z (r) in the estimated sample 150.
  • An intensity transfer equation may be used to set the initial values.
  • the intensity transport equation is disclosed, for example, in the following references. M. R. Teague, “Deterministic phase retrieval: a Greens function solution,” J. Opt. Soc. Am. 73, 1434-1441 (1983)
  • Equation (24) The intensity transport equation at the focal position Z0 is represented by Equation (24).
  • ⁇ 2 is the second-order Laplacian
  • k is the wavenumber
  • ⁇ Z0 (r) is the sample phase distribution on the imaging plane
  • I Z0 is the average light intensity of the optical image
  • ⁇ I meaZ0 (r)/ ⁇ Z is the differential image of two defocused images separated by ⁇ z from the imaging plane, is.
  • Equation (24) the phase distribution ⁇ Z0 (r) of the specimen can be easily obtained from the focused image and the two defocused images.
  • the phase distribution ⁇ Z0 (r) is calculated from the focused image and the two defocused images.
  • a focused image for example, is obtained by moving an objective lens at regular intervals in the optical axis direction. In this case, a plurality of focus images are acquired discretely along the optical axis. Therefore, two defocused images are also acquired discretely.
  • phase distribution ⁇ Z0 (r) represented by Equation (24) is the phase distribution in the plane perpendicular to the optical axis. Since the focused image and the two defocused images are obtained discretely, the plane representing the phase distribution ⁇ Z0 (r) is also discretely positioned along the optical axis.
  • the phase distribution ⁇ z (r) can be converted to amplitude transmittance T s (r). In this way, an initial value can be set for the amplitude transmittance T z (r).
  • phase distribution ⁇ Z0 obtained by the intensity transport equation can be used for the phase distribution ⁇ z (r).
  • step S232 it is determined whether or not the value of the variable z matches the number of acquisition positions NIM . If the determination result is NO, step S233 is executed. If the determination result is YES, step S30 is executed.
  • step S233 If the judgment result is NO: z ⁇ N IM ) If the determination result is NO, 1 is added to the value of the variable z in step S233. After step S233 ends, the process returns to step S231.
  • step S233 the value of variable z is incremented by one. Therefore, an initial value is set to the amplitude transmittance T z (r) in step S231 for another acquisition position.
  • Step S231 is repeated until initial values are set for all acquisition positions.
  • step S30 the value of variable m is initialized. Steps S240, S41, S42, S251, and S260, which will be described later, are performed for all light sources. The variable m represents the number of times these steps have been performed.
  • I estz (r) represents the image of the estimated specimen 30 .
  • the image of putative specimen 150 has been replaced by four thin layers. I estz (r) thus represents the image of the thin layer.
  • Steps S250 and S270 are steps for calculating the image of the estimated specimen.
  • the number of estimated sample images is the same as the number of captured images. Since the number of captured images is four, the number of images of the estimated sample is also four.
  • Step S250 includes steps S41, S42, S251, S252, S253, and S260.
  • step S41 the wavefront f in m (r) incident on the estimated sample 150 is calculated.
  • the wavefront f in m (r) is represented by the above equations (11) and (12).
  • step S42 the wavefront g out m (r) emitted from the estimated sample 150 is calculated.
  • the wavefront g out m (r) is calculated based on the wave front f in m (r).
  • the estimated sample 150 has been replaced by four thin layers. Therefore, the wavefront is calculated at each of the thin layers.
  • the four thin layers are evenly spaced.
  • the distance between two adjacent layers is ⁇ z.
  • a wavefront propagates between the two layers. Therefore, ⁇ z represents the propagation distance.
  • Equation (26) The wavefront f 1 m (r) in the first layer is represented by Equations (26) and (12).
  • the position of the first layer matches the position of the surface 150b of the estimated sample 150.
  • FIG. A wavefront f in m (r) is incident on the surface 150b.
  • the wavefront f 1 m (r) represents the wavefront f in m (r).
  • wavefront f in m (r) is shown.
  • a wavefront g 1 m (r) in the first layer is represented by Equation (27).
  • T 1 (r) is the amplitude transmittance in the first layer; is.
  • the wavefront f 2 m (r) in the second layer is the wavefront when the wavefront g 1 m (r) propagates by ⁇ z.
  • Wavefront f 2 m (r) is represented by equation (28) ⁇ z is the distance between two adjacent layers; ⁇ is the wavelength, u is a two-dimensional notation of pupil plane coordinates ( ⁇ , ⁇ ), F 2D is the two-dimensional Fourier transform; F 2D ⁇ 1 is the two-dimensional inverse Fourier transform, is.
  • a wavefront g 2 m (r) in the second layer is represented by Equation (29).
  • T 2 (r) is the amplitude transmittance in the second layer; is.
  • the wavefront f 3 m (r) in the third layer is the wavefront when the wavefront g 2 m (r) propagates by ⁇ z.
  • a wavefront f 3 m (r) in the third layer is represented by Equation (30).
  • a wavefront g 3 m (r) in the third layer is represented by Equation (31). here, T 3 (r) is the amplitude transmittance in the third layer; is.
  • the wavefront f 4 m (r) in the fourth layer is the wavefront when the wavefront g 3 m (r) propagates by ⁇ z.
  • a wavefront g 4 m (r) in the fourth layer is represented by Equation (33).
  • T 4 (r) is the amplitude transmittance in the fourth layer; is.
  • the position of the fourth layer matches the position of the surface 150a of the estimated sample 150.
  • FIG. A wavefront g out m (r) emerges from the surface 150a.
  • the wavefront g4m (r) represents the wavefront goutm ( r).
  • the wavefront goutm ( r) is shown instead of the wavefront g4m ( r).
  • the wavefront g out m (r) can be calculated by replacing it with a plurality of thin layers and obtaining the wavefront propagating between the two layers.
  • step S251 the value of variable z is initialized. Steps S261, S262, and S263, which will be described later, are executed for all acquisition positions. The variable z represents the number of times these steps have been performed.
  • Step S260 includes steps S261, S262, S263, S264, and S265.
  • step S261 the wavefront u z m (r) at the acquisition position of the captured image is calculated.
  • the wavefront u z m (r) is represented by Equation (34). here, ⁇ D is the distance from the surface of the estimated specimen to the thin layer, is.
  • step S262 the wavefront u imgz m (r) on the imaging plane is calculated.
  • the wavefront u imgz m (r) is represented by Equation (35).
  • step S263 the wavefront u imgz m (r) is squared.
  • the wavefront u imgz m (r) represents the amplitude of the light. Therefore, the light intensity is calculated by squaring the wavefront u imgz m (r).
  • 2 represents the light intensity distribution on the imaging plane IP. Assuming that the first intensity distribution is the light intensity distribution at the imaging position of the detection optical system,
  • step S264 it is determined whether or not the value of the variable z matches the number of acquisition positions N_IM . If the determination result is NO, step S265 is executed. If the determination result is YES, step S252 is executed.
  • step S265 If the judgment result is NO: z ⁇ N IM , If the determination result is NO, 1 is added to the value of the variable z in step S265. After step S265 ends, the process returns to step S261.
  • step S265 the value of the variable z is incremented by one. Therefore, steps S261, S262, and S263 are executed for another acquisition position.
  • Steps S261, S262, and S263 are repeated until initial values are set for all acquisition positions.
  • step S250 will be explained using the first layer and the fourth layer.
  • the second and third layers may be considered in the same way as the first layer.
  • FIG. 29 is a diagram showing the wavefront at the acquisition position of the captured image and the wavefront at the imaging plane.
  • FIG. 29(a) is a diagram showing two wavefronts in the first layer.
  • FIG. 29(b) is a diagram showing two wavefronts in the fourth layer.
  • the photographed image I mea1 (r) is an image at a position at a distance of 3 ⁇ z from the surface 140a.
  • the first layer is 3 ⁇ z away from the surface 150a. Therefore, the position of the first layer corresponds to the acquisition position of the captured image I mea1 (r).
  • the exit position of wavefront g out m (r) coincides with surface 150a. As shown in FIG. 29(a), the exit position of the wavefront g out m (r) is different from the position of the first layer. The first layer is 3 ⁇ z away from the exit location of the wavefront g out m (r).
  • the wavefront u img1 m (r) on the imaging plane is calculated from Equation (35) in step S262.
  • step S263 the light intensity
  • the captured image I mea2 (r) is an image at a position with a distance of 2 ⁇ z from the surface 140a.
  • the second layer is 2 ⁇ z away from surface 150a. Therefore, the position of the second layer corresponds to the acquisition position of the captured image I mea2 (r).
  • the exit position of the wavefront g out m (r) is different from the position of the second layer.
  • the second layer is 2 ⁇ z away from the exit location of the wavefront g out m (r).
  • step S262 After the wavefront u 2 m (r) is calculated, the wavefront u img2 m (r) on the imaging plane is calculated in step S262.
  • step S263 the light intensity
  • the captured image I mea3 (r) is an image at a position with a distance of ⁇ z from the surface 140a.
  • the third layer is separated from surface 150a by ⁇ z. Therefore, the position of the third layer corresponds to the acquisition position of the captured image I mea3 (r).
  • the exit position of the wavefront g out m (r) is different from the position of the third layer.
  • the third layer is ⁇ z away from the exit position of the wavefront g out m (r).
  • step S262 After the wavefront u 3 m (r) is calculated, the wavefront u img3 m (r) on the imaging plane is calculated in step S262.
  • step S263 the light intensity
  • the captured image I mea4 (r) is an image of the surface 140a.
  • the fourth layer conforms to surface 150a. Therefore, the position of the fourth layer corresponds to the acquisition position of the captured image I mea4 (r).
  • the exit position of wavefront g out m (r) is surface 150a.
  • the emission position of the wavefront g out m (r) is the same as the position of the fourth layer.
  • the wavefront u 4 m (r) in the fourth layer is the same as the wavefront g out m (r).
  • Wavefront g out m (r) can be replaced by wave front u 4 m (r).
  • the exit position of wavefront g out m (r) is surface 150a. As shown in FIG. 16(b), the emission position of the wavefront g out m (r) is the same as the position of the fourth layer.
  • the wavefront u 4 m (r) in the fourth layer is the same as the wavefront g out m (r). Wavefront g out m (r) can be replaced by wave front u 4 m (r).
  • step S262 After the wavefront u 4 m (r) is calculated, the wavefront u img4 m (r) on the imaging plane is calculated in step S262.
  • step S263 the light intensity
  • a wavefront uzm(r) and a wavefront uimgzm ( r ) represent wavefronts generated by illumination light emitted from the m -th light source, that is, illumination light emitted from one light source.
  • An estimated specimen image I estz (r) is generated at the acquisition position by illumination light emitted from all light sources. Therefore, wavefronts must be obtained for all light sources.
  • Step S242 is executed.
  • Wavefront f in m (r), wave front g out m (r), wave front u z m (r), and wave front u imgz m (r) are the illumination light emitted from the m-th light source, that is, one light source represents the wavefront generated by the illumination light emitted from
  • An estimated sample image I estz (r) is generated by illumination light emitted from all light sources. Therefore, the wavefronts f in m (r), g out m (r), u z m (r), and u imgz m (r) must be determined for all light sources.
  • step S252 it is determined whether or not the value of variable m matches the number of light sources NLS . If the determination result is NO, step S253 is executed. If the determination result is YES, step S270 is executed.
  • step S253 If the judgment result is NO: m ⁇ N LS , If the determination result is NO, 1 is added to the value of the variable m in step S253. After step S253 ends, the process returns to step S41.
  • step S253 the value of variable m is increased by one. Therefore, for another light source, the wavefront f in m (r) is calculated in step S41, the wavefront g out m (r) is calculated in step S42, the wavefront u z m (r) is calculated in step S261, and the wavefront u z m (r) is calculated in step S261. Wavefront u imgz m (r) is calculated in S262, and
  • Steps S41, S42, S251, and S260 are repeated until
  • FIG. 30 is a diagram showing an image of an estimated specimen.
  • FIG. 30(a) is a diagram showing an image of an estimated sample in the first layer.
  • FIG. 30(b) is a diagram showing an image of an estimated sample in the fourth layer.
  • the estimated sample image I est1 (r) is an image when the wavefront u img1 m (r) is obtained for all light sources.
  • the estimated sample image I est4 (r) is an image when the wavefront u img4 m (r) is obtained for all light sources.
  • the wavefront u img1 m (r) is calculated for each light source,
  • the estimated sample image I est1 (r) in the first layer is calculated.
  • the wavefront u img4 m (r) is calculated for each light source,
  • the estimated sample image I est4 (r) in the fourth layer is calculated.
  • a residual is represented by Formula (37). As shown in Equation (37), the residual is calculated from the captured image I meaz (r) and the estimated sample image I estz (r).
  • the number of captured images is four, and the number of estimated sample images is also four. Therefore, the residual in the first layer is calculated from I mea1 (r) and I est1 (r). The residual in the second layer is calculated from I mea2 (r) and I est2 (r). The residual in the third layer is calculated from I mea3 (r) and I est3 (r). The residual in the fourth layer is calculated from I mea4 (r) and I est4 (r).
  • the residual used in step 70 is calculated from the residual in the first layer, the residual in the second layer, the residual in the third layer, and the residual in the fourth layer.
  • step S70 the residual is compared with the threshold. If the determination result is NO, step S290 is executed. If the determination result is YES, step S110 is executed.
  • step S290 the value of variable L is initialized. Steps S301, S302, S303, S304, and S310, which will be described later, are executed the number of times set in step S210.
  • the variable L represents the number of times these steps have been performed.
  • Step S300 includes steps S301, S302, S303, S304, S305, S306, and S310.
  • step S301 one is randomly selected from 1 to N IM .
  • step S311 which will be described later, the corrected wavefront is calculated. One photographed image and one estimated sample image are used to calculate the corrected wavefront.
  • step S270 images of a plurality of estimated specimens are calculated.
  • One image of the estimated sample is used to calculate the wavefront after correction. Therefore, the estimated sample image used for calculating the wavefront after correction is selected from among a plurality of estimated sample images.
  • the selected number is 1, the number 1 represents the first layer.
  • the captured image at the first acquisition position corresponds to the estimated specimen image in the first layer. Therefore, the captured image at the first acquisition position and the image of the estimated sample in the first layer are used to calculate the corrected wavefront.
  • the selected number represents the fourth layer.
  • the captured image at the fourth acquisition position corresponds to the estimated specimen image in the fourth layer. Therefore, the captured image at the fourth acquisition position and the image of the estimated sample in the fourth layer are used to calculate the corrected wavefront.
  • step S302 the value selected at step S301 is input to the variable zL.
  • one number is randomly selected from the numbers 1 to NIM . For example, if the selected number is 1, 1 will be input to the variable zL in step S302.
  • step S303 the value of variable m is initialized. Steps S311, S312, and S313, which will be described later, are executed for all light sources. The variable m represents the number of times these steps have been performed.
  • Step S310 is a step of optimizing the refractive index distribution of the estimated sample.
  • Step S310 includes steps S311, S312, S313, S314, and S315.
  • step S311 the wavefront u' zL m (r) is calculated.
  • the wavefront u′ zL m (r) is the wavefront at the layer location indicated by the value of the variable zL.
  • the captured image I meazL (r) and the estimated sample image I estzL (r) are used to calculate the wavefront u′ zL m (r).
  • the captured image I meazL (r) is a captured image at a position indicated by the value of the variable zL in the captured image I meaz .
  • the estimated specimen image I estzL (r) is the estimated specimen image at the position indicated by the value of the variable zL in the estimated specimen image I estz .
  • Wavefront u' zL m (r) is represented by Equation (38).
  • FIG. 31 is a diagram showing wavefront correction.
  • FIG. 31(a) is a diagram showing a wavefront before correction emitted from an estimated sample.
  • FIG. 31(b) is a diagram showing the wavefront before correction at the acquisition position of the captured image.
  • FIG. 31(c) is a diagram showing the corrected wavefront at the acquired position of the captured image.
  • FIG. 31(d) is a diagram showing a corrected wavefront emitted from the estimated sample.
  • the estimated sample image I est1 (r) is calculated based on the wavefront u img1 m (r). Further, as shown in FIGS. 30(a) and 31(b), the wavefront u img1 m (r) is calculated based on the wave front u 1 m (r).
  • the amplitude transmittance Tz ( r ) is used to calculate the wavefront u1m (r).
  • Amplitude transmittance T z (r) is the estimated amplitude transmittance.
  • this amplitude transmittance T z (r) is different from the amplitude transmittance of sample 140 .
  • the difference between the estimated specimen image I estz (r) and the captured image I meaz (r) increases. Therefore, the difference between the estimated specimen image I estz (r) and the captured image I meaz (r) can be regarded as reflecting the difference between the amplitude transmittance T z (r) and the amplitude transmittance of the specimen 140. can be done.
  • Equation (38) the estimated specimen image I est1 (r) and the captured image I mea1 (r) are used to correct the wavefront u 1 m (r). As a result, a corrected wavefront, ie, the wavefront u′ 1 m (r) is obtained as shown in FIG. 31(c).
  • a new amplitude transmittance can be calculated by using the wavefront u′ 1 m (r). Wavefront u′ 1 m (r) is different from wavefront u 1 m (r). Therefore, the new amplitude transmittance is different from the amplitude transmittance when the wavefront u 1 m (r) was calculated.
  • step S312 the corrected wavefront g′ out m,zL (r) is calculated.
  • a wavefront g′ out m,zL (r) is a wavefront when the wavefront u′ zL m (r) propagates by ⁇ D.
  • the wavefront g′ out m,zL (r) is represented by Equation (39).
  • the wavefront u′ 1 m (r) can be used to calculate the amplitude transmittance T z (r).
  • the wavefront at the position of the wavefront g out m (r) is required to calculate the amplitude transmittance T z (r).
  • the position of the wavefront u′ 1 m (r) and the position of the wavefront g out m (r) are different. Therefore, in order to calculate the amplitude transmittance T z (r), the wavefront g′ out m,1 (r) is required as shown in FIG. 31(d).
  • a wavefront g′ out m,1 (r) is a wavefront when the wavefront u′ 1 m (r) propagates by 3 ⁇ z.
  • step S313 the sample gradient ⁇ T z m,zL (r) is calculated.
  • ⁇ T z m,zL (r) is the sample gradient when illuminated by the m-th light source and corrected with the captured image and the estimated sample image at the layer position indicated by the value of the variable zL.
  • the sample gradient ⁇ T z m,zL is expressed by Equation (40).
  • Gradient descent for example, can be used to calculate the sample gradient ⁇ T z m,zL (r).
  • f * is the complex conjugate of f ⁇ is a normalization constant to prevent division by zero; is.
  • the putative sample 150 has been replaced with multiple thin layers. Therefore, it is necessary to calculate the sample gradient ⁇ T z m,zL (r) for each thin layer.
  • FIG. 32 is a diagram showing sample gradient and wavefront propagation.
  • FIG. 32(a) is a diagram showing the gradient of the sample.
  • FIG. 32(b) is a diagram showing the propagation of wavefronts.
  • the amplitude transmittance T 4 (r) is used to calculate the wavefront g out m (r). Amplitude transmittance T 4 (r) is the estimated amplitude transmittance. Therefore, this amplitude transmittance T 4 (r) differs from the amplitude transmittance of sample 140 .
  • the difference between the wavefront g out m (r) and the wave front g′ out m,1 (r) is considered to reflect the difference between the amplitude transmittance T 4 (r) and the amplitude transmittance of the sample 140. be able to.
  • the wavefront goutm ( r ) can be used instead of g4m ( r).
  • g' 4 m,1 (r) is the same as g' out m,1 ( r), so if g' 4 m,1 (r) is used instead of g' 4 m,1 (r), good.
  • the sample gradient ⁇ T 3 m,1 (r) is calculated.
  • Calculation of the sample gradient ⁇ T 3 m,1 (r) requires the wavefront at the position of the wavefront g 3 m (r).
  • the wavefront f′ 4 m,1 (r) is required as shown in FIG. 32(b).
  • FIG. 33 is a diagram showing the gradient of the sample and the propagation of the wavefront.
  • FIG. 33(a) is a diagram showing the propagation of the wavefront and the gradient of the sample.
  • FIG. 33(b) is a diagram showing the propagation of wavefronts.
  • the wavefront g′ 3 m,1 (r) is the wavefront when the wavefront f′ 4 m,1 (r) propagates by ⁇ z. This is the propagation of the wavefront from the 4th layer to the 3rd layer.
  • the gradient of the sample can be calculated in the same way as for the third layer.
  • FIG. 34 is a diagram showing sample gradients.
  • the sample gradient ⁇ T 1 m,1 (r) in the first layer the sample gradient ⁇ T 2 m,1 (r) in the second layer, and the sample gradient ⁇ T 3 m,1 (r ), and the sample gradient ⁇ T 4 m,1 (r) in the fourth layer.
  • the sample gradient ⁇ T z m,1 (r) obtained in step S313 is illuminated by the m-th light source and corrected by the photographed image at the position of the first layer and the estimated sample image at the position of the first layer. is the slope of the time sample.
  • the sample gradient ⁇ T z m,1 (r) is determined by the illumination light emitted from all light sources. Therefore, the sample gradient ⁇ T z m,1 (r) must be determined for all light sources.
  • step S314 it is determined whether or not the value of the variable m matches the number of light sources NLS . If the determination result is NO, step S315 is executed. If the determination result is YES, step S304 is executed.
  • step S315 If the judgment result is NO: m ⁇ N LS , If the determination result is NO, 1 is added to the value of the variable m in step S315. After step S315 ends, the process returns to step S311.
  • step S315 the value of variable m is incremented by one. Therefore, for another light source, the wavefront u z ′ m,1 (r) is calculated in step S311, the wavefront g out ′ m,1 (r) is calculated in step S312, and the sample gradient ⁇ T z m , 1 (r) are calculated.
  • Steps S311, S312, and S313 are repeated until the sample gradients ⁇ T z m,1 (r) are obtained for all light sources.
  • FIG. 35 is a diagram showing sample gradients.
  • the sample gradient ⁇ T z m. 1 (r) is sought.
  • Step S304 is a step of updating the estimated samples.
  • Equation (42) The updated amplitude transmittance T z (r) is represented by Equation (42). here, ⁇ is the correction factor for the slope of the sample, is.
  • step S305 it is determined whether or not the value of the variable L matches the number of corrections NCR . If the determination result is NO, step S306 is executed. If the determination result is YES, step S30 is executed.
  • step S306 If the judgment result is NO: m ⁇ N CR ) If the determination result is NO, 1 is added to the value of the variable L in step S306. After step S306 ends, the process returns to step S301.
  • step S301 one is randomly selected from 1 to N IM . Based on the selected numbers, the image and acquisition position of the estimated sample to be used for correction are determined.
  • step S311 the wavefront u z ′ m,1 (r) is calculated, in step S312, the wavefront g out ′ m,1 (r) is calculated, and in step S313, the sample gradient ⁇ T z m,1 (r) is calculated, and the amplitude transmittance T z (r) is updated in step S304.
  • Steps S301, S302, S303, S304, and S310 are repeated until the set number of corrections is completed.
  • Step S30 are executed with the updated amplitude transmittance T z (r).
  • the updated amplitude transmittance T s (r) gradually approaches the amplitude transmittance of the sample 140 . That is, the residual becomes smaller. Over time, the residual will be less than the threshold.
  • step S110 the refractive index distribution of the estimated sample is calculated.
  • the resulting amplitude transmittance T z (r) is identical or nearly identical to the amplitude transmittance of sample 140 .
  • a refractive index distribution n z (r) can be obtained from the obtained amplitude transmittance T z (r) and Equation (1).
  • the structure of the estimated sample can be reconstructed using the refractive index distribution n z (r) obtained in step S110.
  • the reconstructed estimated sample structure can be output to, for example, a display device.
  • the estimated sample 150 is a thick sample. In a second simulation, the structure of the thick specimen can reconstruct the 3D configuration of the putative specimen.
  • the amplitude transmittance T z (r) obtained in step S110 is the same or substantially the same as the amplitude transmittance of sample 140 .
  • the refractive index profile n z (r) can also be considered identical or substantially identical to the refractive index profile of the sample 140 . Therefore, the structure of the reconstructed putative sample 150 can be considered identical or nearly identical to the structure of the sample 6 .
  • steps S250, S270, and S310 are repeatedly performed. As a result, the amplitude transmittance T z (r) is updated. As described above, steps S250 and S270 are steps for calculating the image of the estimated sample. Step S310 is a step of optimizing the refractive index profile of the estimated sample.
  • Amplitude transmittance T z (r) represents an estimated sample. Therefore, the estimated sample is updated by repeatedly executing the step of calculating the image of the estimated sample and the step of optimizing the refractive index distribution of the estimated sample.
  • FIG. 36 is a diagram showing the simulation results of the first example.
  • FIG. 36(a) shows a specimen.
  • FIG. 36(b) shows an aperture member.
  • FIG. 36(c) shows an image of the specimen.
  • FIG. 36(d) shows the reconstructed estimated samples.
  • the specimen is a photonic crystal fiber (hereinafter referred to as "PCF").
  • PCF a photonic crystal fiber
  • a plurality of through holes are formed inside the clad.
  • a through-hole is called a core.
  • the PCF is immersed in liquid.
  • the core is thus filled with liquid.
  • Numerical values of various parameters are as follows. Specimen outer diameter 230 ⁇ m Core diameter 6 ⁇ m Core refractive index 1.466 Clad refractive index 1.462 Refractive index of liquid 1.466 Objective lens numerical aperture 1.4 Objective lens magnification 60 times Objective lens focal length 3 mm Numerical aperture of the second region 0.3, 1.25 Focal length of condenser lens 7mm Diameter of transmission region of aperture member 0.2 mm Wavelength of illumination light 0.7 ⁇ m
  • the numerical aperture of the second region is represented by the numerical aperture of the condenser lens. As shown in FIG. 36(b), the second area is positioned on the circumference of the two circles.
  • the luminous flux emitted from the second area located on the inner circumference can be regarded as a luminous flux corresponding to a numerical aperture of 0.3.
  • the luminous flux emitted from the second area located on the outer circumference can be regarded as a luminous flux corresponding to a numerical aperture of 1.25.
  • the second area is positioned on the circumference of the two circles.
  • the radius to the inner second region is the radius of the inner circle.
  • FIG. 37 is a diagram showing an aperture member and a reconstructed estimated sample.
  • Figures 37(a), 37(b), 37(c) and 37(d) show the opening member.
  • Figures 37(e), 37(f), 37(g) and 37(h) show reconstructed estimated samples.
  • the estimated sample is reconstructed with the numerical aperture of the objective lens set to 1.4 and the wavelength of the illumination light set to 0.7 ⁇ m.
  • the numerical apertures of the second region are 0.3 and 0.5.
  • the core extends in the Z-axis direction.
  • the numerical apertures of the second region are 1.05 and 1.25.
  • artifacts are present in the reconstructed estimated sample. Thin images of the core are present on the left and right.
  • the numerical apertures of the second region are 0.3, 0.5, 1.05, and 1.25.
  • artifacts are present in the reconstructed estimated sample. However, compared to FIG. 37(f), artifacts are reduced.
  • the numerical apertures of the second region are 0.3, 0.5, 1.05, and 1.25. However, two opening members are used.
  • artifacts are present in the reconstructed estimated sample. However, the artifact is of the same degree as in FIG. 37(g).
  • the reconstruction can adjust the proportion of relatively coarse structure estimation and relatively fine structure estimation. By performing such adjustment, the reconstruction time can be shortened.
  • FIG. 38 is a diagram showing images of the aperture member and the specimen in the measurement of the second example.
  • FIG. 38(a) shows an aperture member.
  • FIGS. 38(b) and 38(c) show images of the specimen.
  • the specimen is a grid-like structure.
  • the specimen is immersed in oil with a refractive index of 1.518. Therefore, the space enclosed by the lattice is filled with oil.
  • the numerical aperture of the second region is represented by the numerical aperture of the condenser lens. As shown in FIG. 37(a), the second area is positioned on the circumference of the two circles.
  • the luminous flux emitted from the second area located on the inner circumference can be regarded as a luminous flux corresponding to a numerical aperture of 0.3.
  • the luminous flux emitted from the second area located on the outer circumference can be regarded as a luminous flux corresponding to a numerical aperture of 0.45.
  • the second area is located on the circumference of the two circles.
  • the radius to the inner second region is the radius of the inner circle.
  • FIG. 39 is a diagram showing the results of the second example.
  • FIGS. 39(a) and 39(b) show estimated samples with initial values set.
  • Figures 39(c), 39(d) and 39(e) show reconstructed estimated samples.
  • initial values are set so that the outline of the estimated sample can be determined.
  • initial values are set using the intensity transport equation.
  • FIGS. 37(c) and 37(e) A comparison between FIGS. 37(c) and 37(e) and a comparison between FIGS. 37(d) and 37(e) reveals that setting the initial values can reconstruct the estimated sample with higher accuracy. can.
  • the microscope system 1 shown in FIG. 1(a) can be equipped with an illumination optical system.
  • the microscope system 1 preferably satisfies the conditions (6) and (7).
  • the microscope system 1 can also comprise an aperture member.
  • the present invention is suitable for microscope systems in which the time from the start of image acquisition to the completion of object model estimation is short.

Landscapes

  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

画像の取得を開始してから物体モデルの推定が完了するまでの時間が短い顕微鏡システムを提供する。 顕微鏡システム1は、インコヒーレント光源2と、検出光学系3と、撮像素子4と、を備える。インコヒーレント光源2は、時間的にコヒーレントでない光を射出する光源である。標本では、インコヒーレント光源から射出した光によって複数のコヒーレント照明が同時に行われる。コヒーレント照明は、空間的にコヒーレントである光による照明であり、標本に対して光束が照射される方向は、コヒーレント照明それぞれで異なる。検出光学系の瞳面では、コヒーレント照明それぞれの光束が互いに異なる第1領域を通過する。第1領域のそれぞれは、以下の条件(1)を満たし、隣接する2つの第1領域の間隔のうち少なくとも1つの間隔は、以下の条件(2)を満たす。 LS<PS×10-3 (1) 0.05×T<d (2)

Description

顕微鏡システム
 本発明は、顕微鏡システムに関する。
 実際の物体を計算機上の物体モデルで再現する再構成手法がある。この再構成手法では、測定した物体の画像と計算した物体モデルの画像が一致するように、最適化手法で計算機上の物体モデルを変更していく。最終的に、物体の画像と物体モデルの画像が一致した時に、計算機上の物体モデルは実際の物体を再現している。
 物体の画像は、測定光学系で取得される。物体モデルの画像がどのような画像になるかは、像演算手法で計算される。そのため、この再構成手法では、測定光学系と、像演算手法の2つが重要である。
 測定光学系として、例えば、顕微鏡の光学系を用いることができる。顕微鏡の光学系では、ハロゲンランプ又はLEDを用いて標本の画像を取得する。ハロゲンランプとLEDは、インコヒーレント光源である。
 インコヒーレント光源を用いた照明は、照明条件によって、インコヒーレント照明、コヒーレント照明、及びパーシャルコヒーレント照明に分類される。これらの照明について説明する。
 顕微鏡では、ケーラー照明が用いられる。ケーラー照明では、光源がコンデンサレンズの焦点面上に配置されるか、又は光源の像がコンデンサレンズの焦点面上に形成される。光源の各点から出た光は、コンデンサレンズで平行光線に変換される。よって、標本は平行光束で照明される。
 光源の大きさを変えると、標本面での照明光の空間的コヒーレンスが変化する。照明光の空間的コヒーレンスが変化することで、結像特性が変化する。
 インコヒーレント光源であっても、光源の大きさを非常に小さくすると、光源は点光源とみなせるようになる。点光源からの光を標本に照射する照明は、コヒーレント照明と呼ばれる。
 像演算手法は、線形演算と非線形演算に分類できる。線形演算では、標本内の1回の散乱のみが考慮される。非線形演算では、1回の散乱だけでなく、多重散乱も考慮される。
 線形演算では、1次ボルン近似を利用している。ボルン近似では、標本で2回以上の散乱が生じても、2回以上の散乱は無視される。線形演算では、標本情報と出力情報が一対一の関係に決まる。そのため、解析的に出力情報を計算できる。出力情報は、例えば、標本の像である。
 線形演算について、顕微鏡での結像を例に説明する。標本情報(標本の透過率分布)Oと出力情報(像強度分布)Iを光学系の点像強度分布PSFのコンボリューションの線形システムとみなせるとき、出力情報Iは、以下の式で表される。
 I=PSF*O
 ここで、*は、コンボリューションを表す。
 線形演算では、計算時間は短いが、2回以上の散乱は無視しているため計算精度は低くなる。線形演算を利用して再構成した物体モデルの像は、測定した標本の像を点像強度分布でデコンボリューションして求める。
 非線形演算は、標本で複数回の散乱が生じることを考慮した演算手法である。非線形演算の1つに、ビーム伝搬法がある。ビーム伝搬法では、物体モデルを複数の薄い層に置き換える。そして、光が各層を通過する際の波面変化を逐次計算して、物体モデルの像を計算する。
 ビーム伝搬法は、線形演算に比べて、より正確に、物体モデルの像を計算できる。
 最適化計算で標本の屈折率分布を復元する手法が、非特許文献1に開示されている。この手法では、ビーム伝搬法を利用している。また、画像の取得では、空間コヒーレント照明が行われている。
 画像から物体モデルの推定を推定することで、三次元光学特性を推定することができる。三次元光学特性は、例えば、物体の屈折率分布である。
 非特許文献1では、照明は一つの光束で行われている。この場合、標本を複数の方向から照明するためには、照明角度を変える必要がある。そのため、画像の取得に時間かかる。その結果、画像の取得を開始してから物体モデルの推定が完了するまでの時間が長い。
 本発明は、このような課題に鑑みてなされたものであって、画像の取得を開始してから物体モデルの推定が完了するまでの時間が短い顕微鏡システムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係る顕微鏡システムは、
 インコヒーレント光源と、検出光学系と、撮像素子と、を備え、
 インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源であり、
 検出光学系は、標本の光学像を形成する光学系であり、
 撮像素子は、検出光学系により形成された標本の光学像を受光し、
 標本では、インコヒーレント光源から射出した光によって複数のコヒーレント照明が同時に行われ、
 コヒーレント照明は、空間的にコヒーレントである光による照明であり、
 標本に対して光束が照射される方向は、コヒーレント照明それぞれで異なり、
 検出光学系の瞳面では、コヒーレント照明それぞれの光束が互いに異なる第1領域を通過し、
 第1領域のそれぞれは、以下の条件(1)を満たし、
 隣接する2つの第1領域の間隔のうち少なくとも1つの間隔は、以下の条件(2)を満たすことを特徴とする。
 LS<PS×10-3   (1)
 0.05×T<d   (2)
 ここで、
 LSは、第1領域の面積(単位はmm)、
 PSは、検出光学系の瞳の面積(単位はmm)、
 dは、隣接する2つの第1領域の間隔(単位はmm)、
 Tは、検出光学系の瞳の直径(単位はmm)、
である。
 本発明の少なくとも幾つかの実施形態に係る顕微鏡システムは、
 インコヒーレント光源と、照明光学系と、検出光学系と、撮像素子と、を備え、
 インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源であり、
 検出光学系は、標本の光学像を形成する光学系であり、
 撮像素子は、検出光学系により形成された標本の光学像を受光し、
 標本では、インコヒーレント光源から射出した光によって複数のコヒーレント照明が同時に行われ、
 コヒーレント照明は、空間的にコヒーレントである光による照明であり、
 標本に対して光束が照射される方向は、コヒーレント照明それぞれで異なり、
 照明光学系の瞳面では、コヒーレント照明それぞれの光束が互いに異なる第2領域に位置し、
 第2領域のそれぞれは、以下の条件(6)を満たし、
 隣接する2つの第2領域の間隔のうち少なくとも1つの間隔は、以下の条件(7)を満たすことを特徴とする。
 LS’<PS’×10-3   (6)
 0.05×T’<d’   (7)
 ここで、
 LS’は、第2領域の面積(単位はmm)、
 PS’は、照明光学系の瞳の面積(単位はmm)、
 d’は、隣接する2つの第2領域の間隔(単位はmm)、
 T’は、照明光学系の瞳の直径(単位はmm)、
である。
 本発明によれば、画像の取得を開始してから物体モデルの推定が完了するまでの時間が短い顕微鏡システムを提供することができる。
本実施形態の顕微鏡システムと撮影画像を示す図である。 検出光学系の瞳面を示す図である。 第1例の検出光学系の瞳面を示す図である。 第2例の検出光学系の瞳面を示す図である。 第3例の検出光学系の瞳面を示す図である。 第4例の検出光学系の瞳面を示す図である。 第5例の検出光学系の瞳面を示す図である。 第6例の検出光学系の瞳面を示す図である。 第7例の検出光学系の瞳面を示す図である。 第8例の検出光学系の瞳面を示す図である。 第9例の検出光学系の瞳面を示す図である。 本実施形態の顕微鏡システムを示す図である。 照明光学系の瞳面を示す図である。 本実施形態の顕微鏡システムを示す図である。 開口部材を示す図である。 本実施形態の顕微鏡システムを示す図である。 第1のシミュレーションのフローチャートである。 シミュレーションで用いる光学系を示す図である。 推定標本の像を示す図である。 波面の補正を示す図である。 標本の勾配を示す図である。 標本の勾配を示す図である。 本実施形態の顕微鏡システムを示す図である。 撮影画像を示す図である。 第2のシミュレーションのフローチャートである。 第2のシミュレーションのフローチャートである。 シミュレーションで用いる光学系を示す図である。 各層における波面を示す図である。 撮影画像の取得位置における波面と結像面における波面を示す図である。 推定標本の像を示す図である。 波面の補正を示す図である。 標本の勾配と波面の伝搬を示す図である。 標本の勾配と波面の伝搬を示す図である。 標本の勾配を示す図である。 標本の勾配を示す図である。 第1例のシミュレーションの結果を示す図である。 開口部材と再構成した推定標本を示す図である。 第2例の測定における開口部材と標本の像を示す図である。 第2例の推定標本を示す図である。
 実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 以下の説明では、厚みが薄い標本を「薄い標本」といい、厚みが厚い標本を「厚い標本」という。
 本実施形態の顕微鏡システムは、インコヒーレント光源と、検出光学系と、撮像素子と、を備える。インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源である。検出光学系は、標本の光学像を形成する光学系であり、撮像素子は、検出光学系により形成された標本の光学像を受光する。標本では、インコヒーレント光源から射出した光によって複数のコヒーレント照明が同時に行われ、コヒーレント照明は、空間的にコヒーレントである光による照明である。標本に対して光束が照射される方向は、コヒーレント照明それぞれで異なる。検出光学系の瞳面では、コヒーレント照明のそれぞれの光束が互いに異なる第1領域を通過する。第1領域は、検出光学系の瞳面を通過する光束の領域であり、第1領域のそれぞれは、以下の条件(1)を満たし、隣接する2つの第1領域の間隔のうち少なくとも1つの間隔は、以下の条件(2)を満たす。
 LS<PS×10-3   (1)
 0.05×T<d   (2)
 ここで、
 LSは、第1領域の面積(単位はmm)、
 PSは、検出光学系の瞳の面積(単位はmm)、
 dは、隣接する2つの第1領域の間隔(単位はmm)、
 Tは、検出光学系の瞳の直径(単位はmm)、
である。
 図1は、本実施形態の顕微鏡システムと撮影画像を示す図である。図1(a)は、顕微鏡システムを示す図である。図1(b)は、撮影画像を示す図である。
 図1(a)に示すように、顕微鏡システム1は、インコヒーレント光源2と、検出光学系3と、撮像素子4と、を備える。
 インコヒーレント光源2は、時間的にコヒーレントでない光を射出する光源である。標本5では、インコヒーレント光源から射出した光によって、コヒーレント照明が行われる。コヒーレント照明は、空間的にコヒーレントである光による照明である。
 標本5に対するコヒーレント照明では、複数の光束が、同時に標本5に照射される。また、複数の光束のそれぞれは、異なる方向から標本5に照射される。
 図1(a)では、光束L1と光束L2が図示されている。光束L1と光束L2は、標本5に照射される光束であって、インコヒーレント光源2から射出した光束である。光束L1と光束L2は、互いに独立した光束であって、標本5に同時に照射される。標本5に対する光束L1の向きと、標本5に対する光束L2の向きは異なる。光束L1と光束L2は、それぞれがコヒーレント照明光の光束である。
 標本5は、薄い標本である。図1では、検出光学系3の焦点位置Foは、標本5の内部に位置している。
 検出光学系3は、標本5の光学像5’を形成する光学系である。標本5から射出した光は、検出光学系3によって、結像面IPに集光される。結像面IPに、光学像5’が形成される。
 結像面IPには、撮像素子4の撮像面が位置している。撮像素子4は、検出光学系3によって形成された標本5の光学像5’を受光する。撮像素子4によって、光学像5’の画像の取得が行われる。その結果、図1(b)に示す撮影画像Imea(r)が得られる。rは、(x,y)の2次元座標を示す。
 標本5は、薄い標本なので、1つの撮影画像が取得される。よって、検出光学系3と撮像素子4は、光軸方向に移動しない。また、標本5も、光軸方向に移動しない。
 標本5から射出した光束は、検出光学系3の瞳位置Puに到達する。標本5には、複数の光束が、同時に照射される。よって、瞳位置Puには、複数の光束が同時に到達する。また、複数の光束のそれぞれは、異なる方向から標本5に照射される。よって、瞳位置Puでは、複数の光束が互いに異なる領域を通過する。
 図2は、検出光学系の瞳面を示す図である。第1領域は、検出光学系の瞳面を通過する光束の領域である。
 図2では、検出光学系3の瞳面10における第1領域の数は8である。例えば、第1領域11は、光束L1が瞳面10を通過する領域である。第1領域12は、光束L2が瞳面10を通過する領域である。
 本実施形態の顕微鏡システムでは、第1領域のそれぞれは、以下の条件(1)を満たす。
 LS<PS×10-3   (1)
 ここで、
 LSは、第1領域の面積(単位はmm)、
 PSは、検出光学系の瞳の面積(単位はmm)、
である。
 複数の光束のそれぞれは、独立した光束である。よって、光源における光束の射出位置は、それぞれの光束で異なる。光源から射出した光束は、標本に照射される。このとき、1つの射出位置から射出した光束の照射では、1つの波面が標本に照射されることが好ましい。
 本実施形態の顕微鏡システムでは、撮影画像Imea(r)を取得することができる。撮影画像Imea(r)は、例えば、屈折率分布の推定に用いることができる。屈折率分布の推定については、後述する。
 屈折率分布の推定では、部分的コヒーレント結像用ビーム伝搬法を用いて、推定標本から計算像を算出する。計算像が撮影画像Imea(r)に近づくように、推定標本のパラメータ(屈折率分布)を勾配降下法等で変化させる。
 部分的コヒーレント結像用ビーム伝搬法では、計算時間は標本に照射される波面の数に比例する。条件(1)の上限値を上回る場合、1つの射出位置から射出した光束の照射で、複数の波面が標本に照射されることになる。そのため、計算時間が長くなり過ぎる。
 本実施形態の顕微鏡システムでは、隣接する2つの第1領域の間隔うち、少なくとも1つの間隔は以下の条件(2)を満たす。
 0.05×T<d   (2)
 ここで、
 dは、隣接する2つの第1領域の間隔(単位はmm)、
 Tは、検出光学系の瞳の直径(単位はmm)、
である。
 一方の第1領域における光束で光学像が形成され、他方の第1領域における光束で光学像が形成される。標本に入射する角度は2つの光束で異なるので、2つの光学像も異なる。
 条件(2)の下限値を下回る場合、一方の第1領域と他方の第1領域とが近づき過ぎる。この場合、2つの光学像の差異が少なくなる。差異が少なくなると、2つの光学像から得られる情報が殆ど同じになる。そのため、例えば、屈折率分布の推定では、計算時間がかかる割に再構成性能が良くならない。
 本実施形態の顕微鏡システムでは、第1領域の半数が、条件(2)を満たすことが好ましい。
 第1領域の半数が条件(2)を満たすと、互いに異なる情報を、隣接する2つの光学像から得られると共に、互いに異なる情報を多数取得することができる。屈折率分布を推定する場合、比較的高い精度で推定することができる。
 本実施形態の顕微鏡システムでは、以下の条件(3)を満たすことが好ましい。
Figure JPOXMLDOC01-appb-M000002
 ここで、
 LSiは、i番目の第1領域の面積(単位はmm)、
 PSは、検出光学系の瞳の面積(単位はmm)、
 nは、第1領域の数、
である。
 条件(3)の左辺は、第1領域のそれぞれの面積を足し合わせた合計面積である。条件(3)を満足することで標本に照射される波面の数を少なくでき、計算時間が短くなる。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第1円環領域内に位置し、第1円環領域は、検出光学系の瞳領域のうち、半径が50%以上の領域であることが好ましい。
 図3は、第1例の検出光学系の瞳面を示す図である。図3には、検出光学系の瞳面10における第1領域が図示されている。第1領域20と第1領域21は、円周上に位置している。第1領域20は、第1領域21が位置する円周の外側に位置している。第1領域20と第1領域21のどちらか一方があれば良い。
 図3では、1つの円が破線で描かれている。円の半径は、瞳10の半径の50%である。円の外側の領域が、第1円環領域30である。第1円環領域30は、半径が50%以上の領域である。
 第1例では、第1円環領域30に、第1領域20と第1領域21が位置している。第1例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第1例では、比較的細かい構造を推定することができる。
 条件(2)を満たす第1領域が多いと計算時間が短くなる。第1領域のいくつかが条件(2)を満たさなくても計算時間は短くなる。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第1円環領域内において、2重の円を形成するように並んでいることが好ましい。
 図3に示すように、第1例では、第1領域20と第1領域21によって、第1円環領域30において2重の円が形成されている。よって、互いに異なる情報を、多数取得することができる。屈折率分布を推定する場合、比較的細かい構造を推定することができる。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第2円環領域内に位置し、第2円環領域は、検出光学系の瞳領域のうち、半径が70%から90%の領域であることが好ましい。
 図4は、第2例の検出光学系の瞳面を示す図である。図4には、検出光学系の瞳面10における第1領域が図示されている。第1領域20と第1領域21は、円周上に位置している。第1領域20は、第1領域21が位置する円周の外側に位置している。第1領域20のみがあり、第1領域21はなくても良い。
 図4では、2つの円が破線で描かれている。内側の円の半径は、瞳10の半径の70%である。外側の円の半径は、瞳10の半径の90%である。2つの円に挟まれた領域が、第2円環領域31である。第2円環領域31は、半径が70%から90%の領域である。
 第2例では、第2円環領域31に、第1領域20が位置している。第2例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第2例では、比較的細かい構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第3円環領域内に位置し、第3円環領域は、検出光学系の瞳領域のうち、半径が50%から70%の領域であることが好ましい。
 図5は、第3例の検出光学系の瞳面を示す図である。図5には、検出光学系の瞳面10における第1領域が図示されている。第1領域20と第1領域21は、円周上に位置している。第1領域20は、第1領域21が位置する円周の外側に位置している。第1領域21のみがあり、第1領域20はなくても良い。
 図5では、2つの円が破線で描かれている。内側の円の半径は、瞳10の半径の50%である。外側の円の半径は、瞳10の半径の70%である。2つの円に挟まれた領域が、第3円環領域32である。第3円環領域32は、半径が50%から70%の領域である。
 第3例では、第3円環領域32に、第1領域21が位置している。第3例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第3例では、比較的細かい構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第1円領域内に位置し、第1円領域は、検出光学系の瞳領域のうち、第1円環領域より中心側の領域であることが好ましい。
 図6は、第4例の検出光学系の瞳面を示す図である。図6には、検出光学系の瞳面10における第1領域が図示されている。第1領域20と第1領域40は、円周上に位置している。第1領域20は、第1領域40が位置する円周の外側に位置している。
 図6では、1つの円が破線で描かれている。円の外側の領域は、第1円環領域30である。円の内側の領域が、第1円領域50である。第1円領域50は、第1円環領域より中心側の領域である。
 第4例では、第1円領域50に、第1領域40が位置している。第4例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第4例では、比較的細かい構造をだけでなく、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第1円領域内において、円を形成するように並んでいることが好ましい。
 図6に示すように、第4例では、第1領域40によって、第1円領域50に円が形成されている。屈折率分布を推定する場合、比較的粗い構造を推定することができる。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第2円領域内に位置し、第2円領域は、検出光学系の瞳領域のうち、半径が50%以下の領域であることが好ましい。
 図7は、第5例の検出光学系の瞳面を示す図である。図7には、検出光学系の瞳面10における第1領域が図示されている。第1領域40と第1領域41は、円周上に位置している。第1領域41は、第1領域40が位置する円周の外側に位置している。第1領域40と第1領域41のどちらか一方があれば良い。
 図7では、1つの円が破線で描かれている。円の半径は、瞳10の半径の50%である。円の内側の領域が、第2円領域51である。第2円領域51は、半径が50%以下の領域である。
 第5例では、第2円領域51に、第1領域40と第1領域41が位置している。第5例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第5例では、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第2円領域内において、円を形成するように並んでいることが好ましい。
 図7に示すように、第5例では、第1領域40と第1領域41によって、第2円領域51において円が形成されている。よって、互いに異なる情報を、多数取得することができる。屈折率分布を推定する場合、比較的粗い構造を推定することができる。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第4円環領域内に位置し、第4円環領域は、検出光学系の瞳領域のうち、半径が30%以上から50%の領域であることが好ましい。
 図8は、第6例の検出光学系の瞳面を示す図である。図8には、検出光学系の瞳面10における第1領域が図示されている。第1領域40と第1領域41は、円周上に位置している。第1領域41は、第1領域40が位置する円周の外側に位置している。第1領域41のみがあり、第1領域40はなくても良い。
 図8では、2つの円が破線で描かれている。内側の円の半径は、瞳10の半径の30%である。外側の円の半径は、瞳10の半径の50%である。2つの円に挟まれた領域が、第4円環領域52である。第4円環領域52は、半径が30%から50%の領域である。
 第6例では、第4円環領域52に、第1領域41が位置している。第6例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第6例では、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、第3円領域内に位置し、第3円領域は、検出光学系の瞳領域のうち、半径が30%以下の領域であることが好ましい。
 図9は、第7例の検出光学系の瞳面を示す図である。図9には、検出光学系の瞳面10における第1領域が図示されている。第1領域40と第1領域41は、円周上に位置している。第1領域41は、第1領域40が位置する円周の外側に位置している。第1領域40のみがあり、第1領域41はなくても良い。
 図9では、1つの円が破線で描かれている。円の半径は、瞳10の半径の30%である。円の内側の領域が、第3円領域53である。第3円領域53は、半径が30%以下の領域である。
 第7例では、第3円領域53に、第1領域40が位置している。第7例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第7例では、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、検出光学系の瞳を中心角が等しい4つの扇型に分けたとき、4つの扇型の全てに第1領域のいずれかが位置していることが好ましい。
 図10は、第8例の検出光学系の瞳面を示す図である。図10には、検出光学系の瞳面10における第1領域が図示されている。第1領域60は、格子状に位置している。
 図10では、直交する2つの直線が描かれている。2つの直線によって、瞳面10は、第1の扇型領域70と、第2の扇型領域71と、第3の扇型領域72と、第4の扇型領域74と、に分かれる。4つの扇型領域では、1つの扇型領域における中心角は、他の扇型領域における中心角と等しい。
 第8例では、第1の扇型領域70、第2の扇型領域71、第3の扇型領域72、及び第4の扇型領域74の全てで、第1領域60が位置している。第8例は、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第8例では、比較的細かい構造をだけでなく、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 本実施形態の顕微鏡システムでは、第1領域のいくつかは、検出光学系の瞳の中心を挟んで対をなしていることが好ましい。
 図11は、第9例の検出光学系の瞳面を示す図である。図11には、検出光学系の瞳面10における第1領域が図示されている。第1領域80と第1領域81は、円周上に位置している。
 第9例では、第1領域80と第1領域81は、検出光学系の瞳の中心Cを挟んで対をなしている。第9例では、条件(1)、(2)、(3)を満足している。屈折率分布を推定する場合、第9例では、比較的粗い構造を推定することができる。第1領域のいくつかが条件(2)を満たさなくても良い。半数以上の第1領域が条件(2)を満たすことが望ましい。
 また、第9例では、第7例に比べて、第1領域数が少ない。屈折率分布を推定する場合、第7例における推定時間よりも短い時間で推定することができる。
 本実施形態の顕微鏡システムでは、第1領域のそれぞれは、以下の条件(4)を満たすことが好ましい。
 PS×10-6<LS   (4)
 ここで、
 LSは、第1領域の面積(単位はmm)、
 PSは、検出光学系の瞳の面積(単位はmm)、
である。
 条件(4)の下限値を下回る場合、光学像が暗くなる。この場合、撮影画像Imea(r)におけるSNが悪化する。撮影画像Imea(r)は、例えば、屈折率分布の推定に用いることができる。撮影画像Imea(r)におけるSNが悪化すると、推定精度が悪化する。
 本実施形態の顕微鏡システムでは、隣接する2つの第1領域の間隔うち、少なくとも1つの間隔は、以下の条件(5)を満たすことが好ましい。
 d<0.5×T   (5)
 ここで、
 dは、隣接する2つの第1領域の間隔(単位はmm)、
 Tは、検出光学系の瞳の直径(単位はmm)
である。
 条件(5)の上限値を上回る場合、第1領域の数が少なくなる。そのため、光学像が暗くなる。
 条件(2)を満たす第1領域が、同時に条件(5)を満たすことが望ましい。
 本実施形態の顕微鏡システムは、以下の条件(A)を満たすことが好ましい。
 4≦n≦100   (A)
 ここで、
 nは、第1領域の数、
である。
 条件(A)の下限値を下回る場合、第1領域の数が少なくなる。そのため、光学像が暗くなる。条件(A)の上限値を上回る場合、例えば、屈折率分布の推定で時間が長くなる。
 本実施形態の顕微鏡システムは、インコヒーレント光源と、照明光学系と、検出光学系と、撮像素子と、を備える。インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源である。検出光学系は、標本の光学像を形成する光学系であり、撮像素子は、検出光学系により形成された標本の光学像を受光する。標本では、インコヒーレント光源から射出した光によって複数のコヒーレント照明が同時に行われ、コヒーレント照明は、空間的にコヒーレントである光による照明である。標本に対して光束が照射される方向は、コヒーレント照明それぞれで異なり、照明光学系の瞳面では、コヒーレント照明それぞれの光束が互いに異なる第2領域に位置する。第2領域のそれぞれは、以下の条件(6)を満たし、隣接する2つの第2領域の間隔のうち少なくとも1つの間隔は、以下の条件(7)を満たす。
 LS’<PS’×10-3   (6)
 0.05×T’<d’   (7)
 ここで、
 LS’は、第2領域の面積(単位はmm)、
 PS’は、照明光学系の瞳の面積(単位はmm)、
 d’は、隣接する2つの第2領域の間隔(単位はmm)、
 T’は、照明光学系の瞳の直径(単位はmm)、
である。
 図12は、本実施形態の顕微鏡システムを示す図である。図1と同じ構成については同じ番号を付し、説明は省略する。
 顕微鏡システム90は、インコヒーレント光源2と、照明光学系91と、検出光学系3と、撮像素子4と、を備える。
 照明光学系91の瞳面PIから離れた位置にインコヒーレント光源2を配置した場合、インコヒーレント光源2から射出した光が瞳面PIを通過する。瞳面PIの位置にインコヒーレント光源2を配置した場合、瞳面PIから光が射出する。インコヒーレント光源2から射出した光は、照明光学系91を通過して、標本5に照射される。
 図13は、照明光学系の瞳面を示す図である。図13では、照明光学系91の瞳面100における第2領域の数は8である。瞳面100では、複数の光が互いに異なる領域に位置する。第2領域のそれぞれの位置は、互いに異なる。第2領域は、複数の光のそれぞれの位置を示している。
 例えば、第2領域101は、光束L1が瞳面100を通過する領域、又は、光束L1が生成される領域である。第2領域102は、光束L2が瞳面100を通過する領域、又は、光束L2が生成される領域である。光束L1と光束L2は、それぞれがコヒーレント照明光の光束である。
 本実施形態の顕微鏡システムでは、第2領域のそれぞれは、以下の条件(6)を満たす。
 LS’<PS’×10-3   (6)
 ここで、
 LS’は、第2領域の面積(単位はmm)、
 PS’は、照明光学系の瞳の面積(単位はmm)、
である。
 条件(6)の技術的意義は、条件(1)の技術的意義と同じである。
 本実施形態の顕微鏡システムでは、隣接する2つの第2領域の間隔うち、少なくとも1つの間隔は、以下の条件(7)を満たす。
 0.05×T’<d’   (7)
 ここで、
 d’は、隣接する2つの第2領域の間隔(単位はmm)、
 T’は、照明光学系の瞳の直径(単位はmm)、l
である。
 条件(7)の技術的意義は、条件(2)の技術的意義と同じである。
 本実施形態の顕微鏡システムでは、検出光学系は、対物レンズと、結像レンズと、を備え、照明光学系は、コンデンサレンズを備え、第2領域の面積は、以下の式(8)で表され、照明光学系の瞳の直径は、以下の式(9)で表されることが好ましい。
 PS’=(FLcd×NA)×π   (8)
 T’=FLcd×NA   (9)
 ここで、
 FLcdは、コンデンサレンズの焦点距離(単位mm)、
 NAは、対物レンズの開口数、
である。
 本実施形態の顕微鏡システムは、開口部材を更に備えることが好ましい。複数の光束のそれぞれは、所定面上の独立した複数の領域のそれぞれから射出される。所定面は、検出光学系の光軸と直交する面であり、かつ、標本に対して検出光学系と反対側の位置にある面である。開口部材は、所定面に配置され、独立した複数の透過領域を備える。透過領域は、光を透過する領域であり、透過領域のそれぞれは、第2領域のそれぞれに対応する。
 図14は、本実施形態の顕微鏡システムを示す図である。図12と同じ構成については同じ番号を付し、説明は省略する。
 顕微鏡システム110は、インコヒーレント光源2と、照明光学系91と、開口部材111と、検出光学系3と、撮像素子4と、を備える。
 顕微鏡システム110では、複数の光束のそれぞれは、所定面上の複数の領域のそれぞれから射出されている。複数の領域のそれぞれは、互いに独立している。所定面は、検出光学系3の光軸と直交する面であり、かつ、標本5に対して検出光学系3と反対側の位置にある面である。顕微鏡システム110では、照明光学系91の瞳面PIが所定面である。
 開口部材111は、所定面に配置されている。顕微鏡システム110では、開口部材111は、瞳面PIに配置されている。
 顕微鏡システム110は、プロセッサ112を備えていても良い。プロセッサ112を備えることで、例えば、標本5の屈折率分布を推定することができる。
 図15は、開口部材を示す図である。開口部材111は、独立した複数の透過領域112を備えている。複数の透過領域112のそれぞれは、互いに独立している。透過領域112の周囲は、遮光領域113である。
 透過領域112は、光を透過する領域である。光が透過領域112を通過することで、光束L1が標本5に照射される。光が別の透過領域112を通過することで、光束L2が標本5に照射される。
 透過領域112は、瞳面PIにおける光の領域である。透過領域112のそれぞれは、第2領域のそれぞれに対応する。
 開口部材111では、4つの円の円周上に、透過領域112が位置している。4つの円を、開口部材の外縁から中心に向かって、第1円、第2円、第3円、第4円とする。
 第1円の円周上に、透過領域112aが位置している。第2円の円周上に、透過領域112bが位置している。第3円の円周上に、透過領域112cが位置している。第4円の円周上に、透過領域112dが位置している。開口部材111を用いて屈折率分布を推定すると、高い精度で推定を行うことができる。
 開口部材111では、中央に透過領域が設けられている。中央に透過領域を設けることで、開口部材111の位置決めを容易にすることができる。しかしながら、中央の透過領域は、必ずしも必要ではない。
 開口部材の具体例について説明する。第2領域は瞳面PIに位置し、第1領域は瞳面Puに位置する。瞳面PIは、瞳面Puと共役にすることができる。この場合、第2領域は第1領域と共役になる。第2領域は開口部材の透過領域なので、第1領域を開口部材の透過領域と見なすことができる。その結果、図3~図11は、開口部材の具体例を示していると見なすことができる。
 図3は、開口部材の第1例を示している。図3では、第1領域20と第1領域21が、開口部材の透過領域を表している。開口部材のいくつかは、照明光学系の瞳領域のうち、半径が50%以上の領域に位置している。開口部材の透過領域のいくつかは、半径が50%以上の領域内において、2重の円を形成するように並んでいる。
 第1例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第1例では、比較的細かい構造を推定することができる。
 図4は、開口部材の第2例を示している。図4では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が70%から90%の領域に位置している。
 第2例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第2例では、比較的細かい構造を推定することができる。
 図5は、開口部材の第3例を示している。図5では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が50%から70%の領域に位置している。
 第3例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第3例では、比較的細かい構造を推定することができる。
 図6は、開口部材の第4例を示している。図6では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が50%以上の領域より中心側の領域に位置している。
 第4例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第4例では、比較的細かい構造をだけでなく、比較的粗い構造を推定することができる。
 図7は、開口部材の第5例を示している。図7では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が50%以下の領域に位置している。
 第5例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第5例では、比較的粗い構造を推定することができる。
 図8は、開口部材の第6例を示している。図8では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が30%以上から50%の領域に位置している。
 第6例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第6例では、比較的粗い構造を推定することができる。
 図9は、開口部材の第7例を示している。図9では、開口部材の透過領域のいくつかは、照明光学系の瞳領域のうち、半径が30%以下の領域に位置している。
 第7例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第7例では、比較的粗い構造を推定することができる。
 図10は、開口部材の第8例を示している。図10では、照明光学系の瞳を中心角が等しい4つの扇型に分けたとき、4つの扇型の全てに開口部材の透過領域のいずれかが位置している。
 第8例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第8例では、比較的細かい構造をだけでなく、比較的粗い構造を推定することができる。
 図11は、開口部材の第9例を示している。図11では、開口部材の透過領域のいくつかは、照明光学系の瞳の中心を挟んで対をなしている。
 第9例は、条件(6)、(7)を満足している。屈折率分布を推定する場合、第9例では、比較的粗い構造を推定することができる。また、第9例では、第7例に比べて、開口部材の透過領域の数が少ない。屈折率分布を推定する場合、第7例における推定時間よりも短い時間で推定することができる。
 本実施形態の顕微鏡システムでは、複数の光束のそれぞれは、所定面上の独立した複数の領域のそれぞれから射出されることが好ましい。所定面は、検出光学系の光軸と直交する面であり、かつ、標本に対して検出光学系と反対側の位置にある面である。インコヒーレント光源は、所定面に複数配置され、インコヒーレント光源のそれぞれは、第2領域のそれぞれに対応する。
 図16は、本実施形態の顕微鏡システムを示す図である。図12と同じ構成については同じ番号を付し、説明は省略する。
 顕微鏡システム120は、インコヒーレント光源121と、照明光学系122と、検出光学系3と、撮像素子4と、を備える。
 顕微鏡システム120では、複数の光束のそれぞれは、所定面上の複数の領域のそれぞれから射出されている。複数の領域のそれぞれは、互いに独立している。所定面は、検出光学系3の光軸と直交する面であり、かつ、標本5に対して検出光学系3と反対側の位置にある面である。顕微鏡システム120では、照明光学系122の瞳面PIが所定面である。
 インコヒーレント光源121は、所定面に配置されている。顕微鏡システム120では、インコヒーレント光源121は、瞳面PIに配置されている。
 インコヒーレント光源121は、独立した複数の発光領域121aを備えている。複数の発光領域121aのそれぞれは、互いに独立している。
 発光領域121aは、光を射出する領域である。光が発光領域121aから射出することで、光束L1が標本5に照射される。光が別の発光領域121aから射出することで、光束L2が標本5に照射される。
 発光領域121aは、瞳面PIにおける光の領域である。発光領域121aのそれぞれは、第2領域のそれぞれに対応する。
 図15に示す透過領域112を発光領域121aと見なすと、図15はインコヒーレント光源を示す図と見なすことができる。また、図3~図11は、インコヒーレント光源の具体例と見なすことができる。よって、第1例から第9例の開口部材によって生じる効果は、インコヒーレント光源を用いた場合にも生じる。
 本実施形態の顕微鏡システムは、プロセッサを更に備えることが好ましい。プロセッサは、標本をモデル化した推定標本を通過する波面を、光束毎に順伝搬演算で求め、光束毎に、波面に対応する検出光学系の結像位置における強度分布を算出し、光束毎の強度分布を足し合わせることで計算像を生成し、計算像と、撮像素子から出力された測定像と、の差を小さくする最適化処理を行うことで、推定標本を再構築する。
 本実施形態の顕微鏡システムは、プロセッサを備える。プロセッサを備えることで、本実施形態の顕微鏡システムでは、推定標本を再構築することができる。推定標本の再構築では、例えば、標本の屈折率分布を推定する。
 推定標本の再構築では、標本をモデル化した推定標本を通過する波面を、光束毎に順伝搬演算で求める。光束毎に、波面に対応する検出光学系の結像位置における強度分布を算出する。光束毎の強度分布を足し合わせることで計算像を生成する。計算像と、撮像素子から出力された測定像と、の差を小さくする最適化処理を行う。
 以下、推定標本の再構築について説明する。
 図14に示す顕微鏡システム110では、照明光学系91と検出光学系3との間に、標本5が位置している。図16に示す顕微鏡システム120では、照明光学系122と検出光学系3との間に、標本5が位置している。照明光学系と検出光学系で、測定光学系が形成されている。
 標本5には、複数の方向から、光束が同時に入射する。複数の方向から同時に入射する光線によって、標本5が照明されている。実施形態の顕微鏡システムでは、それぞれの光束による照明はコヒーレント照明である。
 検出光学系3によって、標本5の光学像5’形成される。光学像5’を撮像素子4で撮像することで、図1(b)に示す撮影画像Imea(r)が得られる。
 撮影画像Imea(r)は、プロセッサに入力される。プロセッサでは、撮影画像Imea(r)を用いて、推定標本の再構築が行われる。再構築では、シミュレーションが行われる。
 第1のシミュレーションでは、標本は薄い標本である。第2のシミュレーションでは、標本は厚い標本である。
 第1のシミュレーションについて説明する。第1のシミュレーションで用いる光学系は、図14に示す顕微鏡システム110の測定光学系である。
 図14に示すように、標本5は、薄い標本である。検出光学系3の焦点位置Foは、標本5の内部に位置している。例えば、焦点位置Foと標本5の表面5aとの間隔はΔz1である。
 標本5は、薄い標本なので、1つの撮影画像が取得される。よって、検出光学系3と撮像素子4は、光軸方向に移動しない。また、標本5も、光軸方向に移動しない。
 図17は、第1のシミュレーションのフローチャートである。フローチャートを説明する前に、推定標本と波面について説明する。
 図18は、シミュレーションで用いる光学系を示す図である。シミュレーションで用いる光学系は、撮影画像Imea(r)を取得した測定光学系と同一である。シミュレーションでは、標本5の代わりに、推定標本130が用いられる。
 図18には、推定標本130、波面fin (r)、振幅透過率T(r)、波面gout (r)、撮影画像の取得位置における波面u(r)、及び結像面における波面uimg (r)が図示されている。
 顕微鏡システム110では、開口部材111が、瞳面PIに配置されている。第2領域は、開口部材111の透過領域である。透過領域から光が射出するので、第2領域は光源と見なすことができる。
 図18では、1番目の光源からNLS番目までの第2領域が図示されている。第2領域は、照明光学系91の瞳位置に配置することができる。
 図17に戻って、シミュレーションについて説明する。シミュレーションは、推定標本を推定するステップと、推定標本の像を算出するステップと、推定標本の屈折率分布を最適化するステップと、推定標本を更新するステップと、推定標本の構造を再構成して出力するステップと、を含む。
 ステップS10では、第2領域の数NLSが設定される。顕微鏡システム110では、照明光学系の瞳面に開口部材の透過領域が位置している。透過領域は第2領域である。よって、ステップS10では、NLSに透過領域の数が設定される。
 ステップS20は、推定標本を推定するステップである。標本5については、1枚の撮影画像が取得されている。推定標本130は薄い標本なので、1つの薄い層とみなすことができる。よって、振幅透過率の初期値の設定は1回行われる。
 ステップS20では、推定標本130における振幅透過率T(r)に初期値が設定される。
 推定標本130の像を算出するためには、推定標本130の情報、例えば、屈折率分布が必要である。推定標本130は、標本5をモデル化した標本である。よって、推定標本130の屈折率分布に標本5の屈折率分布を用いることができると良い。
 しかしながら、標本5の屈折率分布は、撮影画像Imea(r)から正確に得られない。よって、推定標本130の屈折率分布は、推定せざるを得ない。
 式(10)に示すように、推定標本130の屈折率分布n(r)は、振幅透過率T(r)に変換することができる。よって、ステップS20では、推定標本130における振幅透過率T(r)の初期値を設定する。
Figure JPOXMLDOC01-appb-M000003

Figure JPOXMLDOC01-appb-M000004
  ここで、
 kは、照明光の波長λに対して2π/λ、
 nは、媒質の屈折率
 dzは、標本の厚み、
である。
 振幅透過率T(r)の値を撮影画像Imea(r)から推定できる場合、推定した値を初期値に用いても良い。また、他の方法で振幅透過率T(r)の値を推定できる場合、推定した値を初期値に設定することができる。初期値が推定できない場合、例えば、T(r)=1とする。
 ステップS30では、変数mの値が初期化される。後述のステップS41、ステップS42、ステップS43、ステップS44、及びステップS45は、全ての光源に対して実行される。変数mは、これらのステップが実行された回数を表している。
 ステップS40とステップS50は、推定標本の像を算出するステップである。推定標本の像の数は、撮影画像の数と同数である。撮影画像の数は1なので、推定標本の像の数も1である。
 ステップS40は、ステップS41、ステップS42、ステップS43、ステップS44、ステップS45、ステップS46、及びステップS47を有する。
 ステップS41では、推定標本130へ入射する波面fin (r)が算出される。fin (r)は、1番目の光源からNLS番目までの光源から射出された光の波面を表している。
 照明光学系の瞳には、1番目の光源からNLS番目までの光源が位置している第1波面を、各光源から射出された波面とすると、波面fin (r)は、第1波面を表している。
 上述のように、第2領域の各々は、点光源とみなすことができる。図18では、m番目の光源から照明光Lmが射出されている。照明光Lmは、推定標本130に入射する。
 この場合、波面fin (r)は、式(11)と式(12)で表される。
Figure JPOXMLDOC01-appb-M000005
 
Figure JPOXMLDOC01-appb-M000006
 
 ここで、
 kは、2πn/r、
 nは、媒質の屈折率、
 θx,m、θy,mは、推定標本への入射角、
である。
 ステップS42では、推定標本130から射出される波面gout (r)が算出される。薄い標本の場合、波面gout (r)は、式(13)で表される。
Figure JPOXMLDOC01-appb-M000007
 
 ここで、
 T(r)は、推定標本の振幅透過率、
である。
 波面gout (r)は、波面fin (r)が推定標本130を通過した後の波面である。波面fin (r)は第1波面を表しているので、波面gout (r)は第2波面を表している。
 推定標本130は薄い標本なので、式(13)に示すように、波面fin (r)から、波面gout (r)を直接算出することができる。
 ステップS43では、撮影画像の取得位置における波面u(r)が算出される。撮影画像の取得位置は、撮影画像の取得が行われたときの、標本側における検出光学系3の焦点位置Foである。
 波面u(r)は、式(14)で表される。
Figure JPOXMLDOC01-appb-M000008
 
 ここで、
 Δz1は、推定標本の表面から撮影画像の取得位置までの距離、
 λは、波長、
 uは、瞳面座標(ξ,η)の2次元表記、
 F2Dは、2次元フーリエ変換、
 F2D -1は、2次元フーリエ逆変換、
である。
 後述のステップS60では、残差が算出される。残差の算出は、撮影画像と推定標本の像が用いられる。推定標本の像を算出するためには、撮影画像の取得位置における波面を求める必要がある。
 上述のように、焦点位置Foと表面5aとの間隔はΔz1である。光の進行方向に向かって測定したときの距離の符号をプラスとすると、撮影画像の取得位置は、表面5aから-Δz1だけ離れた位置になる。
 よって、シミュレーションで用いる光学系では、撮影画像の取得位置は、推定標本130の表面130aから-Δz1だけ離れた位置になる。この場合、撮影画像の取得位置における波面は、表面130aから-Δz1だけ離れた位置における波面になる。
 式(14)における波面u(r)は、波面gout (r)が、光の進行方向とは逆の方向にΔz1だけ伝搬した波面である。この波面は、表面130aから-Δz1だけ離れた位置における波面である。よって、式(14)における波面u(r)は、撮影画像の取得位置における波面を表している。
 なお、撮影画像の取得位置と表面5aの位置は、厳密には異なる。しかしながら、標本5は薄い標本なので、Δz1の値は非常に小さい。そのため、撮影画像の取得位置と表面5aの位置は、ほぼ同じと見なすことができる。
 推定標本130も薄い標本である。そのため、表面130aの位置と、表面130aから-Δz1だけ離れた位置は、ほぼ同じと見なすことができる。すなわち、波面gout (r)の位置と波面u(r)の位置は、ほぼ同じと見なすことができる。この場合、波面u(r)の代わりに、波面gout (r)を用いることもできる。
 ステップS44では、結像面における波面uimg (r)が算出される。波面u(r)は、結像面IPに伝搬される。このとき、検出光学系3を通過する。検出光学系3は、フーリエ光学系を形成している。よって、式(15)に示すように、結像面IPにおける波面uimg (r)は、波面u(r)と検出光学系の瞳関数P(u)を用いて算出することができる。
Figure JPOXMLDOC01-appb-M000009
 
 ステップS45では、波面uimg (r)が2乗される。波面uimg (r)は、光の振幅を表している。よって、波面uimg (r)を2乗することで、光強度が算出される。
 |uimg (r)|は、結像面IPに光強度分布を表している。第1強度分布を、検出光学系の結像位置における光強度分布とすると、|uimg (r)|は、検出光学系の結像位置における第1光強度分布を表している。
 波面fin (r)、波面gout (r)、波面u(r)、及び波面uimg (r)は、m番目の光源から射出された照明光、すなわち、1つの光源から射出された照明光によって生成される波面を表している。
 推定標本の像Iest(r)は、全ての光源から射出された照明光によって生成される。よって、全ての光源について、波面fin (r)、波面gout (r)、波面u(r)、及び波面uimg (r)を求めなくてはならない。
 ステップS46では、変数mの値が第2領域の数NLSと一致したか否かが判断される。判断結果がNOの場合は、ステップS47が実行される。判断結果がYESの場合は、ステップS50が実行される。
 (判断結果がNOの場合:m≠NLS
 判断結果がNOの場合、ステップS47で、変数mの値に1が加算される。ステップS47が終ると、ステップS41に戻る。
 ステップS47で、変数mの値が1つ増えている。そのため、別の光源について、ステップS41で波面fin (r)が算出され、ステップS42で波面gout (r)が算出され、ステップS43で波面u(r)が算出され、ステップS44で波面uimg (r)が算出され、ステップS45で|uimg (r)|が算出される。
 ステップS41、ステップS42、ステップS43、ステップS44、及びステップS45は、全ての光源について|uimg (r)|が求まるまで、繰り返し行われる。
 (判断結果がYESの場合:m=NLS
 判断結果がYESの場合、ステップS50で、|uimg (r)|の足し合わせが行われる。その結果、推定標本の像Iest(r)が算出される。推定標本の像Iest(r)は、式(16)で表される。
Figure JPOXMLDOC01-appb-M000010
 
 図19は、推定標本の像を示す図である。推定標本の像Iest(r)は、全ての光源について波面uimg (r)が求められた場合の像である。図19に示すように、各光源について波面uimg (r)が算出され、波面uimg (r)から|uimg (r)|が算出され|uimg (r)|が全て足し合わされている。その結果、推定標本の像Iest(r)が算出される。
 ステップS60で、残差が算出される。残差は、式(17)で表される。式(17)に示すように、残差は、撮影画像Imea(r)と推定標本の像Iest(r)とから算出される。
Figure JPOXMLDOC01-appb-M000011
 
 式(17)は、行列のノルムを表している。ノルムは、式(18)で表される。
Figure JPOXMLDOC01-appb-M000012
 ステップS70では、残差と閾値との比較が行われる。判断結果がNOの場合は、ステップS80が実行される。判断結果がYESの場合は、ステップS110が実行される。
 (判断結果がNOの場合:残差≧閾値)
 ステップS80では、変数mの値が初期化される。後述のステップS91とステップS92は、全ての光源に対して実行される。変数mは、これらのステップが実行された回数を表している。
 ステップS90は、推定標本の屈折率分布を最適化するステップである。
 ステップS90は、ステップS91、ステップS92、ステップS93、及びステップS94を有する。
 ステップS91では、波面u’(r)が算出される。波面u’(r)の算出では、撮影画像Imea(r)と推定標本の像Iest(r)が用いられる。また、波面u’(r)は、撮影画像の取得位置における波面である。
 波面u’(r)は式(19)で表される。
Figure JPOXMLDOC01-appb-M000013
 図20は、波面の補正を示す図である。図20(a)は、推定標本から射出する補正前の波面を示す図である。図20(b)は、撮影画像の取得位置における補正前の波面を示す図である。図20(c)は、撮影画像の取得位置における補正後の波面を示す図である。図20(d)は、推定標本から射出する補正後の波面を示す図である。
 図19に示すように、推定標本の像Iest(r)は、波面uimg (r)に基づいて算出される。また、図19と図20(b)に示すように、波面uimg (r)は、波面u(r)に基づいて算出される。
 図20(a)に示すように、波面u(r)の算出には、振幅透過率T(r)が用いられている。振幅透過率T(r)は、推定された振幅透過率である。ステップS90の1回目の実行時、この振幅透過率T(r)は、標本5の振幅透過率と異なる。
 振幅透過率T(r)と標本5の振幅透過率との差が大きくなるほど、推定標本の像Iest(r)と撮影画像Imea(r)との差も大きくなる。よって、推定標本の像Iest(r)と撮影画像Imea(r)との差は、振幅透過率T(r)と標本5の振幅透過率との差を反映していると見なすことができる。
 そこで、式(11)に示すように、推定標本の像Iest(r)と撮影画像Imea(r)と用いて、波面u(r)を補正する。その結果、図20(c)に示すように、補正後の波面、すなわち、波面u’(r)が得られる。
 波面u’(r)を用いることで、新たな振幅透過率T(r)を算出できる。波面u’(r)は、波面u(r)と異なる。よって、新たな振幅透過率T(r)は、波面u(r)を算出したときの振幅透過率とは異なる。
 このように、波面u’(r)を用いて、振幅透過率T(r)を算出することができる。ただし、図20(a)に示すように、振幅透過率T(r)の算出には、波面gout (r)が必要である。
 図20(a)、(c)に示すように、波面u’(r)の位置と、波面gout (r)の位置は異なる。よって、振幅透過率T(r)を算出するためには、図20(d)に示すように、波面g’out (r)が必要である。
 波面g’out (r)は、式(20)で表される。波面u’(r)は補正後の波面なので、波面g’out (r)も補正後の波面である。
Figure JPOXMLDOC01-appb-M000014
 上述のように、撮影画像の取得位置は、表面130aから-Δz1だけ離れた位置になる。言い換えると、表面130aの位置は、撮影画像の取得位置からΔz1だけ離れた位置になる。よって、表面130aの位置における波面は、撮影画像の取得位置からΔz1だけ離れた位置における波面になる。
 式(20)における波面g’out (r)は、波面u’(r)が、光の進行方向にΔz1だけ伝搬した波面である。この波面は、影画像の取得位置からΔz1だけ離れた位置における波面である。よって、式(20)における波面g’out (r)は、表面130aの位置における波面を表している。
 表面130aの位置における波面は、fin (r)が推定標本130を通過した後の波面である。上述のように、fin (r)は、第1波面を表している。第2波面を、第1波面が推定標本を通過した後の波面とすると、波面g’out (r)は、第2波面を表している。
 上述のように、Δz1の値は非常に小さい。また、推定標本130は薄い標本である。そのため、撮影画像の取得位置と、撮影画像の取得位置からΔz1だけ離れた位置は、ほぼ同じと見なすことができる。すなわち、波面u’(r)の位置と、波面gout (r)の位置は、ほぼ同じと見なすことができる。この場合、波面g’out (r)の代わりに、波面u’(r)を用いることもできる。
 ステップS92では、標本の勾配ΔT (r)が算出される。標本の勾配ΔT は式(21)で表される。標本の勾配ΔT (r)の算出には、例えば、勾配降下法を用いることができる。
Figure JPOXMLDOC01-appb-M000015
 
 ここで、
 fは、fの複素共役、
 δは、ゼロ除算を防ぐための正規化定数、
である。
 図20(a)に示すように、波面gout (r)の算出には、振幅透過率T(r)が用いられている。振幅透過率T(r)は、推定された振幅透過率である。よって、この振幅透過率T(r)は、標本5の振幅透過率と異なる。
 振幅透過率T(r)と標本5の振幅透過率との差が大きくなるほど、波面gout (r)と波面g’out (r)との差も大きくなる。よって、波面gout (r)と波面g’out (r)との差は、振幅透過率T(r)と標本5の振幅透過率との差を反映していると見なすことができる。
 波面fin (r)、振幅透過率T(r)、波面gout (r)、及び波面g’out (r)は、既知である。そこで、式(21)に示すように、波面fin (r)、振幅透過率T(r)、波面gout (r)、及び波面g’out (r)用いて、標本の勾配ΔT (r)を算出することができる。
 図21は、標本の勾配を示す図である。
 ステップS92で得られる標本の勾配ΔT (r)は、1つの光源から射出された照明光における標本の勾配を表している。標本の勾配ΔT (r)は、全ての光源から射出された照明光によって決まる。よって、全ての光源について、標本の勾配ΔT (r)を求めなくてはならない。
 ステップS93では、変数mの値が光源の数NLSと一致したか否かが判断される。判断結果がNOの場合は、ステップS94が実行される。判断結果がYESの場合は、ステップS100が実行される。
 (判断結果がNOの場合:m≠NLS
 判断結果がNOの場合、ステップS94で、変数mの値に1が加算される。ステップS94が終ると、ステップS91に戻る。
 ステップS94で、変数mの値が1つ増えている。そのため、別の光源について、ステップS91で波面u’(r)が算出され、ステップS92で標本の勾配ΔT (r)が算出される。
 ステップS91とステップS92は、全ての光源について標本の勾配ΔT (r)が求まるまで、繰り返し行われる。
 図22は、標本の勾配を示す図である。図22では、全ての光源について、標本の勾配ΔT (r)が求められている。
 (判断結果がYESの場合:m=NLS
 判断結果がYESの場合、ステップS100で、振幅透過率T(r)が更新される。ステップS100は、推定標本を更新するステップするステップである。
 更新された振幅透過率T(r)は、式(22)で表される。
Figure JPOXMLDOC01-appb-M000016
 
 ここで、
 αは、標本の勾配の補正係数、
である。
 さらに、標本5を吸収の無い完全位相物体として考える場合、式(23)を用いて、振幅透過率T(r)をさらに更新することができる。
Figure JPOXMLDOC01-appb-M000017
 
 ステップS100が終ると、ステップS30に戻る。更新された振幅透過率T(r)で、ステップS30からステップS100までが実行される。
 ステップS30からステップS100までが繰り返し実行されることで、更新された振幅透過率T(r)は、徐々に、標本5の振幅透過率に近づく。すなわち、残差が小さくなる。やがて、残差は閾値よりも小さくなる。
 (判断結果がYESの場合:残差<閾値)
 ステップ110では、推定標本の屈折率分布が算出される。得られた振幅透過率T(r)は、標本5の振幅透過率と同一か、又は、略同一である。得られた振幅透過率T(r)と式(1)から、屈折率分布n(r)が求まる。
 ステップS110で得られた屈折率分布n(r)を用いることで、推定標本の構造を再構成することができる。再構成された推定標本の構造は、例えば、表示装置に出力することができる。推定標本130は、薄い標本である。第1のシミュレーションでは、薄い標本の構造を再構成することができる。
 上述のように、ステップS110で得られた振幅透過率T(r)は、標本5の振幅透過率と同一か、又は、略同一である。この場合、屈折率分布n(r)も、標本5の屈折率分布と同一か、又は、略同一と見なすことができる。よって、再構成された推定標本130の構造は、標本5の構造と同一か、又は、略同一と見なすことができる。
 第1のシミュレーションでは、ステップS40、ステップS50、及びステップS90が、繰り返し実行される。その結果、振幅透過率T(r)が更新される。上述のように、ステップS40とステップS50は、推定標本の像を算出するステップである。ステップS90は、推定標本の屈折率分布を最適化するステップである。
 振幅透過率T(r)は、推定標本を表している。よって、推定標本の像を算出するステップと推定標本の屈折率分布を最適化するステップが繰り返し実行されることで、推定標本が更新される。
 第2のシミュレーションについて説明する。第2のシミュレーションで用いる光学系は、図16に示す顕微鏡システム120の測定光学系である。
 図23は、本実施形態の顕微鏡システムを示す図である。図16と同じ構成については同じ番号を付し、説明は省略する。
 標本140は、厚い標本である。標本140には、複数の方向から、光束が同時に入射する。図23では、光束L1と光束L2が示されている。
 標本140から射出した光は、検出光学系3によって、結像面IPに集光される。結像面IPに、光学像140’が形成される。光学像140’は、標本140の光学像である。
 顕微鏡システム120は、移動ステージ141を有する。移動ステージ141は、光軸AXの方向に移動する。
 上述のように、推定標本の屈折率分布の最適化には、撮影画像が用いられる。標本140は、厚い標本なので、複数の撮像画像が取得される。複数の撮像画像を取得するために、標本140を固定し、移動ステージ141で、検出光学系3の焦点位置を移動させている。
 検出光学系3は、例えば、無限遠補正対物レンズと結像レンズを有する。この場合、対物レンズを移動させることで、検出光学系3の焦点位置を移動させることができる。検出光学系3と撮像素子4を固定し、標本140を移動させても良い。
 以下、取得された撮像画像が4枚の場合について説明する。
 図24は、撮影画像を示す図である。図24(a)は、第1の位置における撮影画像を示す図である。図24(b)は、第2の位置における撮影画像を示す図である。図24(c)は、第3の位置における撮影画像を示す図である。図24(d)は、第4の位置における撮影画像を示す図である。
 検出光学系3と標本140との間隔を変化させることで、標本140に対する焦点位置Foが変化する。ここでは、標本140に対する焦点位置Foを、4回変化させている。これにより、以下の4つの撮影画像が取得される。
 撮影画像Imea1(r):表面140aからの距離が3×Δzの位置の画像。
 撮影画像Imea2(r):表面140aからの距離が2×Δzの位置の画像。
 撮影画像Imea3(r):表面140aからの距離がΔzの位置の画像。
 撮影画像Imea4(r):表面140aの画像。
 撮影画像Imea1(r)、撮影画像Imea2(r)、撮影画像Imea3(r)、及び撮影画像Imea4(r)は、プロセッサに入力される。プロセッサでは、4つの撮影画像を用いて、推定標本の再構築が行われる。再構築では、シミュレーションが行われる。
 図25と図26は、第2のシミュレーションのフローチャートである。第1のフローチャートにおける処置と同じ処理につては、同じ番号を付し、説明は省略する。フローチャートを説明する前に、推定標本と波面について説明する。
 図27は、シミュレーションで用いる光学系を示す図である。図16と同じ構成については同じ番号を付し、説明は省略する。
 シミュレーションで用いる光学系は、撮影画像Imea1(r)、撮影画像Imea2(r)、撮影画像Imea3(r)、及び撮影画像Imea4(r)を取得した測定光学系と同一である。シミュレーションでは、標本140の代わりに、推定標本150が用いられる。
 図27には、推定標本150、波面fin (r)、振幅透過率T(r)、及び波面gout (r)が図示されている。
 推定標本が薄い標本の場合、式(13)に示すように、波面fin (r)から、波面gout (r)を直接算出することができる。しかしながら、推定標本が厚い標本の場合、波面fin (r)から波面gout (r)を直接算出することは困難である。
 推定標本150は、厚い標本である。そこで、光軸方向に沿って、推定標本150を複数の薄い層に置き換える。そして、薄い層の各々について、層の両側の波面を算出する。
 図28は、各層における波面を示す図である。波面の算出については後述する。層の数は、取得画像の数と同じにすることができる。ただし、層の数は、取得画像の数よりも多くしても良い。図28では、層の数は、取得画像の数と同じである。
 図28では、Z=1の位置が第1層の位置、Z=2の位置が第2層の位置、Z=3の位置が第3層の位置、Z=4の位置が第4層の位置である。
 図25と図26に戻って、シミュレーションについて説明する。
 ステップS10では、第2領域の数NLSが設定される。顕微鏡システム120では、照明光学系の瞳面にインコヒーレント光源が位置している。よって、ステップS10では、NLSに光源の数が設定される。
 ステップS200では、層の数NIMが設定される。推定標本150は、厚い標本である。よって、上述のように、推定標本150を複数の薄い層に置き換える。層の数NIMは、薄い層の数を表している。
 標本140では、複数の位置で撮影画像が取得される。層の数NIMは、撮影画像が取得された位置の数と同じにすることができる。標本140に対する焦点位置Foを4回変化させている場合、NIM=4になる。
 1からNIMまでの数字は、薄い層の位置を表している。例えば、NIM=4の場合、数字の1は第1層の位置を表し、数字の2は第2層の位置を表し、数字の3は第3層の位置を表し、数字の4は第4層の位置を表している。
 推定標本の像の算出は、シミュレーションで行われる。そのため、層の数NIMは、自由に設定できる。例えば、層の数NIMは、撮影画像が取得された位置の数よりも多くすることができる。
 例えば、NIM=7の場合、薄い層の数は7つである。この場合、7つの推定標本の像が算出される。シミュレーションでは、後述のように、撮影画像と薄い層における推定標本の像が用いられる。よって、推定標本の像が算出される7つ位置には、撮影画像が取得された4つの位置が含まれている。
 7つ位置と撮影画像の関係は、例えば、以下のようにすることができる。
 数字の1は、第1層の位置を表している。この位置では、撮影画像Imea1(r)が取得されている。また、この位置では、第1層における推定標本の像が算出される。よって、第1層における推定標本の像と撮影画像Imea1(r)が、後述のステップで用いられる。
 数字の2は、第2層の位置を表している。この位置で取得された撮影画像は無い。
 数字の3は、第3層の位置を表している。この位置では、撮影画像Imea2(r)が取得されている。また、この位置では、第3層における推定標本の像が算出される。よって、第3層における推定標本の像と撮影画像Imea2(r)が、後述のステップで用いられる。
 数字の4は、第4層の位置を表している。この位置で取得された撮影画像は無い。
 数字の5は、第5層の位置を表している。この位置では、撮影画像Imea3(r)が取得されている。また、この位置では、第5層における推定標本の像が算出される。よって、第5層における推定標本の像と撮影画像Imea3(r)が、後述のステップで用いられる。
 数字の6は、第6層の位置を表している。この位置で取得された撮影画像は無い。
 数字の7は、第7層の位置を表している。この位置では、撮影画像Imea4(r)が取得されている。また、この位置では、第7層における推定標本の像が算出される。よって、第7層における推定標本の像と撮影画像Imea4(r)が、後述のステップで用いられる。
 ステップS210では、補正の回数NCRが設定される。
 ステップS220では、変数zの値が初期化される。後述のステップS231は、全ての取得位置に対して実行される。変数zは、ステップS231が実行された回数を表している。
 ステップS230は、推定標本を推定するステップである。標本140では、4つの撮影画像が取得されている。上述のように、推定標本150は4つの薄い層に置き換えられている。よって、振幅透過率の初期値の設定は4回行われる。
 ステップS230は、ステップS231、ステップS232、及びステップS233を有する。
 ステップS231では、推定標本150における振幅透過率T(r)に初期値が設定される。
 初期値の設定では、強度輸送方程式を用いても良い。強度輸送方程式は、例えば、以下の文献に開示されている。
 M. R. Teague, “Deterministic phase retrieval: a Greens function solution,” J. Opt. Soc. Am. 73, 1434-1441(1983)
 焦点位置Z0での強度輸送方程式は、式(24)で表される。
Figure JPOXMLDOC01-appb-M000018
  ここで、
 ∇は、2次のラプラシアン、
 kは、波数、
 φZ0(r)は,結像面での標本の位相分布、
 IZ0は,光学像の平均光強度、
 δImeaZ0(r)/δは、結像面から±△zだけ離れた2つのデフォーカス像の差分像、
である。
 式(24)を用いると、フォーカス像と2つのデフォーカス像から、標本の位相分布φZ0(r)を簡単に求めることができる。
 ただし、2つのデフォーカス像の同一点における光強度の差が0か、又は、非常に小さいと、位相を計測できない。パーシャルコヒーレント照明であっても、照明光の開口数が対物レンズの開口数に近い場合は、この光強度の差が0になるか、又は、非常に小さくなる。そのため、このような場合は、強度輸送方程式を用いて初期値を設定することは難しい。
 上述のように、位相分布φZ0(r)は、フォーカス像と2つのデフォーカス像から算出される。フォーカス像、例えば、対物レンズを一定の間隔で、光軸方向に移動させることで取得される。この場合、光軸に沿って、複数のフォーカス像が離散的に取得される。よって、2つのデフォーカス像も離散的に取得される。
 式(24)で表される位相分布φZ0(r)は、光軸と直交する面内における位相分布である。フォーカス像と2つのデフォーカス像は離散的に取得されるので、位相分布φZ0(r)を表す面も、光軸に沿って離散的に位置している。
 式(25)に示すように、位相分布φ(r)は、振幅透過率T(r)に変換することができる。このようにして、振幅透過率T(r)に初期値を設定することができる。
Figure JPOXMLDOC01-appb-M000019
 強度輸送方程式で得られた位相分布φZ0は、位相分布φ(r)に用いることができる。強度輸送方程式を用いて、初期値を設定することができる。なお、初期値の推定が難しい場合、例えば、T(r)=1としても構わない。
 ステップS232では、変数zの値が取得位置の数NIMと一致したか否かが判断される。判断結果がNOの場合は、ステップS233が実行される。判断結果がYESの場合は、ステップS30が実行される。
 (判断結果がNOの場合:z≠NIM
 判断結果がNOの場合、ステップS233で、変数zの値に1が加算される。ステップS233が終ると、ステップS231に戻る。
 ステップS233で、変数zの値が1つ増えている。そのため、別の取得位置について、ステップS231で振幅透過率T(r)に初期値が設定される。
 ステップS231は、全ての取得位置について初期値が設定されるまで、繰り返し行われる。
 (判断結果がYESの場合:z=NIM
 ステップS30で、変数mの値が初期化される。後述のステップS240、ステップS41、ステップS42、ステップS251、及びステップS260は、全ての光源に対して実行される。変数mは、これらのステップが実行された回数を表している。
 ステップS240で、関数Iestz(r)の値が初期化される。Iestz(r)は、推定標本30の像を表している。上述のように、推定標本150の像は、4つの薄い層に置き換えられている。よって、Iestz(r)は、薄い層の像を表している。
 ステップS250とステップS270は、推定標本の像を算出するステップである。推定標本の像の数は、撮影画像の数と同数である。撮影画像の数は4なので、推定標本の像の数も4である。
 ステップS250は、ステップS41、ステップS42、ステップS251、ステップS252、ステップS253、及びステップS260を有する。
 ステップS41では、推定標本150へ入射する波面fin (r)が算出される。波面fin (r)は、上述の式(11)、(12)で表される。
 ステップS42では、推定標本150から射出する波面gout (r)が算出される。波面gout (r)は、波面fin (r)に基づいて算出される。推定標本150は4つの薄い層に置き換えられている。よって、薄い層の各々で波面を算出する。
 図28では、Z=1の位置が第1層の位置、Z=2の位置が第2層の位置、Z=3の位置が第3層の位置、Z=4の位置が第4層の位置である。
 4つの薄い層は、等間隔で並んでいる。隣り合う2つの層の間隔はΔzである。波面は、2つの層の間を伝搬する。よって、Δzは、伝搬距離を表している。
 第1層における波面f (r)は、式(26)と式(12)で表される。
Figure JPOXMLDOC01-appb-M000020
 第1層の位置は、推定標本150の表面150bの位置と一致している。表面150bには、波面fin (r)が入射する。よって、波面f (r)は、波面fin (r)を表している。図28では、波面f (r)の代わりに、波面fin (r)が示されている。
 第1層における波面g (r)は、式(27)で表される。
Figure JPOXMLDOC01-appb-M000021
  ここで、
 T(r)は、第1層における振幅透過率、
である。
 第2層における波面f (r)は、波面g (r)が、Δzだけ伝搬したときの波面である。波面f (r)は、式(28)で表される
Figure JPOXMLDOC01-appb-M000022
  Δzは、隣り合う2つの層の間隔、
 λは、波長、
 uは、瞳面座標(ξ,η)の2次元表記、
 F2Dは、2次元フーリエ変換、
 F2D -1は、2次元フーリエ逆変換、
である。
 第2層における波面g (r)は、式(29)で表される。
Figure JPOXMLDOC01-appb-M000023
  ここで、
 T(r)は、第2層における振幅透過率、
である。
 第3層における波面f (r)は、波面g (r)が、Δzだけ伝搬したときの波面である。第3層における波面f (r)は、式(30)で表される。
Figure JPOXMLDOC01-appb-M000024
 第3層における波面g (r)は、式(31)で表される。
Figure JPOXMLDOC01-appb-M000025
 
 ここで、
 T(r)は、第3層における振幅透過率、
である。
 第4層における波面f (r)は、波面g (r)が、Δzだけ伝搬したときの波面である。第4層における波面f (r)は、式(32)で表される。式(21)で、ΔD=Δzとすることで、波面f (r)を算出することができる。
Figure JPOXMLDOC01-appb-M000026
 
 第4層における波面g (r)は、式(33)で表される。
Figure JPOXMLDOC01-appb-M000027
 
 ここで、
 T(r)は、第4層における振幅透過率、
である。
 第4層の位置は、推定標本150の表面150aの位置と一致している。表面150aからは、波面gout (r)が射出される。よって、波面g (r)は、波面gout (r)を表している。図28では、波面g (r)の代わりに、波面gout (r)が示されている。
 以上のように、推定標本が厚い標本の場合は、複数の薄い層に置き換えると共に、2つの層の間を伝搬する波面を求めることで、波面gout (r)を算出することができる。
 ステップS251では、変数zの値が初期化される。後述のステップS261、ステップS262、及びステップS263は、全ての取得位置に対して実行される。変数zは、これらのステップが実行された回数を表している。
 ステップS260は、ステップS261、ステップS262、ステップS263、ステップS264、及びステップS265を有する。
 ステップS261では、撮影画像の取得位置における波面u (r)が算出される。波面u (r)は、式(34)で表される。
Figure JPOXMLDOC01-appb-M000028
 
 ここで、
 △Dは推定標本の表面から薄い層までの距離、
である。
 ステップS262では、結像面における波面uimgz (r)が算出される。波面uimgz (r)は、式(35)で表される。
Figure JPOXMLDOC01-appb-M000029
 
 ステップS263では、波面uimgz (r)が2乗される。波面uimgz (r)は、光の振幅を表している。よって、波面uimgz (r)を2乗することで、光強度が算出される。
 |uimgz (r)|は、結像面IPに光強度分布を表している。第1強度分布を、検出光学系の結像位置における光強度分布とすると、|uimgz (r)|は、検出光学系の結像位置における第1光強度分布を表している。
 ステップS264では、変数zの値が取得位置の数NIMと一致したか否かが判断される。判断結果がNOの場合は、ステップS265が実行される。判断結果がYESの場合は、ステップS252が実行される。
 (判断結果がNOの場合:z≠NIM
 判断結果がNOの場合、ステップS265で、変数zの値に1が加算される。ステップS265が終ると、ステップS261に戻る。
 ステップS265で、変数zの値が1つ増えている。そのため、別の取得位置について、ステップS261、ステップS262、及びステップS263が実行される。
 ステップS261、ステップS262、及びステップS263は、全ての取得位置について初期値が設定されるまで、繰り返し行われる。
 ステップS250における処理を、第1層と第4層を用いて説明する。第2層と第3層については、第1層と同じように考えれば良い。
 図29は、撮影画像の取得位置における波面と結像面における波面を示す図である。図29(a)は、第1層におけるにおける2つの波面を示す図である。図29(b)は、第4層における2つの波面を示す図である。
 z=1における撮影画像は、撮影画像Imea1(r)である。撮影画像Imea1(r)は、表面140aからの距離が3×Δzの位置の画像である。第1層は、表面150aから3×Δzだけ離れている。よって、第1層の位置が、撮影画像Imea1(r)の取得位置に対応する。
 波面gout (r)の射出位置は、表面150aと一致している。図29(a)に示すように、波面gout (r)の射出位置は、第1層の位置と異なる。第1層は、波面gout (r)の射出位置から3×Δzだけ離れている。
 第1層における波面u (r)は、波面gout (r)が光の進行方向とは反対に3×Δzだけ伝搬したときの波面である。よって、ステップS261においてΔD=-3×Δzとすることで、式(34)から、波面u (r)を算出することができる。
 波面u (r)が算出されると、ステップS262で、式(35)から、結像面における波面uimg1 (r)が算出される。
 更に、ステップS263で、第1層の像の光強度|uimg1(r)|が算出される。
 z=2における撮影画像は、撮影画像Imea2(r)である。撮影画像Imea2(r)は、表面140aからの距離が2×Δzの位置の画像である。第2層は、表面150aから2×Δzだけ離れている。よって、第2層の位置が、撮影画像Imea2(r)の取得位置に対応する。
 波面gout (r)の射出位置は、第2層の位置と異なる。第2層は、波面gout (r)の射出位置から2×Δzだけ離れている。
 第2層における波面u (r)は、波面gout (r)が光の進行方向とは反対に2×Δzだけ伝搬したときの波面である。よって、ステップS261においてΔD=-2×Δzとすることで、波面u (r)を算出することができる。
 波面u (r)が算出されると、ステップS262で、結像面における波面uimg2 (r)が算出される。
 更に、ステップS263で、第2層の像の光強度|uimg2(r)|が算出される。
 z=3における撮影画像は、撮影画像Imea3(r)である。撮影画像Imea3(r)は、表面140aからの距離がΔzの位置の画像である。第3層は、表面150aからΔzだけ離れている。よって、第3層の位置が、撮影画像Imea3(r)の取得位置に対応する。
 波面gout (r)の射出位置は、第3層の位置と異なる。第3層は、波面gout (r)の射出位置からΔzだけ離れている。
 第3層における波面u (r)は、波面gout (r)が光の進行方向とは反対にΔzだけ伝搬したときの波面である。よって、ステップS261においてΔD=Δzとすることで、波面u (r)を算出することができる。
 波面u (r)が算出されると、ステップS262で、結像面における波面uimg3 (r)が算出される。
 更に、ステップS263で、第3層の像の光強度|uimg3(r)|が算出される。
 z=4における撮影画像は、撮影画像Imea4(r)である。撮影画像Imea4(r)は、表面140aの画像である。第4層は、表面150aと一致している。よって、第4層の位置が、撮影画像Imea4(r)の取得位置に対応する。
 波面gout (r)の射出位置は、表面150aである。図29(b)に示すように、波面gout (r)の射出位置は、第4層の位置と同じである。
 第4層における波面u (r)は、波面gout (r)同じである。波面gout (r)を波面u (r)に置き換えることができる。
 波面u (r)が算出されると、ステップS262で、結像面における波面uimg4
 波面gout (r)の射出位置は、表面150aである。図16(b)に示すように、波面gout (r)の射出位置は、第4層の位置と同じである。
 第4層における波面u (r)は、波面gout (r)同じである。波面gout (r)を波面u (r)に置き換えることができる。
 波面u (r)が算出されると、ステップS262で、結像面における波面uimg4 (r)が算出される。
 更に、ステップS263で、第4層の像の光強度|uimg4(r)|が算出される。
 波面u (r)と波面uimgz (r)は、m番目の光源から射出された照明光、すなわち、1つの光源から射出された照明光によって生成される波面を表している。
 推定標本の像Iestz(r)は、取得位置において、全ての光源から射出された照明光によって生成される。よって、全ての光源について、波面を求めなくてはならない。
 (判断結果がYESの場合:z=NIM
 ステップS242が実行される。
 波面fin (r)、波面gout (r)、波面u (r)、及び波面uimgz (r)は、m番目の光源から射出された照明光、すなわち、1つの光源から射出された照明光によって生成される波面を表している。
 推定標本の像Iestz(r)は、全ての光源から射出された照明光によって生成される。よって、全ての光源について、波面fin (r)、波面gout (r)、波面u (r)、及び波面uimgz (r)を求めなくてはならない。
 ステップS252では、変数mの値が光源の数NLSと一致したか否かが判断される。判断結果がNOの場合は、ステップS253が実行される。判断結果がYESの場合は、ステップS270が実行される。
 (判断結果がNOの場合:m≠NLS
 判断結果がNOの場合、ステップS253で、変数mの値に1が加算される。ステップS253が終ると、ステップS41に戻る。
 ステップS253で、変数mの値が1つ増えている。そのため、別の光源について、ステップS41で波面fin (r)が算出され、ステップS42で波面gout (r)が算出され、ステップS261で波面u (r)が算出され、ステップS262で波面uimgz (r)が算出され,ステップS263で|uimgz (r)|が算出される。
 ステップS41、ステップS42、ステップS251、及びステップS260は、全ての光源について|uimgz (r)|が求まるまで、繰り返し行われる。
 (判断結果がYESの場合:m=NLS
 判断結果がYESの場合、ステップS270で、|uimgz (r)|の足し合わせが行われる。その結果、推定標本の像Iestz(r)が算出される。推定標本の像Iestz(r)は、式(36)で表される。
Figure JPOXMLDOC01-appb-M000030
 図30は、推定標本の像を示す図である。図30(a)は、第1層における推定標本の像を示す図である。図30(b)は、第4層における推定標本の像を示す図である。
 推定標本の像Iest1(r)は、全ての光源について波面uimg1 (r)が求められた場合の像である。推定標本の像Iest4(r)は、全ての光源について波面uimg4 (r)が求められた場合の像である。
 図30(a)に示すように、各光源について波面uimg1 (r)が算出され、波面uimg1 (r)から|uimg1 (r)|が算出され、|uimg1 (r)|が全て足し合わされている。その結果、第1層における推定標本の像Iest1(r)が算出される。
 図30(b)に示すように、各光源について波面uimg4 (r)が算出され、波面uimg4 (r)から|uimg4 (r)|が算出され、|uimg4 (r)|が全て足し合わされている。その結果、第4層における推定標本の像Iest4(r)が算出される。
 (判断結果がYESの場合:m=NLS
 ステップS280で、残差が算出される。残差は、式(37)で表される。式(37)に示すように、残差は、撮影画像Imeaz(r)と推定標本の像Iestz(r)とから算出される。
Figure JPOXMLDOC01-appb-M000031
 上述のように、撮影画像の数は4で、推定標本の像の数も4である。よって、Imea1(r)とIest1(r)から、第1層における残差が算出される。Imea2(r)とIest2(r)から、第2層における残差が算出される。Imea3(r)とIest3(r)から、第3層における残差が算出される。Imea4(r)とIest4(r)から、第4層における残差が算出される。
 第1層における残差、第2層における残差、第3層における残差、及び第4層における残差から、ステップ70で用いられる残差が算出される。
 ステップS70では、残差と閾値との比較が行われる。判断結果がNOの場合は、ステップS290が実行される。判断結果がYESの場合は、ステップS110が実行される。
 (判断結果がNOの場合:残差≧閾値)
 ステップS290では、変数Lの値が初期化される。後述のステップS301、ステップS302、ステップS303、ステップS304、及びステップS310は、ステップS210で設定した回数だけ実行される。変数Lは、これらのステップが実行された回数を表している。
 ステップS300は、ステップS301、ステップS302、ステップS303、ステップS304、ステップS305、ステップS306、及びステップS310を有する。
 ステップS301では、1からNIMまでのなかから1つがランダムに選択される。後述のステップS311では、補正後の波面が算出される。補正後の波面の算出では、1つの撮影画像と1つの推定標本の像が用いられる。
 上述のように、ステップS270では、複数の推定標本の像が算出される。補正後の波面の算出に用いる推定標本の像は、1つである。よって補正後の波面の算出に用いる推定標本の像を、複数の推定標本の像のなかから選択する。
 NIMは、層の数である。NIM=4の場合、ステップS301では、1から4までの数字のなかから、1つの数字がランダムに選択される。
 例えば、選択された数字が1の場合、数字の1は第1層を表している。第1層における推定標本の像には、1番目の取得位置における撮影画像が対応する。よって、補正後の波面の算出には、1番目の取得位置における撮影画像と、第1層における推定標本の像が用いられる。
 また、例えば、選択された数字が4の場合、選択された数字は第4層を表している。第4層における推定標本の像には、4番目の取得位置における撮影画像が対応する。よって、補正後の波面の算出には、4番目の取得位置における撮影画像と、第4層における推定標本の像が用いられる。
 ステップS302では、ステップS301で選択した値が変数zLに入力される。上述のように、ステップS301では、1からNIMまでの数字のなかから、1つの数字がランダムに選択される。例えば、選択された数字が1の場合、ステップS302で、変数zLに1が入力されることになる。
 ステップS303では、変数mの値が初期化される。後述のステップS311、ステップS312、及びステップS313は、全ての光源に対して実行される。変数mは、これらのステップが実行された回数を表している。
 ステップS310は、推定標本の屈折率分布を最適化するステップである。
 ステップS310は、ステップS311、ステップS312、ステップS313、ステップS314、及びステップS315を有する。
 ステップS311では、波面u’zL (r)が算出される。波面u’zL (r)は、変数zLの値で示される層の位置における波面である。
 波面u’zL (r)の算出では、撮影画像ImeazL(r)と推定標本の像IestzL(r)が用いられる。撮影画像ImeazL(r)は、撮影画像Imeazのうち、変数zLの値で示される位置の撮像画像である。推定標本の像IestzL(r)は、推定標本の像Iestzのうち、変数zLの値で示される位置の推定標本の像である。
 波面u’zL (r)は式(38)で表される。
Figure JPOXMLDOC01-appb-M000032
 図31は、波面の補正を示す図である。図31(a)は、推定標本から射出する補正前の波面を示す図である。図31(b)は、撮影画像の取得位置における補正前の波面を示す図である。図31(c)は、撮影画像の取得位置における補正後の波面を示す図である。図31(d)は、推定標本から射出する補正後の波面を示す図である。
 ステップS301で選択された数字が1の場合、すなわち、zL=1の場合について説明する。
 図30(a)に示すように、推定標本の像Iest1(r)は、波面uimg1 (r)に基づいて算出される。また、図30(a)と図31(b)に示すように、波面uimg1 (r)は、波面u (r)に基づいて算出される。
 図31(a)に示すように、波面u (r)の算出には、振幅透過率T(r)が用いられている。振幅透過率T(r)は、推定された振幅透過率である。ステップS300の1回目の実行時、この振幅透過率T(r)は、標本140の振幅透過率と異なる。
 振幅透過率T(r)と標本140の振幅透過率との差が大きくなるほど、推定標本の像Iestz(r)と撮影画像Imeaz(r)との差も大きくなる。よって、推定標本の像Iestz(r)と撮影画像Imeaz(r)との差は、振幅透過率T(r)と標本140の振幅透過率との差を反映していると見なすことができる。
 上述のように、zL=1である。そこで、式(38)でzL=1として、推定標本の像Iest1(r)と撮影画像Imea1(r)と用いて、波面u (r)を補正する。その結果、図31(c)に示すように、補正された波面、すなわち、波面u’ (r)が得られる。
 波面u’ (r)を用いることで、新たな振幅透過率を算出できる。波面u’ (r)は、波面u (r)と異なる。よって、新たな振幅透過率は、波面u (r)を算出したときの振幅透過率とは異なる。
 ステップS312では、補正後の波面g’out m,zL(r)が算出される。波面g’out m,zL(r)は、波面u’zL (r)がΔDだけ伝搬したときの波面である。波面g’out m,zL(r)は、式(39)で表される。
Figure JPOXMLDOC01-appb-M000033
 上述のように、波面u’ (r)を用いて、振幅透過率T(r)を算出することができる。ただし、図31に示すように、振幅透過率T(r)の算出には、波面gout (r)の位置における波面が必要である。
 図31(a)、(c)に示すように、波面u’ (r)の位置と、波面gout (r)の位置は異なる。よって、振幅透過率T(r)を算出するためには、図31(d)に示すように、波面g’out m,1(r)が必要である。
 波面g’out m,1(r)は、波面u’ (r)が、3×Δzだけ伝搬したときの波面である。式(39)で、ΔD=3×Δz、zL=1とすることで、波面g’out m,1(r)を算出することができる。
 ステップS313では、標本の勾配ΔT m,zL(r)が算出される。ΔT m,zL(r)は、m番目の光源で照明し、且つ、変数zLの値で示される層の位置における撮影画像と推定標本の像で補正した時の標本の勾配である。
 標本の勾配ΔT m,zLは式(40)で表される。標本の勾配ΔT m,zL(r)の算出には、例えば、勾配降下法を用いることができる。
Figure JPOXMLDOC01-appb-M000034
  ここで、
 fは、fの複素共役
 δは、ゼロ除算を防ぐための正規化定数、
である。
 上述のように、推定標本150は、複数の薄い層に置き換えられている。よって、薄い層の各々について、標本の勾配ΔT m,zL(r)を算出する必要がある。
 図32は、標本の勾配と波面の伝搬を示す図である。推定標本150が4つの薄い層に置き換えられた場合、つまりNIM=4の場合について説明する。また、zL=1とする。図32(a)は、標本の勾配を示す図である。図32(b)は、波面の伝搬を示す図である。
 波面gout (r)の算出には、振幅透過率T(r)が用いられている。振幅透過率T(r)は、推定された振幅透過率である。よって、この振幅透過率T(r)は、標本140の振幅透過率と異なる。
 振幅透過率T(r)と標本140の振幅透過率との差が大きくなるほど、波面gout (r)と波面g’out m,1(r)との差も大きくなる。よって、波面gout (r)と波面g’out m,1(r)との差は、振幅透過率T(r)と標本140の振幅透過率との差を反映していると見なすことができる。
 波面f (r)、振幅透過率T(r)、波面gout (r)、及び波面g’out m,1(r)は、既知である。そこで、式(40)でz=4、zL=1とすることで、図32(a)に示すように、標本の勾配ΔT m,1(r)を算出することができる。
 g (r)と波面gout (r)は同じなので、g (r)の代わりに、波面gout (r)を用いれば良い。また、g’ m,1(r)はg’out m,1(r)と同じなので、g’ m,1(r)の代わりに、g’out m,1(r)を用いれば良い。
 次に、標本の勾配ΔT m,1(r)を算出する。標本の勾配ΔT m,1(r)の算出には、波面g (r)の位置における波面が必要である。この波面を算出するためには、図32(b)に示すように、波面f’ m,1(r)が必要である。
 波面f’ m,1(r)は、式(41)でz=4、zL=1とすることで算出できる。
Figure JPOXMLDOC01-appb-M000035
 次に、算出された波面f’ m,1(r)を用いて、波面g m,1(r)の位置における波面を算出する。
 図33は、標本の勾配と波面の伝搬を示す図である。図33(a)は、波面の伝搬と標本の勾配を示す図である。図33(b)は、波面の伝搬を示す図である。
 図33(a)に示すように、波面g’ m,1(r)は、波面f’ m,1(r)がΔzだけ伝搬したときの波面である。これは、第4層から第3層への波面の伝搬である。
 上述のように、第3層から第4層への波面の伝搬は、式(32)で表わされる。よって、式(32)において、以下のようにすることで、波面g’ m,1(r)を算出できる。
  波面f (r)を、波面g’ m,1(r)に置き換える。
  波面g (r)を、波面f’ m,1(r)に置き換える。
  ΔD=-Δzとする。
 波面f (r)、振幅透過率T(r)、波面g (r)、及び波面g’ m,1(r)は、既知である。そこで、式(40)でz=3、zL=1とすることで、図33(b)に示すように、標本の勾配ΔT m,1(r)を算出することができる。
 波面f’ m,1(r)は、式(41)でz=3、zL=1とすることで算出できる。
 第2層と第1層についても、第3層と同様にして、標本の勾配の算出を行えばよい。
 図34は、標本の勾配を示す図である。図34では、第1層における標本の勾配ΔT m,1(r)、第2層における標本の勾配ΔT m,1(r)、第3層における標本の勾配ΔT m,1(r)、及び第4層における標本の勾配ΔT m,1(r)、が算出されている。
 ステップS313で得られる標本の勾配ΔT m,1(r)は、m番目の光源で照明し、且つ、第1層の位置における撮影画像と第1層の位置における推定標本の像で補正した時の標本の勾配である。標本の勾配ΔT m,1(r)は、全ての光源から射出された照明光によって決まる。よって、全ての光源について、標本の勾配ΔT m,1(r)を求めなくてはならない。
 ステップS314では、変数mの値が光源の数NLSと一致したか否かが判断される。判断結果がNOの場合は、ステップS315が実行される。判断結果がYESの場合は、ステップS304が実行される。
 (判断結果がNOの場合:m≠NLS
 判断結果がNOの場合、ステップS315で、変数mの値に1が加算される。ステップS315が終ると、ステップS311に戻る。
 ステップS315で、変数mの値が1つ増えている。そのため、別の光源について、ステップS311で波面um,1(r)が算出され、ステップS312で波面goutm,1(r)が算出され、ステップS313で標本の勾配ΔT m,1(r)が算出される。
 ステップS311、ステップS312、及びステップS313は、全ての光源について標本の勾配ΔT m,1(r)が求まるまで、繰り返し行われる。
 図35は、標本の勾配を示す図である。図35では、全ての光源について、標本の勾配ΔT m.1(r)が求められている。
 (判断結果がYESの場合:m=NLS
 判断結果がYESの場合、ステップS304で、振幅透過率T(r)が更新される。ステップS304は、推定標本を更新するステップするステップである。
 更新された振幅透過率T(r)は、式(42)で表される。
Figure JPOXMLDOC01-appb-M000036
  ここで、
 αは、標本の勾配の補正係数、
である。
 ステップS305では、変数Lの値が補正の回数NCRと一致したか否かが判断される。判断結果がNOの場合は、ステップS306が実行される。判断結果がYESの場合は、ステップS30が実行される。
 (判断結果がNOの場合:m≠NCR
 判断結果がNOの場合、ステップS306で、変数Lの値に1が加算される。ステップS306が終ると、ステップS301に戻る。
 ステップS301で、1からNIMまでのなかから1つがランダムに選択される。選択された数字に基づいて、補正に用いる推定標本の像と取得位置が決まる。
 そして、ステップS311で波面um,1(r)が算出され、ステップS312で波面goutm,1(r)が算出され、ステップS313で標本の勾配ΔT m,1(r)が算出され、ステップS304で振幅透過率T(r)が更新される。
 ステップS301、ステップS302、ステップS303、ステップS304、及びステップS310は、設定された回数の補正が終るまで、繰り返し行われる。
 (判断結果がYESの場合:m=NCR
 判断結果がYESの場合、ステップS30に戻る。更新された振幅透過率T(r)で、ステップS30からステップS300までが実行される。
 ステップS30からステップS300までが繰り返し実行されることで、更新された振幅透過率T(r)は、徐々に、標本140の振幅透過率に近づく。すなわち、残差が小さくなる。やがて、残差は閾値よりも小さくなる。
 (判断結果がYESの場合:残差<閾値)
 ステップS110では、推定標本の屈折率分布が算出される。得られた振幅透過率T(r)は、標本140の振幅透過率と同一か、又は、略同一である。得られた振幅透過率T(r)と式(1)から、屈折率分布n(r)が求まる。
 ステップS110で得られた屈折率分布n(r)を用いることで、推定標本の構造を再構成することができる。再構成された推定標本の構造は、例えば、表示装置に出力することができる。推定標本150は、厚い標本である。第2のシミュレーションでは、厚い標本の構造は、推定標本の3次元構成を再構成することができる。
 上述のように、ステップS110で得られた振幅透過率T(r)は、標本140の振幅透過率と同一か、又は、略同一である。この場合、屈折率分布n(r)も、標本140の屈折率分布と同一か、又は、略同一と見なすことができる。よって、再構成された推定標本150の構造は、標本6の構造と同一か、又は、略同一と見なすことができる。
 第2のシミュレーションでは、ステップS250、ステップS270、及びステップS310が、繰り返し実行される。その結果、振幅透過率T(r)が更新される。上述のように、ステップS250とステップS270は、推定標本の像を算出するステップである。ステップS310は、推定標本の屈折率分布を最適化するステップである。
 振幅透過率T(r)は、推定標本を表している。よって、推定標本の像を算出するステップと推定標本の屈折率分布を最適化するステップが繰り返し実行されることで、推定標本が更新される。
 図36は、第1例のシミュレーションの結果を示す図である。図36(a)は、標本を示している。図36(b)は、開口部材を示している。図36(c)は、標本の像を示している。図36(d)は、再構成した推定標本を示している。
 標本は、フォトニッククリスタルファイバー(以下、「PCF」という)ある。PCFでは、クラッドの内部に、複数の貫通孔が形成されている。貫通孔を、コアと称する。PCFは液体に浸されている。よって、コアは液体で満たされている。
 各種パラメータの数値は、以下のとおりである。
 標本の外径         230μm
 コアの直径           6μm
 コアの屈折率          1.466
 クラッドの屈折率        1.462
 液体の屈折率          1.466
 対物レンズの開口数       1.4
 対物レンズの倍率       60倍
 対物レンズの焦点距離      3mm
 第2領域の開口数        0.3、1.25
 コンデンサレンズの焦点距離   7mm
 開口部材の透過領域の直径    0.2mm
 照明光の波長          0.7μm
 第2領域の開口数は、コンデンサレンズの開口数で表している。図36(b)に示すように、第2領域は、2つの円の円周上に位置している。内側の円周上に位置する第2領域から射出した光束は、開口数0.3相当の光束と見なせば良い。外側の円周上に位置する第2領域から射出した光束は、開口数1.25相当の光束と見なせば良い。
 各条件式におけるパラメータの値は以下のとおりである。
 検出光学系の瞳の面積(PS’)     55.4mm
 第2領域の面積(LS’)         0.0058mm
 LS’/PS’              1.0×10-4
 検出光学系の瞳直径(T’)        8.4mm
 隣接する2つの第2領域の間隔(d’)   0.47mm
 d’/T’                0.056
 検出光学系の瞳の面積    (8.4/2)×3.14=55.4
 第2領域の面積       (0.086/2)×3.14=0.0058
 第2領域の直径       0.2/7×3=0.086
 検出光学系の瞳直径     2×1.4×3=8.4
 内側の第2領域までの半径  0.3×3=0.9
 隣接する2つの第2領域の間隔
              0.9×sin30/cos15=0.47
 図36(b)に示すように、第2領域は、2つの円の円周上に位置している。内側に位置する第2領域までの半径は、内側の円の半径である。
 図37は、開口部材と再構成した推定標本を示す図である。図37(a)、図37(b)、図37(c)、図37(d)は、開口部材を示している。図37(e)、図37(f)、図37(g)、図37(h)は、再構成した推定標本を示している。
 対物レンズの開口数を1.4、照明光の波長を0.7μmとして、推定標本を再構成している。
 各図における開口部材と再構成した推定標本の対応関係は、以下の通りである。
     開口部材      再構成した推定標本
    図37(a)      図37(e)
    図37(b)      図37(f)
    図37(c)      図37(g)
    図37(d)      図37(g)
 図37(a)に示す開口部材では、第2領域の開口数は0.3と0.5である。図37(e)に示すように、再構成した推定標本では、コアがZ軸方向に伸びている。図37(a)に示す開口部材では、細かい構造は推定することが困難である。
 図37(b)に示す開口部材では、第2領域の開口数は1.05と1.25である。図37(f)に示すように、再構成した推定標本では、アーチファクトが存在する。コアの薄い像が、左右に存在する。
 図37(c)に示す開口部材では、第2領域の開口数は0.3、0.5、1.05、及び1.25である。図37(g)に示すように、再構成した推定標本では、アーチファクトが存在する。ただし、図37(f)に比べて、アーチファクトが減少している。
 図37(d)に示す開口部材では、第2領域の開口数は0.3、0.5、1.05、及び1.25である。ただし、2つの開口部材を用いている。図37(h)に示すように、再構成した推定標本では、アーチファクトが存在する。ただし、図37(g)と同じ程度のアーチファクトである。
 図37(e)と図37(f)との比較から、第2領域の開口数の値が大きいほど、細かい構造が再構築される。また図37(f)と図37(g)との比較から、第2領域の数が多いほど、アーチファクトが減少する。ただし、第2領域の数が多いと、再構築における演算が収束しにくくなる。
 図37(d)に示すように、2つの開口部材を使用することで、再構成では、比較的粗い構造の推定と、比較的細かい構造の推定の割合を調整することができる。このような調整を行うことで、再構成の時間を短縮することができる。
 また、図37(d)に示す開口部材を用いると、図37(c)に示す開口部材を用いた場合と比べて、比較的粗い構造の推定だけを行うことや、比較的細かい構造の推定だけを行うことができる。
 図38は、第2例の測定における開口部材と標本の像を示す図である。図38(a)は、開口部材を示している。図38(b)と図38(c)は、標本の像を示している。
 標本は、格子状の構造物である。標本は、屈折率が1.518のオイルに浸されている。よって、格子に囲まれた空間はオイルで満たされている。
 各種パラメータの数値は、以下のとおりである。
 対物レンズの開口数       1.42
 対物レンズの倍率       60倍
 対物レンズの焦点距離      3mm
 第2領域の開口数        0.3、0.45
 コンデンサレンズの焦点距離   7.1mm
 開口部材の透過領域の直径    0.2mm
 第2領域の開口数は、コンデンサレンズの開口数で表している。図37(a)に示すように、第2領域は、2つの円の円周上に位置している。内側の円周上に位置する第2領域から射出した光束は、開口数0.3相当の光束と見なせば良い。外側の円周上に位置する第2領域から射出した光束は、開口数0.45相当の光束と見なせば良い。
 各条件式におけるパラメータの値は以下のとおりである。
 検出光学系の瞳の面積(PS’)     57.0mm
 第2領域の面積(LS’)         0.0056mm
 LS’/PS’              9.8×10-5
 検出光学系の瞳直径(T’)        8.52mm
 隣接する2つの第2領域の間隔(d’)   0.47mm
 d’/T’                0.055
 検出光学系の瞳の面積    (8.52/2)×3.14=57.0
 第2領域の面積       (0.0845/2)×3.14=0.0056
 第2領域の直径       0.2/7.1×3=0.0845
 検出光学系の瞳直径     2×1.42×3=8.52
 内側の第2領域までの半径  0.3×3=0.9
 隣接する2つの第2領域の間隔
              0.9×sin30/cos15=0.47
 図37(a)に示すように、第2領域は、2つの円の円周上に位置している。内側に位置する第2領域までの半径は、内側の円の半径である。
 図39は、第2例の結果を示す図である。図39(a)と図39(b)は、初期値を設定したの推定標本を示している。図39(c)、図39(d)、図39(e)は、再構成した推定標本を示している。
 各図における初期値開口部材と再構成した推定標本の対応関係は、以下の通りである。
     初期値を設定したの推定標本   再構成した推定標本
        図39(a)      図39(c)
        図39(b)      図39(d)
         なし         図39(e)
 図39(a)では、推定標本の輪郭が判別できるように初期値が設定されている。図39(b)では、強度輸送方程式を用いて初期値が設定されている。
 図37(c)と図37(e)との比較、および図37(d)と図37(e)との比較から、初期値を設定した方が、精度よく推定標本を再構成することができる。
 図1(a)に示す顕微鏡システム1は、照明光学系を備えることができる。この場合、顕微鏡システム1は、条件(6)、(7)を満足すると良い。また、顕微鏡システム1は、開口部材を備えることができる。
 以上のように、本発明は、画像の取得を開始してから物体モデルの推定が完了するまでの時間が短い顕微鏡システムに適している。
 1 顕微鏡システム
 2 インコヒーレント光源
 3 検出光学系
 4 撮像素子
 5 標本
 5a 表面
 5’ 光学像
 10 検出光学系3の瞳面
 11、12、20、21 第1領域
 30 第1円環領域
 31 第2円環領域
 32 第3円環領域
 40、41 第1領域
 50 第1円領域
 51 第2円領域
 52 第4円環領域
 53 第3円領域
 60 第1領域
 70 第1の扇型領域
 71 第2の扇型領域
 72 第3の扇型領域
 74 第1の扇型領域
 80、81 第1領域
 90 顕微鏡システム
 91 照明光学系
 100 照明光学系の瞳面
 101、102 第2領域
 110 顕微鏡システム
 111 開口部材
 112 プロセッサ
 113 遮光領域
 112a、112b、112c、112d 透過領域
 120 顕微鏡システム
 121 インコヒーレント光源
 122 照明光学系
 130 推定標本
 130a 表面
 140 標本
 140’ 光学像
 141 移動ステージ
 150 推定標本
 150a 表面
 L1、L2 光束
 Fo 検出光学系の焦点位置
 Pu 検出光学系の瞳位置
 IP 結像面
 C 検出光学系の瞳の中心
 IP 結像面
 PI 照明光学系の瞳面

Claims (25)

  1.  インコヒーレント光源と、検出光学系と、撮像素子と、を備え、
     前記インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源であり、
     前記検出光学系は、標本の光学像を形成する光学系であり、
     前記撮像素子は、前記検出光学系により形成された前記標本の光学像を受光し、
     前記標本では、前記インコヒーレント光源から出射した光によって複数のコヒーレント照明が同時に行われ、
     前記コヒーレント照明は、空間的にコヒーレントである光による照明であり、
     前記標本に対して光束が照射される方向は、前記コヒーレント照明それぞれで異なり、
     前記検出光学系の瞳面では、前記コヒーレント照明それぞれの光束が互いに異なる第1領域を通過し、
     前記第1領域のそれぞれは、以下の条件(1)を満たし、
     隣接する2つの前記第1領域の間隔のうち少なくとも1つの間隔は、以下の条件(2)を満たすことを特徴とする顕微鏡システム。
     LS<PS×10-3   (1)
     0.05×T<d   (2)
     ここで、
     LSは、前記第1領域の面積(単位はmm)、
     PSは、前記検出光学系の瞳の面積(単位はmm)、
     dは、隣接する2つの前記第1領域の間隔(単位はmm)、
     Tは、前記検出光学系の瞳の直径(単位はmm)、
    である。
  2.  前記第1領域の半数が、前記条件(2)を満たすことを特徴とする請求項1に記載の顕微鏡システム。
  3.  以下の条件(3)を満たすことを特徴とする請求項1に記載の顕微鏡システム。
    Figure JPOXMLDOC01-appb-M000001
     
     ここで、
     LSiは、i番目の前記第1領域の面積(単位はmm)、
     nは、前記第1領域の数、
    である。
  4.  前記第1領域のいくつかは、第1円環領域内に位置し、
     前記第1円環領域は、前記検出光学系の瞳領域のうち、半径が50%以上の領域であることを特徴とする請求項1に記載の顕微鏡システム。
  5.  前記第1領域のいくつかは、前記第1円環領域内において、2重の円を形成するように並んでいることを特徴とする請求項4に記載の顕微鏡システム。
  6.  前記第1領域のいくつかは、第2円環領域内に位置し、
     前記第2円環領域は、前記検出光学系の瞳領域のうち、半径が70%から90%の領域であることを特徴とする請求項4に記載の顕微鏡システム。
  7.  前記第1領域のいくつかは、第3円環領域内に位置し、
     前記第3円環領域は、前記検出光学系の瞳領域のうち、半径が50%から70%の領域であることを特徴とする請求項6に記載の顕微鏡システム。
  8.  前記第1領域のいくつかは、第1円領域内に位置し、
     前記第1円領域は、前記検出光学系の瞳領域のうち、前記第1円環領域より中心側の領域であることを特徴とする請求項4に記載の顕微鏡システム。
  9.  前記第1領域のいくつかは、前記第1円領域内において、円を形成するように並んでいることを特徴とする請求項8に記載の顕微鏡システム。
  10.  前記第1領域のいくつかは、第2円領域内に位置し、
     前記第2円領域は、前記検出光学系の瞳領域のうち、半径が50%以下の領域であることを特徴とする請求項1に記載の顕微鏡システム。
  11.  前記第1領域のいくつかは、前記第2円領域内において、円を形成するように並んでいることを特徴とする請求項10に記載の顕微鏡システム。
  12.  前記第1領域のいくつかは、第4円環領域内に位置し、
     前記第4円環領域は、前記検出光学系の瞳領域のうち、半径が30%以上から50%の領域であることを特徴とする請求項10に記載の顕微鏡システム。
  13.  前記第1領域のいくつかは、、第3円領域内に位置し、
     前記第3円領域は、前記検出光学系の瞳領域のうち、半径が30%以下の領域であることを特徴とする請求項12に記載の顕微鏡システム。
  14.  前記検出光学系の瞳を中心角が等しい4つの扇型に分けたとき、4つの前記扇型の全てに前記第1領域のいずれかが位置していることを特徴とする請求項1に記載の顕微鏡システム。
  15.  前記第1領域のいくつかは、前記検出光学系の瞳の中心を挟んで対をなしていることを特徴とする請求項1に記載の顕微鏡システム。
  16.  前記第1領域のそれぞれは、以下の条件(4)を満たすことを特徴とする請求項1に記載の顕微鏡システム。
     PS×10-6<LS   (4)
  17.  隣接する2つの前記第1領域の間隔のうち少なくとも1つの間隔は、条件(2)及び以下の条件(5)を満たすことを特徴とする請求項1に記載の顕微鏡システム。
     d<0.5×T   (5)
  18.  照明光学系を更に備え、
     前記照明光学系の瞳面では、前記コヒーレント照明それぞれの光束が互いに異なる第2領域に位置し、
     前記第2領域のそれぞれは、以下の条件(6)を満たし、
     隣接する2つの前記第2領域の間隔のうち少なくとも1つの間隔は、条件(2)及び以下の条件(7)を満たすことを特徴とする請求項1に記載の顕微鏡システム。
     LS’<PS’×10-3   (6)
     0.05×T’<d’   (7)
     ここで、
     LS’は、前記第2領域の面積(単位はmm)、
     PS’は、前記照明光学系の瞳の面積(単位はmm)、
     d’は、隣接する2つの前記第2領域の間隔(単位はmm)、
     T’は、前記照明光学系の瞳の直径(単位はmm)、
    である。
  19.  開口部材を更に備え、
     前記コヒーレント照明それぞれの光束は、所定面上の独立した複数の領域のそれぞれから射出され、
     前記所定面は、前記検出光学系の光軸と直交する面であり、かつ、前記標本に対して前記検出光学系と反対側の位置にある面であり、
     前記開口部材は、前記所定面に配置され、独立した複数の透過領域を備え、前記透過領域は、光を透過する領域であり、
     前記透過領域のそれぞれは、前記第1領域のそれぞれに対応することを特徴とする請求項1に記載の顕微鏡システム。
  20.  前記コヒーレント照明それぞれの光束は、所定面上の独立した複数の領域のそれぞれから射出され、
     前記所定面は、前記検出光学系の光軸と直交する面であり、かつ、前記標本に対して前記検出光学系と反対側の位置にある面であり、
     前記インコヒーレント光源は、前記所定面に複数配置され、
     前記インコヒーレント光源のそれぞれは、前記第1領域のそれぞれに対応することを特徴とする請求項1に記載の顕微鏡システム。
  21.  インコヒーレント光源と、照明光学系と、検出光学系と、撮像素子と、を備え、
     前記インコヒーレント光源は、時間的にコヒーレントでない光を射出する光源であり、
     前記検出光学系は、標本の光学像を形成する光学系であり、
     前記撮像素子は、前記検出光学系により形成された前記標本の光学像を受光し、
     前記標本では、前記インコヒーレント光源から出射した光によって複数のコヒーレント照明が同時に行われ、
     前記コヒーレント照明は、空間的にコヒーレントである光による照明であり、
     前記標本に対して光束が照射される方向は、前記コヒーレント照明それぞれで異なり、
     前記照明光学系の瞳面では、前記コヒーレント照明それぞれの光束が互いに異なる第2領域に位置し、
     前記第2領域のそれぞれは、以下の条件(6)を満たし、
     隣接する2つの前記第2領域の間隔のうち少なくとも1つの間隔は、以下の条件(7)を満たすことを特徴とする顕微鏡システム。
     LS’<PS’×10-3   (6)
     0.05×T’<d’   (7)
     ここで、
     LS’は、前記第2領域の面積(単位はmm)、
     PS’は、前記照明光学系の瞳の面積(単位はmm)、
     d’は、隣接する2つの前記第2領域の間隔(単位はmm)、
     T’は、前記照明光学系の瞳の直径(単位はmm)、
    である。
  22.  前記検出光学系は、対物レンズと、結像レンズと、を備え、
     前記照明光学系は、コンデンサレンズを備え、
     前記第2領域の面積は、以下の式(8)で表され、
     前記照明光学系の瞳の直径は、以下の式(9)で表されることを特徴とする請求項21に記載の顕微鏡システム。
     PS’=(FLcd×NA)×π   (8)
     T’=FLcd×NA   (9)
     ここで、
     FLcdは、前記コンデンサレンズの焦点距離(単位mm)、
     NAは、前記対物レンズの開口数、
    である。
  23.  開口部材を更に備え、
     前記複数の光束のそれぞれは、所定面上の独立した複数の領域のそれぞれから射出され、
     前記所定面は、前記検出光学系の光軸と直交する面であり、かつ、前記標本に対して前記検出光学系と反対側の位置にある面であり、
     前記開口部材は、前記所定面に配置され、独立した複数の透過領域を備え、前記透過領域は、光を透過する領域であり、
     前記透過領域のそれぞれは、前記第2領域のそれぞれに対応することを特徴とする請求項21に記載の顕微鏡システム。
  24.  前記複数の光束のそれぞれは、所定面上の独立した複数の領域のそれぞれから射出され、
     前記所定面は、前記検出光学系の光軸と直交する面であり、かつ、前記標本に対して前記検出光学系と反対側の位置にある面であり、
     前記インコヒーレント光源は、前記所定面に複数配置され、
     前記インコヒーレント光源のそれぞれは、前記第2領域のそれぞれに対応することを特徴とする請求項21に記載の顕微鏡システム。
  25.  プロセッサを更に備え、
     前記プロセッサは、
     前記標本をモデル化した推定標本を通過する波面を、前記光束毎に順伝搬演算で求め、
     前記光束毎に、前記波面に対応する前記検出光学系の結像位置における強度分布を算出し、
     前記光束毎の前記強度分布を足し合わせることで計算像を生成し、
     前記計算像と、前記撮像素子から出力された測定像と、の差を小さくする最適化処理を行うことで、前記推定標本を再構築することを特徴とする請求項1または請求項21に記載の顕微鏡システム。
PCT/JP2021/011097 2021-03-18 2021-03-18 顕微鏡システム WO2022195805A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21931555.3A EP4310570A1 (en) 2021-03-18 2021-03-18 Microscope system
JP2023506627A JPWO2022195805A1 (ja) 2021-03-18 2021-03-18
PCT/JP2021/011097 WO2022195805A1 (ja) 2021-03-18 2021-03-18 顕微鏡システム
US18/464,660 US20230418038A1 (en) 2021-03-18 2023-09-11 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011097 WO2022195805A1 (ja) 2021-03-18 2021-03-18 顕微鏡システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/464,660 Continuation US20230418038A1 (en) 2021-03-18 2023-09-11 Microscope system

Publications (1)

Publication Number Publication Date
WO2022195805A1 true WO2022195805A1 (ja) 2022-09-22

Family

ID=83322003

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011097 WO2022195805A1 (ja) 2021-03-18 2021-03-18 顕微鏡システム

Country Status (4)

Country Link
US (1) US20230418038A1 (ja)
EP (1) EP4310570A1 (ja)
JP (1) JPWO2022195805A1 (ja)
WO (1) WO2022195805A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021001887T5 (de) * 2020-03-27 2023-01-05 Sony Group Corporation Mikroskopsystem, bildgebungsverfahren und bildgebungsvorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044254A (ja) * 2012-08-24 2014-03-13 Canon Inc 顕微鏡用照明光学系およびこれを用いた顕微鏡
JP2014063151A (ja) * 2012-08-29 2014-04-10 Canon Inc 顕微鏡用照明光学系およびこれを用いた顕微鏡
JP2015179208A (ja) * 2014-03-19 2015-10-08 キヤノン株式会社 撮像装置および画像処理システム
WO2016125281A1 (ja) * 2015-02-05 2016-08-11 株式会社ニコン 構造化照明顕微鏡、観察方法、及び制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044254A (ja) * 2012-08-24 2014-03-13 Canon Inc 顕微鏡用照明光学系およびこれを用いた顕微鏡
JP2014063151A (ja) * 2012-08-29 2014-04-10 Canon Inc 顕微鏡用照明光学系およびこれを用いた顕微鏡
JP2015179208A (ja) * 2014-03-19 2015-10-08 キヤノン株式会社 撮像装置および画像処理システム
WO2016125281A1 (ja) * 2015-02-05 2016-08-11 株式会社ニコン 構造化照明顕微鏡、観察方法、及び制御プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images", OPTICA, vol. 6, no. 9, 2019, pages 1211 - 1219
M. R. TEAGUE: "Deterministic phase retrieval: a Greens function solution", J. OPT. SOC. AM., vol. 73, 1983, pages 1434 - 1441, XP001026262, DOI: 10.1364/JOSA.73.001434

Also Published As

Publication number Publication date
EP4310570A1 (en) 2024-01-24
US20230418038A1 (en) 2023-12-28
JPWO2022195805A1 (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
TWI683098B (zh) 用於執行光學度量之系統
US9599960B2 (en) Digital holography three-dimensional imaging apparatus and digital holography three-dimensional imaging method
CN114002190B (zh) 三维光学衍射层析成像方法及装置
KR20170063665A (ko) 확산판 및 확산판의 제조 방법
US20220262087A1 (en) Method and apparatus for super-resolution optical imaging
TWI417753B (zh) 儲存原形資料產生程式之記錄媒體,原形資料產生方法、原形製造方法、曝光方法及裝置製造方法
WO2022195805A1 (ja) 顕微鏡システム
JP7133718B2 (ja) 屈折率分布推定システム
KR102026742B1 (ko) 광학 측정 시스템 및 임계치수를 측정하는 방법
TWI809281B (zh) 用於決定待測物件之產出空間影像的方法
KR102372739B1 (ko) 라인 폭 변동에 대한 리소그라피 마스크의 구조-독립적 기여도를 결정하기 위한 방법
TWI745654B (zh) 用於確定微影光罩的焦點位置的方法及執行此方法的計量系統
TWI817520B (zh) 判斷被待量測光瞳中照明光所照明時的光學系統成像品質之方法
TW201939179A (zh) 決定用於量測微影光罩之成像光學單元的成像像差貢獻度的方法
JPH0737769A (ja) 投影光学像のシミュレーション方法
CN113219675A (zh) 衍射光学元件设计方法以及激光投射模组
KR20210098245A (ko) 광학소자 설계 방법 및 그 장치
JP7173834B2 (ja) 画像シミュレーション装置、及び画像シミュレーション方法
JPWO2021050305A5 (ja)
US20220189026A1 (en) Method for detecting a cell event
Xie et al. Squirrel search algorithm optimization for imaging through scattering media using gradient structural similarity
US20230273418A1 (en) Method and illumination device of the adaptive optics in transmission or reflection microscopy
Kharitonov An asymptotic method for solving problems of diffraction by diffractive optical elements with zone structure
WO2020252485A1 (en) Systems, methods, and structures for broadband phase shifting for quantitative phase imaging
Schimmel et al. Non-paraxial laser beam shaping

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21931555

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023506627

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2021931555

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021931555

Country of ref document: EP

Effective date: 20231018