WO2016151666A1 - 構造化照明顕微鏡、観察方法、及び画像処理プログラム - Google Patents

構造化照明顕微鏡、観察方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2016151666A1
WO2016151666A1 PCT/JP2015/058420 JP2015058420W WO2016151666A1 WO 2016151666 A1 WO2016151666 A1 WO 2016151666A1 JP 2015058420 W JP2015058420 W JP 2015058420W WO 2016151666 A1 WO2016151666 A1 WO 2016151666A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
noise reduction
processing unit
reduction processing
interference fringes
Prior art date
Application number
PCT/JP2015/058420
Other languages
English (en)
French (fr)
Inventor
三村 正文
吉田 隆彦
勇輝 照井
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to PCT/JP2015/058420 priority Critical patent/WO2016151666A1/ja
Publication of WO2016151666A1 publication Critical patent/WO2016151666A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens

Definitions

  • the present invention relates to a structured illumination microscope, an observation method, and an image processing program.
  • a super-resolution microscope that enables observation beyond the resolution of the optical system in a microscope apparatus.
  • a structured illumination microscope (SIM) that generates a super-resolution image of a sample by illuminating the sample with structured illumination to obtain a modulated image and demodulating the modulated image.
  • Structured Illumination Microscopy
  • the sample is illuminated by irradiating the sample with interference fringes formed by branching the light beam emitted from the light source into a plurality of light beams by a diffraction grating or the like and causing these light beams to interfere with each other in the vicinity of the sample.
  • the modulated image is acquired.
  • the present invention has been made in view of the above-described circumstances, and an object thereof is to provide a structured illumination microscope, an observation method, and an image processing program capable of reducing noise while ensuring the contrast of interference fringes. To do.
  • an illumination optical system that irradiates a sample with excitation fringes for exciting a fluorescent substance contained in the sample with interference fringes, and a control unit that controls the direction and phase of the interference fringes;
  • An imaging optical system that forms an image of a sample irradiated with interference fringes, an imaging device that captures an image formed by the imaging optical system and generates a captured image, and an image that is demodulated using the captured image
  • a structured illumination microscope comprising: a processing unit, wherein the image processing unit includes: a filter processing unit that performs a filter process in a frequency domain of a captured image or an image generated from the captured image; and a filter-processed image.
  • a structured illumination microscope comprising: a noise reduction processing unit that performs noise reduction processing; and a demodulation unit that performs demodulation processing using an image on which noise reduction processing has been performed.
  • the excitation light for exciting the fluorescent substance contained in the sample is irradiated to the sample with the interference fringes, the direction and phase of the interference fringes are controlled, and the interference fringes Forming an image of a sample irradiated with light, generating a captured image by capturing the image, and performing demodulation processing using the captured image.
  • an observation method characterized by including the above.
  • the sample is irradiated with the excitation light for exciting the fluorescent substance contained in the sample with the interference fringe, the direction and phase of the interference fringe are controlled, and the interference fringe is irradiated with the sample.
  • the computer uses the captured image generated by capturing the image of the image, the computer performs filtering in the frequency domain of the captured image or the image generated from the captured image, and noise is applied to the filtered image.
  • An image processing program is provided that performs a reduction process and a demodulation process using an image on which a noise reduction process has been performed.
  • the present invention it is possible to provide a structured illumination microscope, an observation method, and a control program capable of reducing noise while ensuring the contrast of interference fringes.
  • FIG. 1 is a diagram illustrating a structured illumination microscope 1 according to the embodiment.
  • the structured illumination microscope 1 includes a structured illumination device 2, an imaging device 3, a control device 4, a display device 5, and a storage device 6.
  • the structured illumination microscope 1 is, for example, a fluorescence microscope, and is used for observing a sample X including cells that have been fluorescently stained in advance.
  • the sample X is held on a stage (not shown), for example.
  • Schematic illumination microscope 1 generally operates as follows.
  • the structured illumination device 2 forms interference fringes and illuminates the sample X with the interference fringes.
  • the imaging device 3 captures a fluorescent image of the sample X illuminated by the interference fringes. This fluorescent image is a moire image modulated by interference fringes.
  • the control device 4 controls each part of the structured illumination microscope 1.
  • the control device 4 controls the structured illumination device 2 to switch the interference fringes to a plurality of states.
  • the control device 4 controls the imaging device 3 to capture an image of the sample X in each of the plurality of states of the interference fringes, and acquires a plurality of images.
  • the control device 4 can form a super-resolution image exceeding the resolution limit of the optical system of the imaging device 3 by performing demodulation processing using a plurality of images.
  • the control device 4 displays the formed super-resolution image on the display device 5.
  • the control device 4 causes the storage device 6 to store data of the formed super-resolution image (demodulated image), for example.
  • the structured illumination microscope 1 includes a 2D-SIM mode for forming a two-dimensional super-resolution image of a surface to be observed (hereinafter referred to as a sample surface) of the sample X and information in a direction perpendicular to the sample surface.
  • 3D-SIM mode for forming a three-dimensional three-dimensional super-resolution image.
  • the 2D-SIM mode will be mainly described, and then the 3D-SIM mode will be described.
  • the structured illumination device 2 includes a light source unit 10 and an illumination optical system 11.
  • the light source unit 10 includes, for example, a laser diode, and emits coherent light such as laser light.
  • the light emitted from the light source unit 10 is referred to as illumination light.
  • the wavelength of the illumination light is set to a wavelength band that includes the excitation wavelength of the fluorescent substance contained in the sample X.
  • the light source unit 10 may not be included in the structured illumination device 2.
  • the light source unit 10 is unitized and may be provided in the structured lighting device 2 so as to be replaceable (attachable or removable).
  • the light source unit 10 may be attached to the structured illumination device 2 during observation with the structured illumination microscope 1.
  • the illumination optical system 11 irradiates the sample with interference fringes with excitation light (illumination light) for exciting the fluorescent substance contained in the sample X.
  • the illumination optical system 11 includes a condenser lens 12, a light guide member 13, a collimator 14, and a branching unit 15 in order from the light source unit 10 toward the sample X.
  • the light guide member 13 includes, for example, an optical fiber.
  • the condensing lens 12 condenses the illumination light from the light source unit 10 on the end surface of the light guide member on the light incident side.
  • the light guide member 13 guides the illumination light from the condenser lens 12 to the collimator 14.
  • the collimator 14 converts the illumination light from the light guide member 13 into parallel light.
  • the illumination optical system 11 branches the illumination light into a plurality of diffracted lights by the branching unit 15 and illuminates the sample X with interference fringes formed by interference of the plurality of diffracted lights.
  • FIG. 1 shows 0th-order diffracted light (shown by a solid line), + 1st-order diffracted light (shown by a broken line), and -1st-order diffracted light (shown by a two-dot chain line) among a plurality of light beams.
  • the + 1st order diffracted light and the ⁇ 1st order diffracted light among the diffracted lights they are simply expressed as 1st order diffracted light.
  • the direction in which the first-order diffracted light is deflected with respect to the zero-order diffracted light (Z direction in FIG. 1) is referred to as a branch direction.
  • the illumination optical system 11 illuminates the sample with interference fringes formed by interference between the + 1st order diffracted light and the ⁇ 1st order diffracted light among the plurality of diffracted lights in the 2D-SIM mode.
  • the illumination optical system 11 forms interference fringes of + 1st order diffracted light and ⁇ 1st order diffracted light, and does not use 0th order diffracted light and second order or higher order diffracted light for forming interference fringes.
  • the illumination optical system 11 includes a rotationally symmetric lens member such as a spherical lens or an aspheric lens.
  • a rotationally symmetric lens member such as a spherical lens or an aspheric lens.
  • the symmetry axis of the lens member is referred to as the optical axis 11a of the illumination optical system 11.
  • the illumination optical system 11 may include a free-form surface lens.
  • the branching unit 15 branches the illumination light into a plurality of diffracted lights.
  • the branching unit 15 includes, for example, a diffraction grating 16 and a driving unit 17.
  • the diffraction grating 16 has, for example, a one-dimensional periodic structure in a plane intersecting the optical axis 11a of the illumination optical system 11. The direction in which the unit structures are arranged in this periodic structure corresponds to the aforementioned branching direction.
  • This periodic structure may be a structure in which the density (transmittance) changes periodically or a structure in which the step (phase difference) changes periodically.
  • the branching unit 15 may be configured to branch the illumination light into a plurality of light beams by a spatial light modulation element using ferroelectric liquid crystal instead of the diffraction grating 16, for example.
  • the driving unit 17 moves the diffraction grating 16 in a direction intersecting the optical axis 11a of the illumination optical system 11. As a result, the phase of the interference fringes formed by the illumination light changes.
  • the control device 4 controls the phase of the interference fringes by controlling the drive unit 17.
  • the drive unit 17 rotates (rotates) the diffraction grating 16 around an axis parallel to the optical axis 11 a of the illumination optical system 11. Thereby, the direction of the interference fringes formed by the illumination light changes.
  • the control device 4 controls the direction of the interference fringes by controlling the drive unit 17.
  • the structured illumination microscope 1 changes the direction of the interference fringes into three ways, changes the phase of the interference fringes into three ways for each direction of the interference fringes, and each of nine kinds of combinations of the directions and phases of the interference fringes are different.
  • the sample X is imaged in the state.
  • the illumination optical system 11 includes a lens 20, a half-wave plate 21, a mask 22, a lens 23, a field stop 24, a lens 25, a filter 26, a dichroic mirror 27, and an objective lens 28 in order from the branching unit 15 toward the sample X. including.
  • Diffracted light generated at the branching portion 15 enters the lens 20.
  • the lens 20 is disposed so that its focal point substantially coincides with the branching portion 15.
  • the lens 20 places diffracted light of the same order among the plurality of light beams branched by the branching unit 15 at the same position on a so-called pupil conjugate plane P1, which is a position conjugate with the rear focal plane (pupil plane) of the objective lens 28. Condensate.
  • the lens 20 condenses the 0th-order diffracted light generated at the branching portion 15 on the optical axis 11a of the illumination optical system 11 at the pupil conjugate plane P1.
  • the lens 20 condenses the + 1st order diffracted light generated in the branching portion 15 at a position away from the optical axis 11a.
  • the lens 20 condenses the ⁇ 1st order diffracted light generated at the branching portion 15 at a position symmetrical to the + 1st order diffracted light with respect to the optical axis 11a on the pupil conjugate plane P1.
  • the half-wave plate 21 is disposed in the optical path between the lens 20 and the lens 23, for example, and adjusts the polarization state of the illumination light so that the polarization state of the illumination light when entering the sample X is S-polarized light.
  • the incident surface of the first-order diffracted light with respect to the sample X is an XZ plane
  • the half-wave plate 21 is a linearly polarized light whose illumination state emitted from the illumination optical system 11 is in the Y direction.
  • the polarization state of the illumination light is adjusted so that When the diffraction direction is changed in the branching section 15, the incident surface of the first-order diffracted light with respect to the sample X rotates around the Z direction. Therefore, the half-wave plate 21 adjusts the polarization state of the illumination light according to the diffraction direction.
  • the half-wave plate 21 may be disposed at any position on the optical path between the branching portion 15 and the sample X.
  • the mask 22 transmits diffracted light used for forming interference fringes and blocks diffracted light not used for forming interference fringes.
  • the mask 22 passes the first-order diffracted light and blocks the 0th-order diffracted light and the second-order or higher-order diffracted light.
  • the mask 22 is disposed at a position where the optical path of the first-order diffracted light is separated from the optical path of the zero-order diffracted light, for example, at the pupil conjugate plane P1.
  • the mask 22 is, for example, an aperture stop, and defines the angle of light rays incident on the sample X.
  • the portion of the mask 22 where the 0th-order diffracted light is incident serves as a light shielding portion
  • the portion where the first-order diffracted light is incident serves as an opening (transmission portion).
  • the illumination light that has passed through the mask 22 enters the lens 23.
  • the lens 23 forms an intermediate image surface 23 a that is optically conjugate with the branch portion 15.
  • the field stop 24 is disposed, for example, on the intermediate image plane 23a.
  • the field stop 24 defines a range (illumination field, illumination area) in which illumination light is irradiated from the illumination optical system 11 to the sample X in a plane perpendicular to the optical axis 11a of the illumination optical system 11.
  • the illumination light that has passed through the field stop 24 enters the lens 25.
  • the lens 25 is, for example, a second objective lens.
  • the lens 25 condenses the + 1st order diffracted light from each point on the branching portion 15 on the rear focal plane (pupil plane P0) of the objective lens.
  • the lens 25 condenses the ⁇ 1st order diffracted light from each point on the branching portion 15 at another position on the rear focal plane (pupil plane P0) of the objective lens. That is, the lens 25 condenses the ⁇ 1st order diffracted light from each point of the branching portion 15 at a position symmetrical to the + 1st order diffracted light with respect to the optical axis of the illumination optical system 11.
  • the illumination light that has passed through the lens 25 enters the filter 26.
  • the filter 26 is an excitation filter, for example, and has a characteristic that light in a wavelength band including the excitation wavelength of the fluorescent material contained in the sample X selectively passes.
  • the filter 26 blocks at least a part of the illumination light other than the excitation wavelength, stray light, external light, and the like.
  • the light that has passed through the filter 26 enters the dichroic mirror 27.
  • the dichroic mirror 27 has a characteristic that light in a wavelength band including the excitation wavelength of the fluorescent substance contained in the sample X is reflected and light in a predetermined wavelength band (for example, fluorescence) out of the light from the sample X passes.
  • the light from the filter 26 is reflected by the dichroic mirror 27 and enters the objective lens 28.
  • the objective lens 28 forms a surface optically conjugate with the intermediate image surface 23a, that is, a surface optically conjugate with the branching portion 15, on the sample X. That is, the objective lens 28 forms structured illumination on the sample X.
  • the + 1st order diffracted light forms a spot on the pupil plane P0 of the objective lens 28 away from the optical axis 11a.
  • the ⁇ 1st order diffracted light forms a spot on the pupil plane P0 at a position symmetrical to the + 1st order diffracted light with respect to the optical axis 11a.
  • the spots formed by the first-order diffracted light are arranged, for example, on the outer periphery of the pupil plane P0.
  • the first-order diffracted light is incident on the focal plane at an angle corresponding to the numerical aperture (NA) of the objective lens 28.
  • interference fringes formed on the sample X have a periodic distribution of light intensity in a direction (in the XY plane) perpendicular to the optical axis 11a of the illumination optical system 11, for example.
  • This interference fringe is a pattern in which line-shaped bright portions and dark portions are periodically arranged in a direction corresponding to the periodic direction of the branching portion 15.
  • a direction parallel to the bright part and the dark part is referred to as a line direction
  • a direction in which the bright part and the dark part are arranged is referred to as a periodic direction.
  • the direction of the interference fringes is defined by, for example, at least one of the line direction and the periodic direction.
  • the portion of the sample X arranged in the bright part of the interference fringe emits fluorescence when the fluorescent material is excited.
  • the distribution of the structure of the sample X eg, fluorescent substance
  • the fluorescent image of the sample X is a moire image of the interference fringes formed by the illumination optical system 11 and the fluorescent density distribution of the sample X.
  • the imaging device 3 acquires this moire image.
  • the imaging device 3 includes an imaging optical system 31 and an imaging element 32.
  • the imaging optical system 31 includes an objective lens 28, a dichroic mirror 27, a filter 33, and a lens 34.
  • the imaging optical system 31 shares the objective lens 28 and the dichroic mirror 27 with the illumination optical system 11.
  • Light from the sample X (hereinafter referred to as observation light) enters the objective lens 28 to be collimated, and enters the filter 33 through the dichroic mirror 27.
  • the filter 33 is, for example, a fluorescent filter.
  • the filter 33 has a characteristic that light in a predetermined wavelength band (eg, fluorescence) of observation light from the sample X selectively passes.
  • the filter 33 blocks, for example, illumination light, external light, stray light, etc. reflected by the sample X.
  • the light that has passed through the filter 33 enters the lens 34.
  • the lens 34 forms a plane (image plane) optically conjugate with the focal plane (object plane) of the objective lens 28. An image (moire image) by fluorescence from the sample X is formed on this image plane.
  • the image sensor 32 includes a two-dimensional image sensor such as a CCD image sensor or a CMOS image sensor.
  • the imaging element 32 has, for example, a structure having a plurality of pixels arranged two-dimensionally and a photoelectric conversion element such as a photodiode disposed in each pixel.
  • the imaging element 32 reads out the electric charge generated by the irradiation of the observation light to the photoelectric conversion element by the reading circuit.
  • the image sensor 32 converts the read charges into digital data (for example, 8-bit gradation value), and outputs digital image data in which pixel positions and gradation values are associated with each other.
  • the structured illumination microscope 1 includes an image processing unit 40 that performs image processing using a captured image acquired by the imaging device 3.
  • the image processing unit 40 is provided in the control device 4, but may be provided separately from the control device 4.
  • the image processing unit 40 performs noise reduction processing on the captured image captured by the imaging element 32, and generates a demodulated image using the image after the noise reduction processing.
  • FIG. 2 is a block diagram showing a functional configuration of the control device 4.
  • the control device 4 includes a control unit 41, an image processing unit 40, and a storage unit 42.
  • the control device 4 includes, for example, a computer system including a CPU and a RAM, and the storage unit 42 is a work memory such as a RAM.
  • the control unit 41 acquires captured image data from the image sensor 32 and causes the storage device 6 to store captured image data.
  • the image processing unit 40 acquires captured image data from the storage device 6 and performs image processing.
  • the image processing unit 40 includes a filter processing unit 43, a noise reduction processing unit 44, and a demodulation unit 45.
  • FIG. 3 is a diagram showing input / output data in each unit of the image processing unit 40.
  • the filter processing unit 43 acquires captured image data.
  • the filter processing unit 43 performs filter processing in the frequency domain. For example, the filter processing unit 43 generates an image obtained by extracting a region having a predetermined frequency including the frequency of interference fringes from the captured image.
  • the filter processing unit 43 outputs the data of the filtered image.
  • the noise reduction processing unit 44 acquires captured image data and filtered image data.
  • the noise reduction processing unit 44 performs noise reduction processing on the captured image that is the target of noise reduction processing using the filtered image, and generates an image with reduced noise.
  • the noise reduction processing unit 44 outputs image data with reduced noise.
  • the demodulator 45 acquires data of the image with reduced noise generated by the noise reduction processor 44, and generates (constructs) a demodulated image using the image with reduced noise.
  • the demodulator 45 outputs demodulated image data.
  • the control unit 41 stores the data of the demodulated image in the storage device 6.
  • the control unit 41 supplies demodulated image data to the display device 5 (see FIG. 1), and causes the display device 5 to display the demodulated image.
  • the image processing unit 40 may include an intermediate image generation unit 46 as shown in FIGS. 3B and 3C.
  • the intermediate image generation unit 46 performs preprocessing for generating a demodulated image to generate an intermediate image.
  • the intermediate image generation unit 46 acquires image data with reduced noise generated by the noise reduction processing unit 44, and uses the image with reduced noise as an intermediate image. Is generated.
  • the intermediate image generation unit 46 outputs intermediate image data.
  • the demodulator 45 acquires the intermediate image data generated by the intermediate image generator 46 and generates (constructs) a demodulated image using the intermediate image.
  • the demodulator 45 outputs demodulated image data.
  • the noise reduction processing unit 44 may perform noise reduction processing on the intermediate image.
  • the intermediate image generation unit 46 acquires captured image data, and generates an intermediate image using the captured image.
  • the intermediate image generation unit 46 outputs intermediate image data.
  • the filter processing unit 43 acquires intermediate image data.
  • the filter processing unit 43 generates an image (filtered image) obtained by extracting a region having a predetermined frequency including the frequency of interference fringes from the intermediate image.
  • the filter processing unit 43 outputs the data of the filtered image.
  • the noise reduction processing unit 44 acquires intermediate image data and filtered image data.
  • the noise reduction processing unit 44 performs noise reduction processing on the intermediate image using the filtered image to generate an image with reduced noise.
  • the noise reduction processing unit 44 outputs image data with reduced noise.
  • the demodulator 45 acquires image data with reduced noise, and generates a demodulated image using the image with reduced noise.
  • the demodulator 45 outputs demodulated image data.
  • the filter processing unit 43 changes the contrast of the interference fringes from the captured image or the image generated from the captured image. For example, the filter processing unit 43 generates an image in which interference fringes are enhanced (hereinafter referred to as an enhanced image) as the filtered image.
  • an enhanced image an image in which interference fringes are enhanced
  • FIG. 4 is a conceptual diagram showing a captured image 50 and a first emphasized image 60 that are subject to noise reduction processing.
  • the captured image 50 includes, for example, a sample portion 51 corresponding to the distribution (fluorescence density distribution) of the structure (eg, fluorescent substance) of the sample X, and a stripe portion 52 corresponding to an interference fringe.
  • the stripe part 52 has a bright part 52a and a dark part 52b, and is a pattern in which the bright part 52a and the dark part 52b are alternately arranged periodically.
  • the bright part 52a and the dark part 52b are each linear (band-like).
  • a direction parallel to the bright part 52a and the dark part 52b is referred to as a line direction
  • a direction in which the bright part 52a and the dark part 52b are arranged is referred to as a periodic direction.
  • the periodic direction is a direction orthogonal to the line direction.
  • the first emphasized image 60 is an image in which the contrast between the bright part 52a and the dark part 52b is higher than the captured image 50 that is the target of the noise reduction process.
  • FIG. 5 is an explanatory diagram illustrating an example of a process for generating the first emphasized image 60.
  • the filter processing unit 43 acquires data of the captured image 50, and generates power spectrum PS data by performing two-dimensional Fourier transform on the captured image 50.
  • the power spectrum PS has a peak 55 corresponding to the period of interference fringes.
  • the peak 55 appears symmetrically with respect to the origin. Further, in the region on the lower frequency side than the peak 55, there is a distribution including information on the sample portion 51, and the peak 56 appears.
  • the filter processing unit 43 uses the bandpass filter 57 to extract a region of a predetermined frequency including the frequency of interference fringes (peak 55 frequency).
  • the horizontal axis is the direction corresponding to the horizontal scanning direction of the image
  • the vertical axis is the direction corresponding to the vertical scanning direction of the image
  • the symbol Dm is the period of the interference fringes.
  • the direction corresponding to the direction is indicated.
  • the band pass filter 57 is set to have a relatively higher gain in a predetermined frequency region including the frequency of the peak 55 (hereinafter referred to as a pass region 58) than in other regions.
  • the passband 58 includes a passband 58a and a passband 58b that are set symmetrically with respect to the origin so as to correspond to the peak 55.
  • the pass band 58a is an area having a bandwidth W centered on the frequency (u, v) of the peak 55, and the pass band 58b is centered on the frequency (-u, -v) of another peak 55. This is a region of the bandwidth W to be used.
  • the symbol PSa is a profile (cross-sectional view) in the direction Dm of the power spectrum PS
  • the symbol 57a is a gain distribution in the direction Dm of the bandpass filter 57
  • the symbol PSb is a filter process. It is the profile in the direction Dm of a later power spectrum.
  • the gain distribution 57a is, for example, binary, and is set to a high level (eg, 1) in the pass band 58a and the pass band 58b, and is set to a low level (eg, 0) in the other areas.
  • the filter processing unit 43 obtains a peak position (peak frequency) by detecting a power peak in a power spectrum PS obtained by, for example, Fourier transforming the captured image 50 to be subjected to noise reduction processing. For example, the filter processing unit 43 acquires a set value of the interference fringe frequency, and detects a peak by searching for a power spectrum around the set value frequency.
  • the setting value of the interference fringe frequency is stored in the storage device 6 (see FIGS. 1 and 2) as interference fringe setting information, for example.
  • the filter processing unit 43 can acquire interference fringe setting information from the storage device 6.
  • the filter processing unit 43 may detect a peak without using the set value of the interference fringe frequency.
  • the filter processing unit 43 may acquire the peak position by calculating the peak position from the set value of the interference fringe frequency without detecting the peak, for example.
  • the filter processing unit 43 generates the bandpass filter 57 by setting a region of the bandwidth W around the acquired peak position as the passband 58.
  • a pass band 58 is extracted.
  • the power before the filtering process is held in the pass band 58a and the pass band 58b, and the power is 0 in other areas.
  • the first enhanced image is generated, for example, by performing Fourier inverse transform on the power spectrum after the filter processing.
  • FIG. 6 is a diagram illustrating another example of the band-pass filter 57.
  • the band pass filter 57 in FIG. 6A has an offset component, and the low level is set to a value larger than zero.
  • the bandpass filter 57 in FIG. 6B changes in gain within the passband 58.
  • the gain is represented by a Gaussian distribution centered on the frequency of the peak 55.
  • the band pass filter 57 in FIG. 6C is obtained by adding an offset component to the band pass filter 57 in FIG. 6B.
  • the 6 (D) includes a pass band 58c in a frequency region lower than the frequency of the interference fringes.
  • the passband 58c is, for example, a region centered on the origin (frequency is 0), and the gain changes stepwise as compared with the surrounding area.
  • the gain in the pass band 58c is set to the same value as that of the pass band 58a and the pass band 58b, for example.
  • the passband 58c may be set to have a larger gain or may be set to be smaller than the passband 58a and the passband 58b.
  • the gain in the passband 58c is represented by a Gaussian distribution centered on the origin.
  • the gain peak in the passband 58c is set to the same value as the gain peak in the passband 58b and the passband 58c, for example.
  • the passband 58c may have a larger gain than the passband 58a and the passband 58b.
  • the passband 58c may be set to have a smaller gain than the passband 58a and the passband 58b.
  • the band pass filter 57 may have an offset component as shown in FIGS. 6A and 6C.
  • FIG. 7 is an explanatory diagram showing filter processing and noise reduction processing.
  • the filter processing unit 43 performs the filter process on the captured image 50 that is the target of the noise reduction process to generate the first emphasized image 60.
  • the noise reduction processing unit 44 performs noise reduction processing by replacing the luminance value of the target region P that is the target of noise reduction with the value calculated using the luminance values of the plurality of reference regions Q in the captured image 50. Do.
  • the noise reduction processing unit 44 calculates the luminance value of the target region P by weighting the luminance values of the plurality of reference regions Q.
  • the noise reduction processing unit 44 uses the first enhanced image 60 for calculating the weighting coefficient.
  • the noise reduction processing unit 44 uses the similarity between the target patch region Np including the target region P in the first emphasized image 60 and the reference patch region Nq including the reference region Q in the first emphasized image 60 as a weighting coefficient.
  • each of the plurality of reference regions Q is represented by reference numerals Q1 to Q4.
  • the noise reduction processing unit 44 sets the target patch area Np for the target area P on the first emphasized image 60. Further, the noise reduction processing unit 44 sets the reference patch areas Nq1 to Nq4 for the reference areas Q1 to Q4 on the first emphasized image 60.
  • the noise reduction processing unit 44 calculates similarities w1 to w4 between the target patch area Np on the first emphasized image 60 and the reference patch areas Nq1 to Nq4 on the first emphasized image 60.
  • the noise reduction processing unit 44 performs noise reduction processing by weighting the luminance values of the reference regions Q1 to Q4 in the captured image 50 that is the target of noise reduction processing using the similarities w1 to w4.
  • FIG. 8 is a diagram illustrating an example of noise reduction processing using the first emphasized image 60.
  • the noise reduction processing unit 44 sequentially selects a target region P that is a target for noise reduction from the first emphasized image 60.
  • the target region P is, for example, a one-pixel region on the first emphasized image 60, but may be a region including a plurality of pixels. Further, the target region P may be a part of one pixel on the first emphasized image 60, and may be, for example, one point (attention point, target point) on the first emphasized image 60.
  • the noise reduction processing unit 44 calculates the brightness value of the target area P using the brightness values of the plurality of reference areas Q.
  • the reference area Q is, for example, an area having the same area as the target area P, and is assumed to be one pixel of the first emphasized image 60 here.
  • the position of the pixel belonging to the target area P is represented by P (x, y), and the position of the pixel belonging to the reference area Q is represented by Q ( ⁇ , ⁇ ).
  • x and ⁇ are the coordinates of the pixel based on the position of the end pixel in the horizontal scanning direction.
  • y and ⁇ are the coordinates of the pixel based on the position of the end pixel in the vertical scanning direction.
  • x and ⁇ are integers from 0 to 1919
  • y and ⁇ are integers from 0 to 1079.
  • the noise reduction processing unit 44 performs noise reduction processing based on light intensity information (eg, luminance value, pixel value, pixel intensity, gradation value) of a plurality of reference regions Q.
  • the noise reduction processing unit 44 uses the luminance values of the plurality of reference regions Q for calculating the luminance value of the target region P.
  • the luminance value of the target region P in the image after the noise reduction processing is appropriately referred to as a corrected luminance value.
  • the luminance value of the target area P is represented by, for example, a pixel value at P (x, y)
  • the luminance value of the reference area Q is represented by, for example, a pixel value at Q ( ⁇ , ⁇ ).
  • the noise reduction processing unit 44 sets a predetermined area including the target area P as the target patch area Np, and sets a predetermined area including the reference area Q as the reference patch area Nq.
  • the noise reduction processing unit 44 calculates the similarity between the target patch area Np and the reference patch area Nq.
  • the noise reduction processing unit 44 corrects a value obtained by weighting the luminance value of the reference region Q in the captured image 50 to be subjected to noise reduction processing with the similarity of the reference patch region Nq on the first emphasized image 60. This is used to calculate the luminance value of P.
  • the target patch area Np is, for example, a rectangular area centered on the target area P, and one side thereof is parallel to the horizontal scanning direction.
  • the shape of the target patch region Np may be a polygon, or may be a shape including a curve in the outline such as a circle, an ellipse, or an ellipse. Further, the center of the target patch area Np may be shifted from the target area P.
  • the size of the target patch area Np is set so as to include at least one period of interference fringes.
  • a portion having a predetermined phase arbitrarily selected from one period of the interference fringes is referred to as a feature portion 53.
  • the feature portion 53 may be, for example, the center line of the bright portion of the interference fringe (the portion where the luminance value is maximized) or the center line of the dark portion of the interference fringe (the portion where the luminance value is minimized). Alternatively, it may be an intermediate portion between the center line of the bright portion and the dark portion of the interference fringe.
  • the length of one period of the interference fringes in the period direction is represented by ⁇ .
  • is, for example, the distance (pitch) between the center line of the bright part 52a and the center line of the adjacent bright part 52a.
  • px ⁇ / sin ⁇ .
  • the noise reduction processing unit 44 sets the target patch area Np by calculating the coordinates of the target patch area Np using, for example, the setting information of the position of the target area P and the target patch area Np.
  • the setting information of the target patch area Np includes, for example, size information, shape information, and positional relationship information with respect to the target area P, and is stored in the storage device 6.
  • the noise reduction processing unit 44 acquires setting information from the storage device 6 and sets the target patch region Np.
  • the size of the target patch area Np may be a fixed value or a variable value.
  • a recommended value or the like is set as a default value, and may be changeable by a user's designation.
  • the size of the target patch region Np may be set according to the sample X. The user may determine the size of the target patch region Np by trial and error according to the result of the noise reduction processing.
  • the reference region Q is arbitrarily selected from, for example, the first enhanced image 60 corresponding to the captured image 50 that is the target of noise reduction processing.
  • the noise reduction processing unit 44 sets a region including the target region as the peripheral range Ap, and selects the reference region Q from the peripheral range Ap.
  • the peripheral range Ap is, for example, a circular region centered on the target region P, but may be a polygonal region or a region whose center is shifted from the target region P (an eccentric region). Good.
  • the radius r of the peripheral range Ap is set such that the target patch area Np is within the peripheral range Ap, and is set to several times, several tens of times, or several hundred times the representative dimension of the target patch area Np, for example.
  • the representative dimensions are, for example, the length of one side and the length of a diagonal line when the shape of the target patch region Np is a rectangle (eg, square), and the shape of the target patch region Np is an ellipse (eg, a perfect circle).
  • the noise reduction processing unit 44 selects pixels in order from a plurality of pixels included in the peripheral range Ap, for example, as the reference region Q.
  • the noise reduction processing unit 44 may sequentially select all the pixels included in the peripheral range Ap as the reference region Q, or may not select some of the pixels included in the peripheral range Ap. Further, the noise reduction processing unit 44 may randomly select a pixel from among a plurality of pixels included in the peripheral range Ap as the reference region Q.
  • the noise reduction processing unit 44 sets a reference patch area Nq for the reference area Q.
  • the reference patch area Nq is, for example, a rectangular area centered on the reference area Q, and one side thereof is parallel to the horizontal scanning direction.
  • the noise reduction processing unit 44 sets the reference patch region Nq by calculating the coordinates of the reference patch region Nq using the position of the reference region Q and the setting information.
  • the setting information of the reference patch area Nq includes, for example, size information, shape information, and positional relationship information with respect to the reference area Q, and is stored in the storage unit 42.
  • the size and shape of the reference patch region Nq and the positional relationship with respect to the reference region Q are the same as the size and shape of the target patch region Np and the positional relationship with respect to the target region P, respectively.
  • the noise reduction processing unit 44 acquires the setting information of the reference patch area Nq from the storage unit 42 and sets the reference patch area Nq.
  • the noise reduction processing unit 44 calculates the similarity w according to the equation (1) in FIG.
  • the similarity w is a function (w (Np; Nq)) having the target patch area Np and the reference patch area Nq as arguments.
  • ⁇ h 2 and ⁇ a 2 in equation (1) are parameters set to, for example, default values or user-specified values.
  • f1 (x, y) represents the luminance value at the position of the point (x, y) of the first emphasized image 60.
  • i and j are temporary variables that change so that the point (x + i, y + j) satisfies the condition belonging to the target patch area Np.
  • the target patch area Np is an area of 5 pixels in the horizontal scanning direction and 5 pixels in the vertical scanning direction with (x, y) as the center.
  • i and j take values of ⁇ 2, ⁇ 1, 0, +1, and +2, respectively.
  • f1 (x + i, y + j) ⁇ f1 ( ⁇ + i, ⁇ + j) indicates a difference in luminance value between overlapping pixels when the centers of the target patch area Np and the reference patch area Nq are matched.
  • f1 (x ⁇ 2, y ⁇ 2) represents the luminance value of the upper left end pixel of the target patch area Np
  • f1 ( ⁇ 2, ⁇ -2) indicates the luminance value of the upper leftmost pixel of the reference patch area Nq.
  • the noise reduction processing unit 44 integrates the square of the difference in luminance value between pixels in the target patch region Np and the reference patch region Nq that have the same position in each region in the target patch region Np. Then, the similarity w is calculated.
  • the algorithm used for calculating the similarity w can be arbitrarily selected, for example, an algorithm that uses the absolute value of the luminance value between corresponding pixels in the target patch region Np and the reference patch region Nq. Also good.
  • the noise reduction processing unit 44 changes the position ( ⁇ , ⁇ ) of the reference region Q so that the point ( ⁇ , ⁇ ) satisfies the condition belonging to the peripheral range Ap, and is set for each reference region Q.
  • the similarity w between the patch area Nq and the target patch area Np is calculated.
  • the noise reduction processing unit 44 weights the luminance value of the reference region Q in the captured image 50 that is the target of the noise reduction processing, for example, according to Expression (2) in FIG.
  • Expression (2) c ⁇ 1 (x, y) is a normalization coefficient.
  • f2 (x, y) is the luminance value of the point (x, y) in the captured image 50 that is the target of the noise reduction process
  • g (x, y) is the corrected luminance value in the target region P, that is, It is a luminance value of the point (x, y) in the image after the noise reduction processing.
  • the noise reduction processing unit 44 calculates the luminance value g (x, y) using the similarity w as a weighting coefficient.
  • the noise reduction processing unit 44 generates image data after the noise reduction processing by replacing f (x, y) with g (x, y).
  • the image processing unit 40 calculates the similarity w using the first enhanced image 60 in which the interference fringes are enhanced, it is possible to generate an image with reduced noise while ensuring the contrast of the interference fringes.
  • the light intensity information may be the same value as the pixel value, or may be a value calculated using the pixel value.
  • the image processing unit 40 does not have to calculate the corrected luminance value for a partial region of the image (for example, the captured image 50) that is the target of the noise reduction process. For example, the image processing unit 40 may calculate a corrected luminance value for a part of the area specified by the user in the captured image 50 (cut out a part of the captured image 50). The image processing unit 40 may generate an image after noise reduction processing except for a region where the corrected luminance value is not calculated.
  • the light intensity information of the target region P and the reference region Q is a value calculated by various interpolation methods using luminance values (pixel values) when at least one of x, y, ⁇ , and ⁇ is not an integer, for example. It may be.
  • various interpolation methods include nearest neighbor interpolation (Nearest ⁇ neighbor), bilinear interpolation (Bilinear), and bicubic interpolation (Bicubic).
  • the size of the reference patch area Nq may be different from the size of the target patch area Np.
  • the shape of the reference patch region Nq may be different from the shape of the target patch region Np.
  • At least one of the size and the shape is different between the target patch area Np and the reference patch area Nq, for example, in a state where the reference patch area Nq is shifted so that the reference area Q and the target area P coincide with each other, What is necessary is just to calculate a similarity degree about the area
  • At least one of the size and shape of the reference patch area Nq may be a fixed value or a variable value that can be changed by a user's designation.
  • the structured illumination microscope 1 changes the direction of the interference fringes, for example, in three ways from the first direction to the third direction.
  • the first direction is a direction arbitrarily selected within a plane orthogonal to the optical axis 11a of the illumination optical system 11, and the second direction and the third direction are 120 ° and 240 ° with the first direction, respectively. It is the direction which makes the angle of.
  • the structured illumination microscope 1 changes the phase of the interference fringes, for example, to three phases of the first to third phases in a state where the directions of the interference fringes are set in the first to third directions. .
  • the first phase is a phase that is arbitrarily set in a plane orthogonal to the optical axis 11a of the illumination optical system 11, and the second phase and the third phase are 2 ⁇ / 3, 4 ⁇ from the first phase, respectively.
  • / 3 is a phase shifted.
  • the structured illumination microscope 1 changes the state of interference fringes (combination of direction and phase), for example, in nine ways, and acquires a captured image of the sample X illuminated by the interference fringes in each state.
  • FIG. 9 is a flowchart showing the observation method according to the present embodiment.
  • the structured illumination microscope 1 sets the direction of interference fringes.
  • the control unit 41 controls the driving unit 17 to place the diffraction grating 16 at the first rotation position, and sets the direction of the interference fringes to the first direction.
  • the structured illumination microscope 1 sets the phase of interference fringes.
  • the control unit 41 controls the drive unit 17 to place the diffraction grating 16 at a predetermined position, and sets the phase of the interference fringes to the first phase.
  • the structured illumination microscope 1 acquires an image of the sample X illuminated by the interference fringes.
  • the control unit 41 controls the image sensor 32 to image the sample X, and acquires captured image data from the image sensor 32.
  • step S4 the structured illumination microscope 1 (eg, the control unit 41) determines whether or not imaging has been completed for all phases (first to third phases) that are scheduled as phases of interference fringes. . If the control unit 41 determines that there is a phase for which imaging has not ended (step S4; No), the control unit 41 returns to step S2 and moves the diffraction grating 16 by the drive unit 17 to change the phase of the interference fringes to the next. Set to phase. For example, the control unit 41 repeats the processing from step S2 to step S4, thereby acquiring three captured images having different interference fringe phases in a state where the interference fringe direction is set to the first direction.
  • step S4 determines that all phases have been completed (step S4; Yes)
  • step S5 all directions (first first) that are planned as interference fringe directions.
  • the control unit 41 determines that there is a direction in which imaging has not ended (step S5; No)
  • the control unit 41 returns to step S1 and rotates the diffraction grating 16 by the drive unit 17, thereby changing the direction of the interference fringes to the next. Set the direction.
  • the controller 41 obtains nine captured images with different interference fringe states by repeating the processing from step S1 to step S5.
  • step S6 the structured illumination microscope 1 performs noise reduction processing on the captured image obtained in step S3 or an image generated from the captured image.
  • the control unit 41 causes the image processing unit 40 to perform noise reduction processing.
  • the image processing unit 40 performs noise reduction processing on the captured image 50 by the method described with reference to FIG. 7.
  • FIG. 10 is a flowchart showing noise reduction processing according to the present embodiment.
  • the image processing unit 40 acquires, for example, one piece of image data of nine captured images as the data of the target image for the noise reduction process.
  • the filter processing unit 43 generates a first enhanced image in which interference fringes are enhanced (see FIGS. 4 and 5). The flow of processing for generating the first emphasized image will be described later with reference to FIG.
  • step S12 the noise reduction processing unit 44 selects the target region P from the first emphasized image 60 (see FIG. 8). For example, the noise reduction processing unit 44 selects the point (x, y) on the first emphasized image 60 as the target region P. In step S ⁇ b> 13, the noise reduction processing unit 44 sets the target patch area Np for the target area P.
  • step S ⁇ b> 14 the noise reduction processing unit 44 selects the reference region Q from the first emphasized image 60. For example, the noise reduction processing unit 44 sets a predetermined area including the target area P as the peripheral area Ap, and selects the reference area Q from the peripheral area Ap. In step S15, the noise reduction processing unit 44 sets a predetermined area including the reference area Q as the reference patch area Nq.
  • step S16 the noise reduction processing unit 44 calculates the similarity w between the target patch area Np and the reference patch area Nq (see equation (1) in FIG. 8).
  • step S ⁇ b> 17 the noise reduction processing unit 44 determines whether or not the calculation of the similarity w has been completed for all scheduled reference regions Q. If the noise reduction processing unit 44 determines that there is a reference region Q for which the calculation of the similarity w has not been completed (step S17; No), the noise reduction processing unit 44 returns to step S14 and selects the next reference region Q from the peripheral range Ap. The processes in steps S15 to S17 are repeated.
  • step S18 the noise reduction processing unit 44 captures the target of the noise reduction processing.
  • the luminance value g (x, y) after correction is obtained by weighting the luminance value of the reference region Q in the image 50 with the similarity w and integrating it in the peripheral range Ap (see equation (2) in FIG. 8). Is calculated.
  • the noise reduction processing unit 44 replaces the luminance value f2 (x, y) of the target area P with the luminance value g (x, y).
  • step S19 the noise reduction processing unit 44 determines whether or not the corrected luminance value g (x, y) has been calculated for all scheduled target areas P. If the noise reduction processing unit 44 determines that there is an unfinished target region P (step S19; No), the noise reduction processing unit 44 returns to step S12 and selects the next target region P from the first emphasized image 60. For example, the noise reduction processing unit 44 increments x, sequentially sets pixels in one row to the target region P, finishes processing for the pixels in one row, and then increments y to perform pixels in the next row. Are set in the target area P in order.
  • the noise reduction processing unit 44 corrects the luminance value before correction (for example, f2 (x, y)) in the entire area or a part of the captured image 50 that is the target of the noise reduction processing. By replacing (eg, (g (x, y))), the image data after the noise reduction processing is generated.
  • the image processing unit 40 sequentially sets, for example, nine captured images used for generating a demodulated image as a captured image 50 to be subjected to noise reduction processing, and performs noise reduction processing on the captured image 50.
  • FIG. 11 is a flowchart showing a process for generating the first emphasized image 60.
  • the filter processing unit 43 determines whether to detect interference fringes on the target image for noise reduction processing.
  • the control unit 41 causes the display device 5 to display an image asking the user whether or not to detect interference fringes, and indicates the content of the instruction when there is an instruction from the user.
  • the instruction information is supplied to the filter processing unit 43.
  • the filter processing unit 43 performs the determination process in step S20 based on the instruction information.
  • the filter processing unit 43 may perform the determination process in step S20 based on setting information indicating whether or not to detect interference fringes. This setting information may be stored in the storage device 6 and changeable by the user, for example.
  • the filter processing unit 43 When it is determined that the interference fringes are detected (step S20; Yes), the filter processing unit 43 generates power spectrum data by performing two-dimensional Fourier transform on the captured image 50 that is the target of the noise reduction processing in step S21. In step S22, the filter processing unit 43 detects the peak position in the power spectrum (frequency domain) using the power spectrum data. In step S23, the filter processing unit 43 determines whether or not the interference fringe has been successfully detected. For example, when the absolute value of the difference between the detected peak position and the peak position calculated from the set value of the interference fringe frequency is equal to or smaller than the threshold value, the filter processing unit 43 determines that the interference fringe detection has succeeded. To do. Further, for example, the filter processing unit 43 determines that the interference fringe detection has failed when the absolute value of the difference between the detected peak position and the peak position calculated from the set value of the interference fringe frequency exceeds a threshold value. judge.
  • step S23 determines whether the detection of the interference fringes has failed (step S23; No), or when it is determined that the interference fringes are not detected in step S20 (step S20; No), the filter processing unit 43 determines the interference fringes in step S24. Get the setting value.
  • step S25 the filter processing unit 43 calculates the peak position in the power spectrum (frequency domain) using the set value of the interference fringes. That is, in step S25, the filter processing unit 43 calculates the peak position in the power spectrum (frequency domain) without using the power spectrum data.
  • step S25 After the process of step S25 is completed or when it is determined that the interference fringe has been successfully detected in step S23 (step S23; Yes), the filter processing unit 43 performs a bandpass filter corresponding to the peak position in step S26. Generate. In step S ⁇ b> 27, for example, the filter processing unit 43 generates a first enhanced image 60 by applying a band-pass filter to the captured image 50 subjected to noise reduction processing after Fourier transform and then performing inverse Fourier transform.
  • the filter process part 43 may output the determination result. For example, the filter processing unit 43 may supply the determination result of step S23 to the control unit 41, and the control unit 41 may notify the user of the failure in detecting the interference fringes. Moreover, the filter process part 43 does not need to perform the process of step S24 and step S25, when detecting an interference fringe. In this case, if the filter processing unit 43 determines in step S23 that the detection of interference fringes has failed (step S23; No), the noise reduction process may be interrupted or terminated. Further, the filter processing unit 43 does not have to perform the determination process (step S20) as to whether or not to detect the interference fringes, and in this case, the processes in steps S20 to S23 can be omitted.
  • the 3D-SIM mode In the 3D-SIM mode, the illumination optical system 11 interferes with interference fringes between + 1st order diffracted light and ⁇ 1st order diffracted light, interference fringes between 0th order diffracted light and ⁇ 1st order diffracted light, and interference between 0th order diffracted light and + 1st order diffracted light.
  • the sample X is illuminated by a synthetic interference fringe synthesized with the fringes.
  • the mask 22 passes the 0th-order diffracted light and the 1st-order diffracted light, and blocks the second-order and higher-order diffracted light. Note that the portion of the mask 22 where the 0th-order diffracted light is incident may be a shutter unit that can switch between the passage and blocking of the 0th-order diffracted light.
  • the structured illumination microscope 1 changes the direction of the interference fringes, for example, in three ways from the first direction to the third direction. Further, the structured illumination microscope 1 changes the phase of the interference fringes, for example, to five phases of the first to fifth phases in a state where the directions of the interference fringes are set in the first to third directions.
  • the first phase is a phase that is arbitrarily set in a plane orthogonal to the optical axis 11a of the illumination optical system 11, and the second to fifth phases are 2 ⁇ / 5, 4 ⁇ / from the first phase, respectively. The phase is shifted by 5, 6 ⁇ / 5, 8 ⁇ / 5.
  • the structured illumination microscope 1 changes the state of interference fringes (combination of direction and phase), for example, in 15 ways, and acquires a captured image of the sample X illuminated by the interference fringes in each state. For example, 15 images are used to generate one demodulated image in the 3D-SIM mode.
  • the image processing unit 40 can perform noise reduction processing in the 3D-SIM mode as in the 2D-SIM mode.
  • the demodulation processing may be, for example, processing using a method disclosed in US Pat. No. 8,115,806, or “Super-Resolution Video Microscopy of Live Cells by Structured Illumination”, Peter Kner , Bryant B. Chhun, Eric R. Griffis, Lukman Winoto, and Mats G. L. Gustafsson, NATURE METHODS Vol.6 NO.5, pp.339-342, May be.
  • the method used for the demodulation process is not limited to these methods.
  • the reference patch region Nq is selected from the first emphasized image 60 generated from the captured image 50 that is the target of the noise reduction process, but the captured image is different from the captured image 50 that is the target of the noise reduction process.
  • the reference patch region Nq can also be selected from an enhanced image generated from the image (hereinafter referred to as a second enhanced image).
  • a second enhanced image an enhanced image generated from the image
  • FIG. 12 is an explanatory diagram showing another example of the filter processing and noise reduction processing.
  • the filter processing unit 43 performs the filter process on the captured image 50 that is the target of the noise reduction process to generate the first emphasized image 60.
  • the filter processing unit 43 performs a filter process on the captured image 61 different from the captured image 50 (see FIG. 12A) to generate the second enhanced image 62. Generate.
  • the captured image 61 differs from the captured image 50 in the phase of the interference fringes.
  • the noise reduction processing unit 44 sets the target patch area Np for the target area P on the first emphasized image 60.
  • the noise reduction processing unit 44 sets reference patch areas Nq1 to Nq4 for the reference areas Q1 to Q4 on the second emphasized image 62.
  • the noise reduction processing unit 44 calculates similarities w1 to w4 between the target patch region Np on the first emphasized image 60 and the reference patch regions Nq1 to Nq4 on the second emphasized image 62, respectively.
  • the noise reduction processing unit 44 performs noise reduction processing by weighting the luminance values of the reference regions Q1 to Q4 in the captured image 61 by using the similarities w1 to w4.
  • FIG. 13 is an explanatory diagram showing another example of the filter processing and noise reduction processing.
  • the filter processing unit 43 performs the filter process on the captured image 50 that is the target of the noise reduction process to generate the first emphasized image 60.
  • the filter processing unit 43 performs a filter process on the captured image 63 different from the captured image 50 (see FIG. 12A) to generate the second enhanced image 64.
  • the captured image 63 differs from the captured image 50 in the direction of interference fringes.
  • the direction of the interference fringes in the captured image 63 is a direction rotated 120 ° with respect to the direction of the interference fringes in the captured image 50 with the clockwise direction being positive.
  • the noise reduction processing unit 44 sets the target patch area Np for the target area P on the first emphasized image 60. Further, the noise reduction processing unit 44 sets reference patch areas Nq1 to Nq4 for the reference areas Q1 to Q4 on the second emphasized image 64. The noise reduction processing unit 44 makes the direction of the reference patch areas Nq1 to Nq4 on the second emphasized image 64 and the interference fringes the same as the direction of the target patch area Np and the interference fringes on the first emphasized image 60. In addition, reference patch areas Nq1 to Nq4 are set.
  • the noise reduction processing unit 44 makes the direction of the interference fringes parallel in the target patch region Np and the reference patch region Nq1.
  • the noise reduction processing unit 44 applies the reference patch region Nq1 to the target patch region Nq1.
  • the patch area Np is set to have a positional relationship rotated by 120 °.
  • the noise reduction processing unit 44 calculates similarities w1 to w4 between the target patch area Np on the first emphasized image 60 and the reference patch areas Nq1 to Nq4 on the second emphasized image 64, respectively. For example, as illustrated in FIG. 13D, the noise reduction processing unit 44 rotates the reference patch area Nq1 so that the outer periphery coincides with the target patch area Np, and the rotated reference patch area Nq1 and the target patch area. The degree of similarity w1 with Np1 is calculated. The noise reduction processing unit 44 calculates the similarities w2 to w4 in the same manner as the similarity w1. As shown in FIG. 13E, the noise reduction processing unit 44 performs noise reduction processing by weighting the luminance values of the reference regions Q1 to Q4 in the captured image 61 using the similarities w1 to w4.
  • FIG. 14 is a diagram illustrating another example of the process of calculating the similarities w1 to w4.
  • the noise reduction processing unit 44 rotates at least a part of the second enhanced image 64 so that the direction of the interference fringes is parallel to the first enhanced image 60.
  • the noise reduction processing unit 44 sets the reference patch areas Nq1 to Nq4 on the second emphasized image 64 after rotation so as to be in a positional relationship parallel to the target patch area Np.
  • the noise reduction processing unit 44 calculates similarities w1 to w4 between the target patch area Np and each of the reference patch areas Nq1 to Nq4.
  • the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified.
  • the image processing unit 40 selects a reference region based on the interference fringe information.
  • the information on the interference fringes includes, for example, the direction of the interference fringes.
  • FIG. 15 is a diagram for explaining the noise reduction processing according to the present embodiment.
  • the noise reduction processing unit 44 selects a target region P that is a target for noise reduction from the first emphasized image 60.
  • the noise reduction processing unit 44 sets a region passing through the target region P and parallel to the line direction of the interference fringes as a candidate region Rp (search region).
  • interference fringe setting information indicating the direction of interference fringes (eg, line direction, periodic direction) is stored in the storage device 6 shown in FIG. 2 as interference fringe setting information, for example, and the noise reduction processing unit 44 is stored in the storage device 6.
  • the interference fringe setting information is acquired from the reference area Q, and the reference area Q is selected from the candidate areas Rp set based on the setting information.
  • the image processing unit 40 acquires information on the direction of interference fringes by analyzing at least one of the captured image 50 and the first enhanced image 60 that are the target of noise reduction processing, for example, and the noise reduction processing unit 44 performs analysis.
  • the candidate region Rp may be determined based on the interference fringe direction information obtained by the above.
  • the noise reduction processing unit 44 sequentially selects the reference region Q from the candidate region Rp.
  • the noise reduction processing unit 44 substitutes x + 1 for ⁇ in the above formula, and calculates ⁇ for this ⁇ .
  • sin ⁇ and tan ⁇ in the above formula are irrational numbers, and the calculated ⁇ is an irrational number.
  • the noise reduction processing unit 44 may convert the calculated ⁇ into an integer by, for example, rounding off the decimal point, rounding off, rounding up, etc. Further, the noise reduction processing unit 44 may select the reference region Q in which ⁇ and ⁇ are integers by nearest neighbor interpolation (Nearestighneighbor) or the like.
  • the noise reduction processing unit 44 may use all the pixels belonging to the candidate region Rp as the reference region Q, or may not use some pixels belonging to the candidate region Rp as the reference region Q. For example, the noise reduction processing unit 44 may use only the pixels whose distance to the target region P is equal to or less than a threshold among the pixels belonging to the candidate region Rp as the reference region Q. Further, the noise reduction processing unit 44 may use, for the reference region Q, pixels that are randomly selected from all the pixels belonging to the candidate region Rp.
  • the noise reduction processing unit 44 performs noise reduction processing based on the light intensity information of the plurality of reference regions Q. For example, the noise reduction processing unit 44 weights the luminance value of the reference region Q (calculates a weighted average of the luminance values), and sets the result as the corrected luminance value in the target region P. For example, as described with reference to FIG. 8, the noise reduction processing unit 44 determines a weighting coefficient based on the similarity between the target patch area Np and the reference patch area Nq.
  • the weighting coefficient may be determined based on a parameter other than the similarity, for example, a distance between the target region P and the reference region Q (eg, proportional to the reciprocal of the distance). Further, the noise reduction processing unit 44 may calculate the corrected luminance value in the target region P using a method other than the weighted average, for example, calculate an arithmetic average of the luminance values of the plurality of reference regions Q. Then, the result may be the corrected luminance value of the target area P.
  • a parameter other than the similarity for example, a distance between the target region P and the reference region Q (eg, proportional to the reciprocal of the distance).
  • the noise reduction processing unit 44 may calculate the corrected luminance value in the target region P using a method other than the weighted average, for example, calculate an arithmetic average of the luminance values of the plurality of reference regions Q. Then, the result may be the corrected luminance value of the target area P.
  • the image processing unit 40 performs noise reduction processing based on the interference fringe information. Therefore, for example, the positional relationship between the plurality of reference regions Q and the interference fringes is the same as the positional relationship between the target region P and the interference fringes, and noise can be reduced while ensuring the contrast of the interference fringes.
  • the image processing unit 40 selects a reference region based on the interference fringe information.
  • the information on the interference fringes includes, for example, information on the direction of the interference fringes and the period of the interference fringes.
  • the information regarding the period of the interference fringes includes, for example, at least one of the period of the interference fringes and the spatial frequency of the interference fringes.
  • FIG. 16 is a diagram for explaining the noise reduction processing according to the present embodiment.
  • the noise reduction processing unit 44 selects a target region P that is a target for noise reduction from the first enhanced image 60.
  • the noise reduction processing unit 44 passes through the target region P and is parallel to the line direction of the interference fringes, and the second candidate region Rpa is parallel to the first candidate region Rpa.
  • a region including the candidate region Rpb is set as a candidate region Rp (search region).
  • the second candidate region Rpb is a band-like region that is periodically arranged at intervals of ⁇ with respect to the first candidate region Rpa.
  • the noise reduction processing unit 44 sequentially selects the reference region Q from the candidate region Rp.
  • the coordinate of the reference region Q is Q ( ⁇ , ⁇ )
  • n is a number corresponding to a band-like region (eg, first candidate region Rpa) included in the candidate region Rp.
  • n corresponding to the first candidate region Rpa is set to 0.
  • n corresponding to the second candidate region Rpb is set to +1, +2, +3,...
  • the noise reduction processing unit 44 calculates the light intensity information of the target area P based on the light intensity information of the plurality of reference areas Q.
  • white noise random noise
  • Information regarding the period of interference fringes (eg, ⁇ , spatial frequency) is stored in the storage device 6 shown in FIG. 2 as interference fringe setting information, for example, and the noise reduction processing unit 44 receives interference from the storage device 6.
  • Stripe setting information is acquired and a candidate region Rp is set.
  • the image processing unit 40 acquires information on the period of the interference fringes by analyzing at least one of the captured image 50 and the first emphasized image 60 that are subject to noise reduction processing, and the noise reduction processing unit 44 analyzes
  • the reference region Q may be selected from the candidate regions Rp set based on the interference fringe period information obtained by the above.
  • the noise reduction processing unit 44 weights the luminance value of the reference region Q (calculates a weighted average of the luminance values), for example, and sets the result as the corrected luminance value in the target region P. For example, as described with reference to FIG. 8, the noise reduction processing unit 44 determines a weighting coefficient based on the similarity between the target patch area Np and the reference patch area Nq.
  • the noise reduction processing unit 44 may use all the pixels belonging to the candidate region Rp as the reference region Q, or may not use some pixels belonging to the candidate region Rp as the reference region Q. For example, the noise reduction processing unit 44 may not select the reference region Q from the first candidate region Rpa. Further, the noise reduction processing unit 44 may not select the reference region Q from one or more regions among the plurality of strip-shaped regions included in the second candidate region Rpb.
  • the noise reduction processing unit 44 selects the reference region Q from the image including the target region P in the above-described embodiment. Region Q is selected. That is, the reference region Q is selected from a reference image in which the phase of interference fringes is different from an image to be subjected to noise reduction processing or an image generated from this image.
  • the noise reduction processing unit 44 performs noise reduction processing based on, for example, information on the direction of interference fringes, information on the period, and information on the phase.
  • FIG. 17 is a conceptual diagram showing a first enhanced image 60 generated from an image targeted for noise reduction processing and a second enhanced image 65 generated from a reference image.
  • the second enhanced image 65 is different from the first enhanced image 60 in the phase of the interference fringes.
  • the positional relationship between the interference fringes is expressed using a characteristic portion 53 (for example, the center line of the bright portion).
  • the second enhanced image 65 includes one of the interference fringe feature portions 53 (indicated by reference numeral 53x) in the first enhanced image 60 and a candidate region Rpx when a reference region is selected from the first enhanced image 60. Is shown for comparison.
  • the second enhanced image 65 has the same interference fringe direction (for example, line direction) as the first enhanced image 60, and the position of the interference fringe is ⁇ d (2 ⁇ dsin ⁇ / ⁇ in phase) with the first enhanced image 60 in the horizontal scanning direction. Is equivalent).
  • the noise reduction processing unit 44 sets the candidate area Rp in the second emphasized image 65 at a position shifted by ⁇ d in the horizontal scanning direction with respect to the candidate area Rpx when the reference area is set in the first emphasized image 60. .
  • the reference area Q is selected from such candidate areas Rp, the distance between the reference area Q and the characteristic portion 53 in the horizontal scanning direction is dx.
  • the candidate region Rp is, for example, a linear (band-like) region, and the angle with the horizontal scanning direction is ⁇ .
  • the noise reduction processing unit 44 sets a reference patch region Nq for the selected reference region Q, and the similarity between the target patch region Np on the first emphasized image 60 and the reference patch region Nq on the second emphasized image 65 Calculate w.
  • the noise reduction processing unit 44 performs noise reduction processing by weighting the luminance value of the reference region Q on the second emphasized image 65 by the similarity w. Since the positional relationship between the reference region Q and the interference fringes is equivalent to the positional relationship between the target region P and the interference fringes, noise can be reduced while ensuring the contrast of the interference fringes.
  • FIG. 18 is a flowchart showing the noise reduction processing according to the present embodiment.
  • the image processing unit 40 acquires data of an image to be subjected to noise reduction processing, and generates a first enhanced image in which interference fringes of the image to be subjected to noise reduction processing are emphasized in step S41.
  • the image processing unit 40 acquires the direction and phase of the interference fringes on the target image for noise reduction processing or the first enhanced image.
  • the image processing unit 40 acquires reference image data in step S43, and generates a second enhanced image in which the interference fringes of the reference image are enhanced in step S44.
  • step S45 the image processing unit 40 acquires the direction and phase of interference fringes on the reference image or the second enhanced image.
  • the image processing unit 40 uses the information acquired in step S42 and the information acquired in step S45 to calculate the amount of change in the phase of the interference fringes in step S46.
  • the image processing unit 40 is at least one of step S42 and step S45.
  • the phase difference information may be acquired in step S46, and the process of step S46 may not be performed.
  • the image processing unit 40 acquires information regarding the interference fringe period in at least one of step S42 and step S45. May be.
  • the image processing unit 40 selects the target area P from the first emphasized image in step S47, and sets the target patch area Np for the target area P in step S48 (see FIG. 17A).
  • the image processing unit 40 sets the candidate region Rp in the second enhanced image based on the amount of change in the interference fringe phase calculated in step S46 (see FIG. 17B).
  • the image processing unit 40 selects the reference region Q from the candidate region Rp in the second emphasized image.
  • the image processing unit 40 sets a reference patch area Nq for the reference area Q in the second emphasized image.
  • step S52 the image processing unit 40 calculates the similarity w between the target patch area Np in the first emphasized image and the reference patch area Nq in the second emphasized image.
  • step S53 the image processing unit 40 determines whether or not the calculation of the similarity w for all the reference regions Q scheduled among the candidate regions Rp set in step S49 has been completed. If the image processing unit 40 determines that there is a reference region Q for which the calculation of the similarity score w has not been completed (step S53; No), the image processing unit 40 returns to step S50 and selects the next reference region Q. The image processing unit 40 repeats the processes in steps S50 to S53, thereby calculating the similarity w for all scheduled reference areas Q (eg, all pixels in the candidate area Rp) in the candidate area Rp. To do.
  • step S53 the luminance value of the reference region Q in the reference image is determined as the similarity in step S54. Weight with.
  • step S55 the image processing unit 40 determines whether or not the processing has been completed for all the target regions P that are scheduled. If the image processing unit 40 determines that there is a target region P that has not been processed (step S55; No), the image processing unit 40 returns to step S47 and selects the next target region P on the first emphasized image 60. The image processing unit 40 performs processing for all scheduled target areas P (for example, all pixels) by repeating the processing of steps S47 to S55.
  • step S55 when the image processing unit 40 determines that the processing of all scheduled target areas P has been completed (step S55; Yes), whether or not the processing of all scheduled reference images has been completed in step S56. Determine whether. If it is determined that there is a reference image that has not been processed (step S56; No), the image processing unit 40 returns to step S43 and acquires the next reference image.
  • the image processing unit 40 performs noise reduction processing using all scheduled reference images by repeating the processing of steps S43 to S56.
  • step S54 the noise reduction processing unit 44 adjusts the weighting coefficient according to the number of reference images, and integrates the weighted luminance values with the plurality of reference images.
  • the luminance value of the target area P is calculated.
  • the noise reduction processing unit 44 sets the weighting coefficient to 1/3 of the similarity, and in the process of step S54 for the first reference image, the noise reduction processing unit 44 A temporary luminance value is calculated.
  • the noise reduction processing unit 44 weights the luminance value of the reference area Q in each of the second and third reference images in the process of step S54 for the second and third reference images.
  • the provisional luminance value is updated by adding to the provisional luminance value.
  • the noise reduction process part 44 may perform the process of step S54 after the process of step S56.
  • step S56 If the image processing unit 40 determines that all scheduled reference images have been processed (step S56; Yes), the series of processing ends.
  • the image processing unit 40 sequentially performs the processing of steps S40 to S56 on the plurality of scheduled images, thereby performing all the planned processing. Noise reduction processing is performed on each image.
  • the noise reduction processing unit 44 selects the reference region Q from the reference image in which the phase of the interference fringes is different from the image including the target region P in the above-described embodiment.
  • a reference region Q is selected from reference images having different stripe directions.
  • the noise reduction processing unit 44 performs noise reduction processing based on information on information on the direction of interference fringes.
  • FIG. 19A is a conceptual diagram showing a second emphasized image 70 having a different interference fringe direction from the first emphasized image 60 (see FIG. 17), and FIG. 19B shows the target patch area Np and the reference patch. It is a conceptual diagram which shows the process which calculates the similarity degree with the area
  • the positional relationship between the interference fringes is expressed using a characteristic portion 53 (for example, the center line of the bright portion).
  • the second emphasized image 70 one of the interference fringe feature portions (indicated by reference numeral 53x) in the first emphasized image 60 is shown for comparison.
  • the direction of the interference fringe (eg, the line direction of the feature 53) is an angle ⁇ (eg, clockwise) from the interference fringe (eg, the line direction of the feature 53x) of the first emphasized image 60. 120 degrees).
  • the line direction of the characteristic portion 53 forms an angle of ( ⁇ + ⁇ ) with the horizontal scanning direction.
  • the noise reduction processing unit 44 sets, as the reference region Q, a region where the distance from the feature unit 53 is dx in the direction D1 rotated by an angle ⁇ from the horizontal scanning direction.
  • the noise reduction processing unit 44 sets, as the candidate region Rp, a region that is parallel to the feature portion 53 and has a distance dx from the feature portion 53 in the direction D1 in the peripheral range Ap, and from the candidate region Rp to the reference region. Select Q in turn.
  • the candidate region Rp is, for example, a linear (band-like) region, and an angle with the horizontal scanning direction is ( ⁇ + ⁇ ).
  • the noise reduction processing unit 44 rotates the reference patch area Nq counterclockwise by an angle ⁇ , and the degree of similarity between the rotated reference patch area Nq and the target patch area Np. Is calculated. Further, the noise reduction processing unit 44 performs noise reduction processing by weighting the luminance value of the reference region Q of the target image of the noise reduction processing with the similarity w.
  • the positional relationship between the reference region Q and the interference fringes is equivalent to the positional relationship between the target region P and the interference fringes, and noise can be reduced while ensuring the contrast of the interference fringes.
  • FIG. 20 is a conceptual diagram illustrating another example of processing for setting the reference region Q and the reference patch region Nq in the second emphasized image 70.
  • the noise reduction processing unit 44 rotates at least a part (for example, the peripheral range Ap) of the second enhanced image 70 counterclockwise by an angle ⁇ , and sets the direction of the interference fringes in the rotated peripheral range Ap to the first The direction of the interference fringes in the first weighted image 60 is matched.
  • the noise reduction processing unit 44 sets, as a candidate region Rp, a belt-like region that passes through a position corresponding to the target region P and forms an angle ⁇ with respect to the horizontal scanning direction in the rotated peripheral range Ap.
  • the noise reduction processing unit 44 sequentially selects the reference region Q from the candidate region Rp, and sets the reference patch region Nq for the reference region Q. Also by such processing, the positional relationship between the reference region Q and the interference fringes can be made equal to the positional relationship between the target region P and the interference fringes.
  • the reference image may be an image in which the phase of the interference fringes is out of phase with that of the noise reduction target image and the direction of the interference fringes is out of alignment.
  • the reference region Q may be set so that the distance between the reference region Q and the interference fringe is equal to the distance between the target region P and the interference fringe in a state where the directions of the interference fringes are aligned.
  • FIG. 21 is a flowchart showing noise reduction processing according to the present embodiment.
  • the noise reduction process shown in FIG. 21 differs from the noise reduction process shown in FIG. 18 in the process of step S60 following step S41 and the process of steps S61 to S63 following step S44.
  • step S60 the noise reduction processing unit 44 acquires the direction of interference fringes in at least one of the image to be subjected to noise reduction processing and the first enhanced image.
  • step S61 the noise reduction processing unit 44 acquires the direction of interference fringes in at least one of the reference image and the second enhanced image.
  • the noise reduction processing unit 44 calculates the amount of change (eg, angle) in the direction of the interference fringes.
  • the noise reduction processing unit 44 sets the candidate region Rp in the second emphasized image 70 in step S63 based on the amount of change in the interference fringe direction calculated in step S63 (see FIG. 17). Hereinafter, the noise reduction processing unit 44 performs the noise reduction processing in the same manner as the processing shown in FIG.
  • the noise reduction processing unit 44 at least one of step S60 and step S61.
  • the information of the interference fringe angle between the noise reduction target image and the reference image is acquired, and the process of step S62 may not be performed.
  • the image processing unit 40 acquires information about the period of interference fringes in at least one of step S60 and step S61. May be.
  • the image processing unit 40 sets one image among a plurality of images that are the basis of the demodulated image as an image to be subjected to noise reduction processing, and uses at least one image other than the image to be subjected to noise reduction processing as a reference image.
  • a noise reduction process For example, as in the first embodiment, an image targeted for noise reduction processing can be used for noise reduction processing.
  • the image in which the reference region Q is set among the nine images may be only one image that is the target of the noise reduction process, There may be two or more images including the noise reduction target image and at least one of the eight reference images, and at least one of the eight reference images not including the noise reduction target image.
  • the structured illumination microscope 1 acquires a plurality of captured images having the same direction and phase of interference fringes, and the image processing unit 40 performs noise reduction processing using the plurality of captured images having the same direction and phases of interference fringes. You may go.
  • the image processing unit 40 selects, for example, images to be subjected to noise reduction processing in order from a plurality of images (for example, nine captured images) from which a demodulated image is based, and for two or more of the plurality of images Perform noise reduction processing. For example, when nine images are acquired in the 2D-SIM mode, the image processing unit 40 performs noise reduction processing on each of the nine images.
  • FIG. 22A is a diagram illustrating a modification of the candidate region Rp
  • FIG. 22B is a conceptual diagram illustrating a process of calculating the similarity w.
  • the number of candidate regions Rp set during one cycle of the interference fringes is one in the above-described embodiment (see FIGS. 15 and 16), but is two in the present modification.
  • Candidate region Rp includes candidate region Rpc and candidate region Rpd similar to those in the above-described embodiment.
  • the candidate area Rpd is an area parallel to the candidate area Rpc, and the position in the horizontal scanning direction is different from that of the candidate area Rpc.
  • Candidate region Rpc is arranged, for example, at a position away from feature 53 by a distance dx in the positive direction of the horizontal scanning direction.
  • Candidate region Rpd is arranged, for example, at a position away from feature 53 by distance dx in the negative direction of the horizontal scanning direction.
  • the noise reduction processing unit 44 sets the candidate region Rp based on, for example, information on the direction of the interference fringes, information on the period of the interference fringes, and information on the phase of the interference fringes.
  • the noise reduction processing unit 44 performs a reference patch region Nq (hereinafter referred to as a reference patch) set for a reference region Q (hereinafter referred to as a reference region Qa) selected from the candidate regions Rpc.
  • a reference patch region Nq hereinafter referred to as a reference patch
  • Qb a reference region selected from the candidate region Rpd by 180 °.
  • the rotated reference patch region Nqb has the same positional relationship with the interference fringes (for example, the characteristic portion 53) as the reference patch region Nqa.
  • the noise reduction processing unit 44 calculates the similarity between the target patch area Np and the rotated reference patch area Nqb, and weights the luminance value of the reference area Qb with the similarity.
  • the image processing unit 40 uses, for example, an image captured by the image sensor 32 as an image to be subjected to noise reduction processing as illustrated in FIG. 3, but an image generated using the captured image is an image. It is good also as an image of the object of noise reduction processing.
  • the image processing unit 40 calculates the similarity for all the reference regions Q in the candidate region Rp, and then weights the luminance value by the similarity. Note that the image processing unit 40 accumulates the luminance values weighted by the similarity w every time the similarity w is calculated in step S16, and weights after calculating the similarity w for all the reference regions Q.
  • the integrated value of luminance values may be normalized.
  • control device 4 reads a control program stored in the storage device 6, for example, and executes various processes according to the control program.
  • This control program for example, irradiates a computer with excitation light for exciting a fluorescent substance contained in the sample with interference fringes, controls the direction and phase of the interference fringes, Forming an image of the irradiated sample, capturing an image to generate a captured image, performing a filter process in a frequency domain of the captured image or an image generated from the captured image, and a filter process Control of processing including performing noise reduction processing on the performed image and performing demodulation processing using the image on which noise reduction processing has been performed is executed.
  • the image processing unit 40 may read an image processing program stored in the storage device 6, for example, and execute various image processing according to the image processing program.
  • this image processing program irradiates a sample with excitation light for exciting a fluorescent substance contained in the sample with interference fringes, controls the direction and phase of the interference fringes, and creates an image of the sample irradiated with the interference fringes.
  • the computer uses the captured image generated by imaging, the computer performs filtering processing in the frequency domain of the captured image or the image generated from the captured image, and performs noise reduction processing on the filtered image. Do what you do.
  • the image processing program may cause the computer to generate a demodulated image using the image after the noise reduction processing. This image processing program may be a part of the control program.
  • SYMBOLS 1 Structured illumination microscope, 11 ... Illumination optical system, 15 ... Branch part, 31 ... Imaging optical system, 32 ... Image sensor, 40 ... Image processing unit, 41 ... control unit, 50 ... captured image, Np ... target patch area, Nq: reference patch area, P: target area, Q: reference area, Rp ... search area, X ... sample, w ... similarity

Abstract

【課題】干渉縞のコントラストを確保しつつノイズを低減することが可能な構造化照明顕微鏡を提供する。 【解決手段】構造化照明顕微鏡(1)は、試料(X)に含まれる蛍光物質を励起するための励起光を、干渉縞で試料に照射する照明光学系(11)と、干渉縞の方向および位相を制御する制御部(41)と、干渉縞が照射された試料の像を形成する結像光学系(31)と、結像光学系が形成した像を撮像して撮像画像を生成する撮像素子(32)と、撮像画像を用いて復調処理を行う画像処理部(40)と、を備える構造化照明顕微鏡であって、画像処理部は、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うフィルタ処理部と、フィルタ処理が行われた画像に対してノイズ低減処理を行うノイズ低減処理部と、ノイズ低減処理が行われた画像を用いて復調処理を行う復調部と、を備える。

Description

構造化照明顕微鏡、観察方法、及び画像処理プログラム
 本発明は、構造化照明顕微鏡、観察方法、及び画像処理プログラムに関する。
 顕微鏡装置において、光学系の分解能を越えた観察を可能とする超解像顕微鏡がある。この超解像顕微鏡の一形態として、構造化照明により試料を照明して変調画像を取得し、その変調画像を復調することにより、試料の超解像画像を生成する構造化照明顕微鏡(SIM:Structured Illumination Microscopy)が知られている(例えば、特許文献1を参照)。この手法においては、光源から射出された光束を回折格子等により複数の光束に分岐し、それらの光束を試料の近傍で互いに干渉させることで形成された干渉縞で試料を照明することにより、試料の変調画像を取得している。
米国再発行特許発明第38307号明細書
 ところで、変調画像、あるいは変調画像から生成される画像にノイズ低減処理を行う場合に、例えば平滑化フィルタを用いると干渉縞のコントラストが低下し、復調処理により得られる画像の品質が低下することがある。本発明は、上述の事情に鑑みなされたものであり、干渉縞のコントラストを確保しつつノイズを低減することが可能な構造化照明顕微鏡、観察方法、及び画像処理プログラムを提供することを目的とする。
 本発明の第1の態様に従えば、試料に含まれる蛍光物質を励起するための励起光を、干渉縞で試料に照射する照明光学系と、干渉縞の方向および位相を制御する制御部と、干渉縞が照射された試料の像を形成する結像光学系と、結像光学系が形成した像を撮像して撮像画像を生成する撮像素子と、撮像画像を用いて復調処理を行う画像処理部と、を備える構造化照明顕微鏡であって、画像処理部は、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うフィルタ処理部と、フィルタ処理が行われた画像に対してノイズ低減処理を行うノイズ低減処理部と、ノイズ低減処理が行われた画像を用いて復調処理を行う復調部と、を備えることを特徴とする構造化照明顕微鏡が提供される。
 本発明の第2の態様に従えば、試料に含まれる蛍光物質を励起するための励起光を、干渉縞で試料に照射することと、干渉縞の方向および位相を制御することと、干渉縞が照射された試料の像を形成することと、像を撮像して撮像画像を生成することと、撮像画像を用いて復調処理を行うことと、を含む観察方法であって、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、フィルタ処理が行われた画像に対してノイズ低減処理を行うことと、ノイズ低減処理が行われた画像を用いて復調処理を行うことと、を含むことを特徴とする観察方法が提供される。
 本発明の第3の態様に従えば、試料に含まれる蛍光物質を励起するための励起光を干渉縞で試料に照射し、干渉縞の方向および位相を制御し、干渉縞が照射された試料の像を撮像して生成される撮像画像を用いて、コンピュータに、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、フィルタ処理が行われた画像に対してノイズ低減処理を行うことと、ノイズ低減処理が行われた画像を用いて復調処理を行うことと、を実行させることを特徴とする画像処理プログラムが提供される。
 本発明によれば、干渉縞のコントラストを確保しつつノイズを低減することが可能な構造化照明顕微鏡、観察方法、及び制御プログラムを提供することができる。
実施形態に係る構造化照明顕微鏡を示す図である。 制御装置の機能構成を示すブロック図である。 画像処理部の各部における入出力データを示す図である。 ノイズ低減処理の対象の画像および第1強調画像を示す概念図である。 第1強調画像を生成する処理の一例を示す説明図である。 バンドパスフィルタの他の例を示す図である。 フィルタ処理およびノイズ低減処理を示す説明図である。 第1強調画像を用いたノイズ低減処理の一例を示す説明図である。 実施形態に係る観察方法を示すフローチャートである。 第1実施形態に係るノイズ低減処理を示すフローチャートである。 第1強調画像を生成する処理を示すフローチャートである。 フィルタ処理およびノイズ低減処理の他の例を示す説明図である。 フィルタ処理およびノイズ低減処理の他の例を示す説明図である 類似度を算出する処理の他の例を示す説明図である。 第2実施形態に係るノイズ低減処理を説明するための図である。 第3実施形態に係るノイズ低減処理を説明するための図である。 第4実施形態に係るノイズ低減処理を説明するための図である。 第4実施形態に係るノイズ低減処理を示すフローチャートである。 第5実施形態に係るノイズ低減処理を説明するための図である。 参照領域、参照パッチ領域を設定する処理の他の例を示す概念図である。 第5実施形態に係るノイズ低減処理を示すフローチャートである。 候補領域Rp、類似度を算出する処理の変形例を示す概念図である。
[第1実施形態]
 次に、図面を参照しながら実施形態について説明する。図1は、実施形態に係る構造化照明顕微鏡1を示す図である。構造化照明顕微鏡1は、構造化照明装置2と、撮像装置3と、制御装置4と、表示装置5と、記憶装置6とを備える。構造化照明顕微鏡1は、例えば蛍光顕微鏡であり、予め蛍光染色された細胞などを含む試料Xの観察などに利用される。試料Xは、例えば、ステージ(図示せず)に保持される。
 構造化照明顕微鏡1は、概略すると以下のように動作する。構造化照明装置2は、干渉縞を形成し、干渉縞で試料Xを照明する。撮像装置3は、干渉縞により照明されている試料Xの蛍光像を撮像する。この蛍光像は、干渉縞により変調されたモアレ像である。制御装置4は、構造化照明顕微鏡1の各部を制御する。制御装置4は、構造化照明装置2を制御して、干渉縞を複数の状態に切り替える。制御装置4は、撮像装置3を制御して、干渉縞の複数の状態のそれぞれにおいて試料Xの像を撮像させ、複数の画像を取得する。制御装置4は、複数の画像を用いて復調処理を行うことにより、撮像装置3の光学系の解像限界を超えた超解像画像を形成することができる。制御装置4は、例えば、形成した超解像画像を表示装置5に表示させる。また、制御装置4は、例えば、形成した超解像画像(復調画像)のデータを記憶装置6に記憶させる。
 構造化照明顕微鏡1は、試料Xのうち観察対象の面(以下、試料面という)の2次元的な超解像画像を形成する2D-SIMモードと、試料面に垂直な方向の情報を含む3次元的な3次元超解像画像を形成する3D-SIMモードとを有する。以下、2D-SIMモードを中心に説明した後、3D-SIMモードについて説明する。
 構造化照明装置2は、光源部10と、照明光学系11とを備える。光源部10は、例えばレーザダイオードを含み、レーザ光などの可干渉光を発する。以下の説明において、光源部10から発せられた光を照明光という。構造化照明顕微鏡1により蛍光観察を行う場合、照明光の波長は、試料Xに含まれる蛍光物質の励起波長を含む波長帯に設定される。
 なお、光源部10の少なくとも一部は、構造化照明装置2に含まれていなくてもよい。例えば、光源部10は、ユニット化されており、構造化照明装置2に交換可能(取り付け可能、取り外し可能)に設けられていてもよい。例えば、光源部10は、構造化照明顕微鏡1による観察時などに、構造化照明装置2に取り付けられてもよい。
 照明光学系11は、試料Xに含まれる蛍光物質を励起するための励起光(照明光)を、干渉縞で試料に照射する。照明光学系11は、光源部10から試料Xに向かう順に、集光レンズ12、導光部材13、及びコリメータ14、及び分岐部15を備える。導光部材13は、例えば光ファイバーを含む。集光レンズ12は、光源部10からの照明光を、導光部材の光入射側の端面に集光する。導光部材13は、集光レンズ12からの照明光をコリメータ14へ導く。コリメータ14は、導光部材13からの照明光を平行光に変換する。
 照明光学系11は、分岐部15によって照明光を複数の回折光に分岐し、複数の回折光の干渉により形成される干渉縞で試料Xを照明する。図1には、複数の光束のうち、0次回折光(実線で示す)、+1次回折光(破線で示す)、及び-1次回折光(2点鎖線で示す)を示した。以下の説明において、回折光のうち+1次回折光と-1次回折光の一方または双方を指す場合に、単に1次回折光と表記する。また、1次回折光が0次回折光に対して偏向する方向(図1ではZ方向)を、分岐方向という。
 照明光学系11は、2D-SIMモードにおいて、複数の回折光のうち+1次回折光と-1次回折光との干渉により形成される干渉縞によって試料を照明する。2D-SIMモードにおいて、照明光学系11は、例えば、+1次回折光と-1次回折光との干渉縞を形成し、0次回折光および2次以上の回折光を干渉縞の形成に用いない。
 照明光学系11は、例えば、球面レンズ、非球面レンズなどの回転対称な形状のレンズ部材を含む。以下、このレンズ部材の対称軸を、照明光学系11の光軸11aという。なお、照明光学系11は、自由曲面レンズを含んでいてもよい。
 分岐部15は、照明光を複数の回折光に分岐する。分岐部15は、例えば、回折格子16および駆動部17を備える。回折格子16は、照明光学系11の光軸11aに交差する面内に、例えば1次元の周期構造を有する。この周期構造において単位構造が並ぶ方向は、上述の分岐方向に相当する。この周期構造は、濃度(透過率)が周期的に変化する構造であってもよいし、段差(位相差)が周期的に変化する構造であってもよい。回折格子16が位相型である場合、±1次回折光の回折効率が高く、干渉縞の形成に±1次回折光を用いる場合に光量のロスを低減することができる。なお、分岐部15は、例えば、回折格子16の代わりに強誘電性液晶を用いた空間光変調素子によって、照明光を複数の光束に分岐する構成でもよい。
 駆動部17は、回折格子16を照明光学系11の光軸11aに交差する方向に移動させる。これにより、照明光によって形成される干渉縞の位相が変化する。制御装置4(制御部41)は、駆動部17を制御することにより、干渉縞の位相を制御する。また、駆動部17は、回折格子16を照明光学系11の光軸11aと平行な軸周りに回転(回動)させる。これにより、照明光によって形成される干渉縞の方向が変化する。制御装置4(制御部41)は、駆動部17を制御することにより、干渉縞の方向を制御する。
 2D-SIMにおいて1枚の復調画像の生成には、例えば、9枚の画像が用いられる。構造化照明顕微鏡1は、干渉縞の方向を3通りに変更し、干渉縞の各方向について干渉縞の位相を3通りに変更し、干渉縞の方向と位相との組み合わせが異なる9通りの各状態で試料Xを撮像する。
 照明光学系11は、分岐部15から試料Xに向かう順に、レンズ20、1/2波長板21、マスク22、レンズ23、視野絞り24、レンズ25、フィルタ26、ダイクロイックミラー27、及び対物レンズ28を含む。
 分岐部15で発生した回折光は、レンズ20に入射する。レンズ20は、例えば、その焦点が分岐部15とほぼ一致するように、配置される。レンズ20は、対物レンズ28の後側焦点面(瞳面)と共役な位置である、いわゆる瞳共役面P1において、分岐部15で分岐した複数の光束のうち同じ次数の回折光を同じ位置に集光する。例えば、レンズ20は、分岐部15で発生した0次回折光を、瞳共役面P1において照明光学系11の光軸11a上に集光する。レンズ20は、分岐部15で発生した+1次回折光を、光軸11aから離れた位置に集光する。レンズ20は、分岐部15で発生した-1次回折光を、瞳共役面P1において光軸11aに関して+1次回折光と対称的な位置に集光する。
 1/2波長板21は、例えばレンズ20とレンズ23との間の光路に配置され、試料Xに入射する際の照明光の偏光状態がS偏光になるように、照明光の偏光状態を調整する。例えば、図1の状態において、試料Xに対する1次回折光の入射面はXZ平面であり、1/2波長板21は、照明光学系11から射出される照明光の偏光状態がY方向の直線偏光になるように、照明光の偏光状態を調整する。分岐部15において回折方向が変更されると試料Xに対する1次回折光の入射面がZ方向の周りで回転するため、1/2波長板21は、回折方向に応じて照明光の偏光状態を調整する。なお、1/2波長板21は、分岐部15と試料Xとの間の光路のいずれの位置に配置されていてもよい。
 マスク22は、干渉縞の形成に使われる回折光を通し、干渉縞の形成に使われない回折光を遮断する。マスク22は、2D-SIMモードにおいて、1次回折光を通し、0次回折光および2次以上の回折光を遮断する。マスク22は、1次回折光の光路が0次回折光の光路から分離する位置、例えば瞳共役面P1に配置される。マスク22は、例えば開口絞りであり、試料Xに入射する光線の角度を規定する。2D-SIMモードにおいて、マスク22は、0次回折光が入射する部分が遮光部になり、1次回折光が入射する分が開口部(透過部)になる。
 マスク22を通った照明光は、レンズ23に入射する。レンズ23は、分岐部15と光学的に共役な中間像面23aを形成する。視野絞り24は、例えば中間像面23aに配置される。視野絞り24は、照明光学系11の光軸11aに垂直な面内において、照明光学系11から試料Xに照明光が照射される範囲(照野、照明領域)を規定する。
 視野絞り24を通った照明光は、レンズ25に入射する。レンズ25は、例えば第2対物レンズである。レンズ25は、分岐部15上の各点からの+1次回折光を、対物レンズ28の後側焦点面(瞳面P0)に集光する。また、レンズ25は、分岐部15上の各点からの-1次回折光を、対物レンズ28の後側焦点面(瞳面P0)の他の位置に集光する。つまり、レンズ25は、分岐部15の各点からの-1次回折光を、照明光学系11の光軸に関して+1次回折光と対称的な位置に集光する。
 レンズ25を通った照明光は、フィルタ26に入射する。フィルタ26は、例えば励起フィルタであり、試料Xに含まれる蛍光物質の励起波長を含む波長帯の光が選択的に通る特性を有する。フィルタ26は、例えば、照明光のうち励起波長以外の波長の少なくとも一部、迷光、外光などを遮断する。フィルタ26を通った光は、ダイクロイックミラー27に入射する。ダイクロイックミラー27は、試料Xに含まれる蛍光物質の励起波長を含む波長帯の光が反射し、試料Xからの光のうち所定の波長帯の光(例、蛍光)が通る特性を有する。フィルタ26からの光は、ダイクロイックミラー27で反射し、対物レンズ28に入射する。
 対物レンズ28は、中間像面23aと光学的に共役な面、すなわち分岐部15と光学的に共役な面を試料X上に形成する。つまり、対物レンズ28は、試料X上に、構造化照明を形成する。+1次回折光は、対物レンズ28の瞳面P0上で光軸11aから離れたスポットを形成する。-1次回折光は、瞳面P0において、光軸11aに関して+1次回折光と対称的な位置にスポットを形成する。1次回折光が形成するスポットは、例えば、瞳面P0の外周部に配置される。1次回折光は、対物レンズ28の開口数(NA)に応じた角度で焦点面に入射する。
 試料Xは、観察時に、その観察対象の部分が対物レンズ28の焦点面に配置される。2DSIMモードにおいて、試料Xに形成される干渉縞は、例えば、照明光学系11の光軸11aに垂直な方向(XY面内)に光強度の周期的な分布を有する。この干渉縞は、分岐部15の周期方向に応じた方向に、ライン状の明部と暗部とが周期的に並ぶパターンである。ここでは、干渉縞において、明部および暗部に平行な方向をライン方向と称し、明部と暗部とが並ぶ方向を周期方向と称する。干渉縞の方向は、例えば、ライン方向と周期方向の少なくとも一方により規定される。
 試料Xのうち干渉縞の明部に配置されている部分は、蛍光物質が励起されて、蛍光を発する。以下、試料Xの構造(例、蛍光物質)の分布を蛍光密度分布という。試料Xの蛍光像は、照明光学系11が形成する干渉縞と、試料Xの蛍光密度分布とのモアレ像である。撮像装置3は、このモアレ像の画像を取得する。
 撮像装置3は、結像光学系31および撮像素子32を備える。結像光学系31は、対物レンズ28、ダイクロイックミラー27、フィルタ33、及びレンズ34を備える。結像光学系31は、対物レンズ28およびダイクロイックミラー27を照明光学系11と共用している。試料Xからの光(以下、観察光という)は、対物レンズ28に入射して平行化され、ダイクロイックミラー27を通ってフィルタ33に入射する。
 フィルタ33は、例えば蛍光フィルタである。フィルタ33は、試料Xからの観察光のうち所定の波長帯の光(例、蛍光)が選択的に通る特性を有する。フィルタ33は、例えば、試料Xで反射した照明光、外光、迷光などを遮断する。フィルタ33を通った光は、レンズ34に入射する。レンズ34は、対物レンズ28の焦点面(物体面)と光学的に共役な面(像面)を形成する。試料Xからの蛍光による像(モアレ像)は、この像面に形成される。
 撮像素子32は、例えばCCDイメージセンサやCMOSイメージセンサなどの二次元イメージセンサを含む。撮像素子32は、例えば、二次元的に配列された複数の画素を有し、各画素にフォトダイオードなどの光電変換素子が配置された構造である。撮像素子32は、例えば、光電変換素子への観察光の照射によって生じた電荷を、読出回路によって読み出す。撮像素子32は、読み出された電荷をデジタルデータ(例、8ビットの階調値)に変換し、画素の位置と階調値とを関連付けたデジタル形式の画像データを出力する。
 構造化照明顕微鏡1は、撮像装置3が取得した撮像画像を使って画像処理を行う画像処理部40を備える。画像処理部40は、例えば、制御装置4に設けられるが、制御装置4と別に設けられていてもよい。画像処理部40は、撮像素子32が撮像した撮像画像に対してノイズ低減処理を行い、ノイズ低減処理後の画像を用いて復調画像を生成する。
 図2は、制御装置4の機能構成を示すブロック図である。制御装置4は、制御部41、画像処理部40、及び記憶部42を備える。制御装置4は、例えば、CPUおよびRAMを備えるコンピュータシステムを含み、記憶部42はRAMなどのワークメモリである。制御部41は、撮像素子32から撮像画像のデータを取得し、撮像画像のデータを記憶装置6に記憶させる。画像処理部40は、撮像画像のデータを記憶装置6から取得し、画像処理を行う。画像処理部40は、フィルタ処理部43、ノイズ低減処理部44、及び復調部45を備える。
 図3は、画像処理部40の各部における入出力データを示す図である。フィルタ処理部43は、撮像画像のデータを取得する。フィルタ処理部43は、周波数領域においてフィルタ処理を行う。例えば、フィルタ処理部43は、撮像画像から干渉縞の周波数を含む所定周波数の領域を抽出した画像を生成する。フィルタ処理部43は、フィルタ処理された画像のデータを出力する。ノイズ低減処理部44は、撮像画像のデータおよびフィルタ処理された画像のデータを取得する。ノイズ低減処理部44は、ノイズ低減処理の対象の撮像画像に対して、フィルタ処理された画像を用いてノイズ低減処理を行い、ノイズが低減された画像を生成する。ノイズ低減処理部44は、ノイズが低減された画像のデータを出力する。復調部45は、ノイズ低減処理部44により生成されたノイズが低減された画像のデータを取得し、ノイズが低減された画像を用いて復調画像を生成(構築)する。復調部45は、復調画像のデータを出力する。制御部41は、例えば、復調画像のデータを記憶装置6に記憶させる。制御部41は、例えば、復調画像のデータを表示装置5(図1参照)に供給し、表示装置5に復調画像を表示させる。
 なお、画像処理部40は、図3(B)および図3(C)に示すように、中間画像生成部46を備えていてもよい。中間画像生成部46は、例えば、復調画像を生成する処理の前処理を行って、中間画像を生成する。例えば、中間画像生成部46は、図3(B)に示すように、ノイズ低減処理部44が生成したノイズが低減された画像のデータを取得し、ノイズが低減された画像を用いて中間画像を生成する。中間画像生成部46は、中間画像のデータを出力する。復調部45は、中間画像生成部46が生成した中間画像のデータを取得し、中間画像を用いて復調画像を生成(構築)する。復調部45は、復調画像のデータを出力する。
 なお、ノイズ低減処理部44は、中間画像に対してノイズ低減処理を行ってもよい。例えば、図3(C)に示すように、中間画像生成部46は、撮像画像のデータを取得し、撮像画像を用いて中間画像を生成する。中間画像生成部46は、中間画像のデータを出力する。フィルタ処理部43は、中間画像のデータを取得する。フィルタ処理部43は、中間画像から干渉縞の周波数を含む所定周波数の領域を抽出した画像(フィルタ処理された画像)を生成する。フィルタ処理部43は、フィルタ処理された画像のデータを出力する。ノイズ低減処理部44は、中間画像のデータおよびフィルタ処理された画像のデータを取得する。ノイズ低減処理部44は、フィルタ処理された画像を用いて、中間画像に対してノイズ低減処理を行って、ノイズが低減された画像を生成する。ノイズ低減処理部44は、ノイズが低減された画像のデータを出力する。復調部45は、ノイズが低減された画像のデータを取得し、ノイズが低減された画像を用いて復調画像を生成する。復調部45は、復調画像のデータを出力する。
 以下、画像処理部40が実行する画像処理について、より詳しく説明する。フィルタ処理部43は、撮像画像または撮像画像から生成された画像から、干渉縞のコントラストを変化させる。例えば、フィルタ処理部43は、フィルタ処理された画像として、干渉縞を強調した画像(以下、強調画像という)を生成する。
 図4は、ノイズ低減処理の対象の撮像画像50および第1強調画像60を示す概念図である。撮像画像50は、例えば、試料Xの構造(例、蛍光物質)の分布(蛍光密度分布)に相当する試料部51、及び干渉縞に相当する縞部52を含む。縞部52は、明部52aおよび暗部52bを有し、明部52aと暗部52bとが交互に周期的に並ぶパターンである。明部52aおよび暗部52bは、それぞれ線状(帯状)である。以下、明部52aと暗部52bとに平行な方向をライン方向と称し、明部52aおよび暗部52bが並ぶ方向を周期方向と称す。周期方向は、ライン方向と直交する方向である。第1強調画像60は、明部52aと暗部52bとのコントラストがノイズ低減処理の対象の撮像画像50よりも高い画像である。
 図5は、第1強調画像60を生成する処理の一例を示す説明図である。図5(A)に示すように、フィルタ処理部43は、撮像画像50のデータを取得し、撮像画像50を2次元フーリエ変換することにより、パワースペクトルPSのデータを生成する。パワースペクトルPSは、干渉縞の周期に応じたピーク55を有する。ピーク55は、原点に対して対称的にあらわれる。また、ピーク55よりも低周波側の領域には、試料部51の情報を含んだ分布があり、ピーク56があらわれる。フィルタ処理部43は、バンドパスフィルタ57を用いて、干渉縞の周波数(ピーク55の周波数)を含む所定周波数の領域を抽出する。パワースペクトルPSの図およびバンドパスフィルタ57の図において、横軸は、画像の水平走査方向に対応する方向、縦軸は、画像の垂直走査方向に対応する方向、符号Dmは、干渉縞の周期方向に対応する方向を示す。このバンドパスフィルタ57は、ピーク55の周波数を含む所定周波数の領域(以下、通過域58という)において他の領域よりも、ゲインが相対的に高く設定される。通過域58は、ピーク55に対応するように、原点に対して対称的に設定された通過域58aおよび通過域58bを含む。例えば、通過域58aは、ピーク55の周波数(u,v)を中心とするバンド幅Wの領域であり、通過域58bは、もう1つのピーク55の周波数(-u,-v)を中心とするバンド幅Wの領域である。
 図5(B)において、符号PSaは、パワースペクトルPSの方向Dmにおけるプロファイル(断面図)であり、符号57aは、バンドパスフィルタ57の方向Dmにおけるゲインの分布であり、符号PSbは、フィルタ処理後のパワースペクトルの方向Dmにおけるプロファイルである。ゲインの分布57aは、例えば二値的であり、通過域58aおよび通過域58bでハイレベル(例、1)に設定され、その他の領域でローレベル(例、0)に設定される。
 フィルタ処理部43は、例えば、ノイズ低減処理の対象の撮像画像50をフーリエ変換して得られるパワースペクトルPSにおいて、パワーのピークを検出することにより、ピーク位置(ピークの周波数)を取得する。例えば、フィルタ処理部43は、干渉縞の周波数の設定値を取得し、設定値の周波数を中心にパワースペクトルを探索することによって、ピークを検出する。干渉縞の周波数の設定値は、例えば、干渉縞の設定情報として記憶装置6(図1、図2参照)に記憶されている。フィルタ処理部43は、例えば、記憶装置6から干渉縞の設定情報を取得可能である。
 なお、フィルタ処理部43は、干渉縞の周波数の設定値を使わずに、ピークを検出してもよい。また、フィルタ処理部43は、例えばピークの検出を行わないで、干渉縞の周波数の設定値からピーク位置を算出することにより、ピーク位置を取得してもよい。フィルタ処理部43は、例えば、取得したピーク位置を中心としてバンド幅Wの領域を通過域58に設定することにより、バンドパスフィルタ57を生成する。
 フィルタ処理後のプロファイルPSbに示すように、バンドパスフィルタ57を掛けると、通過域58が抽出される。例えば、通過域58aおよび通過域58bではフィルタ処理前のパワーが保持され、その他の領域ではパワーが0になる。第1強調画像は、例えば、フィルタ処理後のパワースペクトルをフーリエ逆変換することにより生成される。
 図6は、バンドパスフィルタ57の他の例を示す図である。図6(A)のバンドパスフィルタ57は、オフセット成分を有しており、ローレベルが0よりも大きい値に設定されている。また、図6(B)のバンドパスフィルタ57は、通過域58内でゲインが変化する。例えば、通過域58aおよび通過域58bのそれぞれにおいて、ゲインは、ピーク55の周波数を中心とするガウス分布などで表される。また、図6(C)のバンドパスフィルタ57は、図6(B)のバンドパスフィルタ57にオフセット成分を加えたものである。
 図6(D)のバンドパスフィルタ57は、干渉縞の周波数よりも低周波数の領域に、通過域58cを含む。通過域58cは、例えば原点(周波数が0)を中心とする領域であり、その周囲と比較してゲインがステップ的に変化している。通過域58cにおけるゲインは、例えば、通過域58aおよび通過域58bと同じ値に設定される。通過域58cは、通過域58aおよび通過域58bと比較して、ゲインが大きく設定されてもよいし、ゲインが小さくに設定されてもよい。
 図6(E)のバンドパスフィルタ57は、通過域58cにおいてゲインが変化している。例えば、通過域58cにおけるゲインは、原点を中心とするガウス分布などで表される。通過域58cにおけるゲインのピークは、例えば、通過域58bおよび通過域58cにおけるゲインのピークと同じ値に設定される。なお、図6(F)のバンドパスフィルタ57のように、通過域58cは、通過域58aおよび通過域58bと比較して、ゲインが大きく設定されていてもよい。また、通過域58cは、通過域58aおよび通過域58bと比較して、ゲインが小さく設定されていてもよい。また、図6(D)~図6(F)において、バンドパスフィルタ57は、図6(A)および図6(C)のようにオフセット成分を有していてもよい。
 図7は、フィルタ処理およびノイズ低減処理を示す説明図である。フィルタ処理部43は、ノイズ低減処理の対象の撮像画像50に対してフィルタ処理を行って第1強調画像60を生成する。ノイズ低減処理部44は、撮像画像50において、ノイズ低減の対象となる対象領域Pの輝度値を、複数の参照領域Qの輝度値を用いて算出された値に置き換えることにより、ノイズ低減処理を行う。例えば、ノイズ低減処理部44は、複数の参照領域Qの輝度値を重み付けすることにより、対象領域Pの輝度値を算出する。例えば、ノイズ低減処理部44は、第1強調画像60を重み付け係数の算出に用いる。ノイズ低減処理部44は、第1強調画像60における対象領域Pを含む対象パッチ領域Npと、第1強調画像60における参照領域Qを含む参照パッチ領域Nqとの類似度を、重み付け係数に用いる。
 図7には、複数の参照領域Qのそれぞれを符号Q1~Q4で表した。ノイズ低減処理部44は、対象領域Pに対する対象パッチ領域Npを、第1強調画像60上に設定する。また、ノイズ低減処理部44は、参照領域Q1~Q4に対する参照パッチ領域Nq1~Nq4を、第1強調画像60上に設定する。ノイズ低減処理部44は、第1強調画像60上の対象パッチ領域Npと、第1強調画像60上の参照パッチ領域Nq1~Nq4のそれぞれとの類似度w1~w4を算出する。ノイズ低減処理部44は、ノイズ低減処理の対象の撮像画像50における参照領域Q1~Q4の輝度値を、類似度w1~w4を用いて重み付けすることにより、ノイズ低減処理を行う。
 図8は、第1強調画像60を用いたノイズ低減処理の一例を示す図である。ノイズ低減処理部44は、図8(A)に示すように、第1強調画像60から、ノイズ低減の対象となる対象領域Pを順に選択する。対象領域Pは、例えば第1強調画像60上の1画素の領域であるが、複数の画素を含む領域であってもよい。また、対象領域Pは、第1強調画像60上の1画素の一部であってもよく、例えば、第1強調画像60上の1点(注目点、対象点)であってもよい。ノイズ低減処理部44は、複数の参照領域Qの輝度値を用いて、対象領域Pの輝度値を算出する。参照領域Qは、例えば、対象領域Pと同じ広さの領域であり、ここでは第1強調画像60の1画素であるものとする。
 以下、対象領域Pに属する画素の位置をP(x,y)で表し、参照領域Qに属する画素の位置をQ(ξ,η)で表す。x、ξは、それぞれ、水平走査方向において端の画素の位置を基準とする画素の座標である。y、ηは、それぞれ、垂直走査方向において端の画素の位置を基準とする画素の座標である。例えば、1920列1080行の画素配列を有する画像である場合、x、ξは0以上1919以下の整数であり、y、ηは0以上1079以下の整数である。
 ノイズ低減処理部44は、複数の参照領域Qの光強度情報(例、輝度値、画素値、画素強度、階調値)に基づいて、ノイズ低減処理を行う。例えば、ノイズ低減処理部44は、複数の参照領域Qの輝度値を、対象領域Pの輝度値の算出に利用する。以下、ノイズ低減処理後の画像における対象領域Pの輝度値を、適宜、補正後の輝度値という。対象領域Pの輝度値は、例えば、P(x、y)における画素値で表され、参照領域Qの輝度値は、例えば、Q(ξ、η)における画素値で表される。
 ノイズ低減処理部44は、対象領域Pを含む所定の領域を対象パッチ領域Npに設定し、参照領域Qを含む所定の領域を参照パッチ領域Nqに設定する。ノイズ低減処理部44は、対象パッチ領域Npと参照パッチ領域Nqとの類似度を算出する。ノイズ低減処理部44は、ノイズ低減処理の対象の撮像画像50における参照領域Qの輝度値を、第1強調画像60上の参照パッチ領域Nqの類似度で重み付けした値を、補正後の対象領域Pの輝度値の算出に利用する。
 対象パッチ領域Npは、例えば、対象領域Pを中心とする矩形の領域であり、その一辺が水平走査方向と平行である。なお、対象パッチ領域Npの形状は、多角形であってもよいし、円形、楕円、長円などのように輪郭に曲線を含む形状であってもよい。また、対象パッチ領域Npは、その中心と対象領域Pとがずれていてもよい。
 対象パッチ領域Npのサイズは、干渉縞の少なくとも1周期分を含むように、設定される。ここでは説明の便宜上、干渉縞の1周期のうち任意に選択される所定位相の部分を特徴部53という。特徴部53は、例えば、干渉縞の明部の中心線(輝度値が極大になる部分)であってもよいし、干渉縞の暗部の中心線(輝度値が極小になる部分)であってもよく、干渉縞の明部の中心線と暗部の中心線の中間の部分であってもよい。以下、周期方向における干渉縞の1周期分の長さをλで表す。λは、例えば、明部52aの中心線と隣の明部52aの中心線との距離(ピッチ)である。
 水平走査方向における干渉縞の1周期の長さpxは、px=λ/sinθで表される。対象パッチ領域Npが矩形である場合、その一辺の長さをpx以上にすると、対象パッチ領域Np内に干渉縞の少なくとも1周期分が通ることになる。また、対象パッチ領域Npが円形である場合、その直径をpx以上にすると、対象パッチ領域Np内に干渉縞の少なくとも1周期分が通ることになる。
 ノイズ低減処理部44は、例えば、対象領域Pの位置および対象パッチ領域Npの設定情報を使って、対象パッチ領域Npの座標を算出することで、対象パッチ領域Npを設定する。対象パッチ領域Npの設定情報は、例えば、サイズの情報、形状の情報、及び対象領域Pに対する位置関係の情報を含み、記憶装置6に記憶されている。ノイズ低減処理部44は、例えば、記憶装置6から設定情報を取得し、対象パッチ領域Npを設定する。
 なお、対象パッチ領域Npの形状、及び対象領域Pと対象パッチ領域Npとの位置関係の少なくとも一方は、ユーザの指定などにより変更可能であってもよい。また、対象パッチ領域Npのサイズは、固定値であってもよいし、可変値であってもよい。対象パッチ領域Npのサイズは、例えば、推奨値などがデフォルトの値として設定されており、ユーザの指定などにより変更可能であってもよい。また、対象パッチ領域Npのサイズは、試料X内に応じて設定されてもよい。ユーザは、ノイズ低減処理の結果に応じて、対象パッチ領域Npのサイズを試行錯誤して決定してもよい。
 参照領域Qは、例えば、ノイズ低減処理の対象の撮像画像50に対応する第1強調画像60から任意に選択される。例えば、ノイズ低減処理部44は、対象領域を含む領域を周辺範囲Apに設定し、周辺範囲Apから参照領域Qを選択する。周辺範囲Apは、例えば、対象領域Pを中心とする円形の領域であるが、多角形の領域であってもよいし、中心が対象領域Pとずれた領域(偏心した領域)であってもよい。周辺範囲Apの半径rは、周辺範囲Apに対象パッチ領域Npが収まるように設定され、例えば、対象パッチ領域Npの代表寸法の数倍、数十倍、あるいは数百倍に設定される。代表寸法は、例えば、対象パッチ領域Npの形状が矩形(例、正方形)である場合に一辺の長さ、対角線の長さなどであり、対象パッチ領域Npの形状が楕円(例、真円)である場合に、長軸の長さ、短軸の長さ、直径、半径などである。
 ノイズ低減処理部44は、例えば、参照領域Qとして、周辺範囲Apに含まれる複数の画素から順に画素を選択する。ノイズ低減処理部44は、参照領域Qとして、周辺範囲Apに含まれる全部の画素を順に選択してもよいし、周辺範囲Apに含まれる一部の画素を選択しなくてもよい。また、ノイズ低減処理部44は、参照領域Qとして、周辺範囲Apに含まれる複数の画素からランダムに画素を選択してもよい。
 ノイズ低減処理部44は、参照領域Qに対して参照パッチ領域Nqを設定する。参照パッチ領域Nqは、例えば、参照領域Qを中心とする矩形の領域であり、その一辺が水平走査方向と平行である。ノイズ低減処理部44は、参照領域Qの位置および設定情報を使って、参照パッチ領域Nqの座標を算出することで、参照パッチ領域Nqを設定する。参照パッチ領域Nqの設定情報は、例えば、サイズの情報、形状の情報、及び参照領域Qに対する位置関係の情報を含み、記憶部42に記憶されている。例えば、参照パッチ領域Nqのサイズ、形状、及び参照領域Qに対する位置関係は、それぞれ、対象パッチ領域Npのサイズ、形状、及び対象領域Pに対する位置関係と同じである。ノイズ低減処理部44は、例えば、記憶部42から参照パッチ領域Nqの設定情報を取得し、参照パッチ領域Nqを設定する。
 ノイズ低減処理部44は、例えば、図8(B)の式(1)に従って類似度wを算出する。類似度wは、対象パッチ領域Npと参照パッチ領域Nqとを引数とする関数(w(Np;Nq))である。また、式(1)におけるσ およびσ は、例えばデフォルト値あるいはユーザの指定値などに設定されるパラメータである。式(1)において、f1(x,y)は、第1強調画像60の点(x,y)の位置における輝度値を表す。i、jは、それぞれ、点(x+i,y+j)が対象パッチ領域Npに属する条件を満たすように、変化する仮変数である。
 ここで、対象パッチ領域Npが(x、y)を中心として水平走査方向に5画素、垂直走査方向に5画素の領域であるとする。この場合、iおよびjは、それぞれ、-2、-1、0、+1、+2の値をとる。f1(x+i,y+j)-f1(ξ+i,η+j)は、対象パッチ領域Npと参照パッチ領域Nqとで中心を一致させた際に重なる画素間の輝度値の差を示す。例えば、i=-2、j=-2である場合、f1(x-2,y-2)は、対象パッチ領域Npの左上の端の画素の輝度値を示し、f1(ξ-2,η-2)は、参照パッチ領域Nqの左上の端の画素の輝度値を示す。
 このように、ノイズ低減処理部44は、対象パッチ領域Npと参照パッチ領域Nqとで各領域内の位置が同じ関係になる画素間の輝度値の差分の二乗を、対象パッチ領域Np内で積算して、類似度wを算出する。なお、類似度wの算出に用いられるアルゴリズムは、任意に選択可能であり、例えば、対象パッチ領域Npと参照パッチ領域Nqとで対応する画素間の輝度値の絶対値を用いるアルゴリズムなどであってもよい。
 ノイズ低減処理部44は、点(ξ,η)が周辺範囲Apに属する条件を満たすように参照領域Qの位置(ξ,η)を変化させ、それぞれの参照領域Qに対して設定される参照パッチ領域Nqと対象パッチ領域Npとの類似度wを算出する。また、ノイズ低減処理部44は、例えば、図8の式(2)に従って、ノイズ低減処理の対象の撮像画像50における参照領域Qの輝度値を重み付けする。式(2)において、c-1(x,y)は正規化係数である。また、f2(x,y)はノイズ低減処理の対象の撮像画像50における点(x,y)の輝度値であり、g(x,y)は、対象領域Pにおける補正後の輝度値、すなわちノイズ低減処理後の画像における点(x,y)の輝度値である。ノイズ低減処理部44は、類似度wを重み付けの係数に用いて、輝度値g(x,y)を算出する。ノイズ低減処理部44は、f(x,y)をg(x,y)に置き換えることで、ノイズ低減処理後の画像のデータを生成する。
 ノイズ低減処理部44は、例えば、第1強調画像60の全画素のそれぞれを対象領域Pに選択し、補正後の輝度値を算出することによって、ノイズ低減処理後の画像を生成する。例えば、ノイズ低減処理部44は、第1強調画像60の範囲内でy=0に対してxを0、1、・・・というようにインクリメントし、水平走査方向の一行の画素群に含まれる画素を順に対象領域Pに設定し、各画素について補正後の輝度値を算出する。また、ノイズ低減処理部44は、yをインクリメントし、次の行の画素群に含まれる画素についても同様に補正後の輝度値を算出する。
 画像処理部40は、干渉縞を強調した第1強調画像60を用いて類似度wを算出するので、干渉縞のコントラストを確保しつつノイズが低減された画像を生成することができる。
 なお、光強度情報は、画素値と同じ値であってもよいし、画素値を用いて算出される値であってもよい。また、画像処理部40は、ノイズ低減処理の対象の画像(例、撮像画像50)の一部の領域について、補正後の輝度値を算出しなくてもよい。例えば、画像処理部40は、撮像画像50のうちユーザが指定する一部の領域について(撮像画像50の一部の領域を切り出して)、補正後の輝度値を算出してもよい。画像処理部40は、補正後の輝度値を算出しない領域を除いてノイズ低減処理後の画像を生成してもよい。また、対象領域P、参照領域Qの光強度情報は、例えば、x、y、ξ、ηの少なくとも一つが整数でない場合、輝度値(画素値)を用いて各種の補間法によって算出される値であってもよい。各種の補間法としては、例えば、最近傍補間(Nearest neighbor)、双一次補間(Bilinear)、双三次補間(Bicubic)などが挙げられる。
 なお、参照パッチ領域Nqのサイズは、対象パッチ領域Npのサイズと異なっていてもよい。また、参照パッチ領域Nqの形状は、対象パッチ領域Npの形状と異なっていてもよい。対象パッチ領域Npと参照パッチ領域Nqとで、サイズと形状の少なくとも一方が異なる場合、例えば、参照領域Qと対象領域Pとが一致するように、参照パッチ領域Nqをシフトした状態において、対象パッチ領域Npと参照パッチ領域Nqとで重複する領域について類似度を算出すればよい。参照パッチ領域Nqのサイズと形状の少なくとも一方は、固定値であってもよいし、ユーザの指定などにより変更可能な可変値であってもよい。
 次に、上述のような構造化照明顕微鏡1の動作に基づき、本実施形態に係る観察方法について説明する。2D-SIMモードにおいて、構造化照明顕微鏡1は、例えば、干渉縞の方向を第1方向~第3方向の3通りに変更する。例えば、第1方向は、照明光学系11の光軸11aに直交する面内で任意に選択される方向であり、第2方向、第3方向は、それぞれ、第1方向と120°、240°の角度をなす方向である。また、構造化照明顕微鏡1は、干渉縞の方向が第1~第3方向の各方向に設定されている状態で、例えば、干渉縞の位相を第1~第3位相の3通りに変更する。例えば、第1位相は、照明光学系11の光軸11aに直交する面内で任意に設定される位相であり、第2位相、第3位相は、それぞれ、第1位相から2π/3、4π/3ずれた位相である。このように、構造化照明顕微鏡1は、干渉縞の状態(方向と位相との組み合わせ)を例えば9通りに変更し、各状態の干渉縞によって照明されている試料Xの撮像画像を取得する。
 図9は、本実施形態に係る観察方法を示すフローチャートである。ステップS1において、構造化照明顕微鏡1は、干渉縞の方向を設定する。例えば、制御部41は、駆動部17を制御して回折格子16を第1回転位置に配置させ、干渉縞の方向を第1方向に設定する。ステップS2において、構造化照明顕微鏡1は、干渉縞の位相を設定する。例えば、制御部41は、駆動部17を制御して回折格子16を所定の位置に配置させ、干渉縞の位相を第1位相に設定する。ステップS3において、構造化照明顕微鏡1は、干渉縞によって照明されている試料Xの画像を取得する。例えば、制御部41は、撮像素子32を制御して試料Xを撮像させ、撮像素子32から撮像画像のデータを取得する。
 ステップS4において、構造化照明顕微鏡1(例、制御部41)は、干渉縞の位相として予定されている全ての位相(第1~第3位相)について、撮像が終了したか否かを判定する。制御部41は、撮影が終了していない位相があると判定した場合(ステップS4;No)、ステップS2に戻り、駆動部17により回折格子16を移動させることによって、干渉縞の位相を次の位相に設定する。例えば、制御部41は、ステップS2からステップS4の処理を繰り返すことによって、干渉縞の方向が第1方向に設定された状態において、干渉縞の位相が異なる3枚の撮像画像を取得する。
 構造化照明顕微鏡1(例、制御部41)は、全ての位相が終了したと判定した場合(ステップS4;Yes)、ステップS5において、干渉縞の方向として予定されている全ての方向(第1~第3方向)について、撮像が終了したか否かを判定する。制御部41は、撮像が終了していない方向があると判定した場合(ステップS5;No)、ステップS1に戻り、駆動部17により回折格子16を回転させることによって、干渉縞の方向を次の方向に設定する。制御部41は、ステップS1からステップS5の処理を繰り返すことによって、干渉縞の状態が異なる9枚の撮像画像を取得する。
  ステップS6において、構造化照明顕微鏡1は、ステップS3で得られた撮像画像、または撮像画像から生成された画像に対してノイズ低減処理を行う。例えば、制御部41は、画像処理部40にノイズ低減処理を実行させる。画像処理部40は、例えば図7を参照して説明した手法により、撮像画像50に対してノイズ低減処理を行う。
 図10は、本実施形態に係るノイズ低減処理を示すフローチャートである。ステップS10において、画像処理部40は、ノイズ低減処理の対象の画像のデータとして、例えば9枚の撮像画像のうちの1枚の画像データを取得する。ステップS11において、フィルタ処理部43は、干渉縞の強調した第1強調画像を生成する(図4、図5参照)。第1強調画像を生成する処理のフローについては、後に図11を参照しながら説明する。
 ステップS12において、ノイズ低減処理部44は、第1強調画像60から対象領域Pを選択する(図8参照)。例えば、ノイズ低減処理部44は、第1強調画像60上の点(x,y)を対象領域Pに選択する。ステップS13において、ノイズ低減処理部44は、対象領域Pに対して対象パッチ領域Npを設定する。
 ステップS14において、ノイズ低減処理部44は、第1強調画像60から参照領域Qを選択する。例えば、ノイズ低減処理部44は、対象領域Pを含む所定の領域を周辺範囲Apに設定し、周辺範囲Apから参照領域Qを選択する。ステップS15において、ノイズ低減処理部44は、参照領域Qを含む所定の領域を参照パッチ領域Nqに設定する。
 ステップS16において、ノイズ低減処理部44は、対象パッチ領域Npと参照パッチ領域Nqの類似度wを算出する(図8の式(1)参照)。ステップS17において、ノイズ低減処理部44は、予定された全ての参照領域Qに関して類似度wの算出が終了したか否かを判定する。ノイズ低減処理部44は、類似度wの算出が終了していない参照領域Qがあると判定した場合(ステップS17;No)、ステップS14に戻り、周辺範囲Apから次の参照領域Qを選択し、ステップS15~S17の処理を繰り返す。
 ノイズ低減処理部44は、全ての参照領域Qに関して類似度wの算出が終了したと判定した場合(ステップS17;Yes)、ステップS18において、ノイズ低減処理部44は、ノイズ低減処理の対象の撮像画像50における参照領域Qの輝度値を類似度wで重み付けして、周辺範囲Ap内で積算すること等により、補正後の輝度値g(x,y)(図8の式(2)参照)を算出する。ノイズ低減処理部44は、対象領域Pの輝度値f2(x,y)を輝度値g(x,y)で置き換える。
 ステップS19において、ノイズ低減処理部44は、予定された全ての対象領域Pに関して、補正後の輝度値g(x,y)を算出したか否かを判定する。ノイズ低減処理部44は、終了していない対象領域Pがあると判定した場合(ステップS19;No)、ステップS12に戻り、第1強調画像60から次の対象領域Pを選択する。例えば、ノイズ低減処理部44は、xをインクリメントして、1行の画素を順に対象領域Pに設定して1行の画素に対する処理が終了した後、yをインクリメントして、次の行の画素を順に対象領域Pに対象領域Pに設定する。
 このように、ノイズ低減処理部44は、ノイズ低減処理の対象の撮像画像50の全域または一部の領域において、補正前の輝度値(例、f2(x、y))を補正後の輝度値(例、(g(x,y)))に置き換えることで、ノイズ低減処理後の画像のデータを生成する。画像処理部40は、復調画像の生成に使われる例えば9枚の撮像画像を順にノイズ低減処理の対象の撮像画像50とし、撮像画像50に対してノイズ低減処理を行う。
 図11は、第1強調画像60を生成する処理を示すフローチャートである。ステップS20において、フィルタ処理部43は、ノイズ低減処理の対象の画像上の干渉縞を検出するか否かを判定する。例えば、制御部41(図1参照)は、干渉縞を検出するか否かの指示をユーザに求める画像を表示装置5に表示させ、ユーザからの指示があった場合に、指示の内容を示す指示情報をフィルタ処理部43に供給する。フィルタ処理部43は、指示情報に基づいて、ステップS20の判定処理を行う。なお、フィルタ処理部43は、干渉縞を検出するか否かを示す設定情報に基づいて、ステップS20の判定処理を行ってもよい。この設定情報は、例えば、記憶装置6に記憶され、ユーザにより変更可能であってもよい。
 フィルタ処理部43は、干渉縞を検出すると判定した場合(ステップS20;Yes)、ステップS21においてノイズ低減処理の対象の撮像画像50を2次元フーリエ変換することにより、パワースペクトルのデータを生成する。ステップS22において、フィルタ処理部43は、パワースペクトルのデータを用いて、パワースペクトル(周波数領域)におけるピーク位置を検出する。ステップS23において、フィルタ処理部43は、干渉縞の検出が成功したか否かを判定する。例えば、フィルタ処理部43は、検出したピーク位置と、干渉縞の周波数の設定値から算出されるピーク位置との差の絶対値が閾値以下である場合に、干渉縞の検出が成功したと判定する。また、例えば、フィルタ処理部43は、検出したピーク位置と、干渉縞の周波数の設定値から算出されるピーク位置との差の絶対値が閾値を超える場合に、干渉縞の検出が失敗したと判定する。
 フィルタ処理部43は、干渉縞の検出が失敗したと判定した場合(ステップS23;No)、またはステップS20において干渉縞を検出しないと判定した場合(ステップS20;No)、ステップS24において干渉縞の設定値を取得する。ステップS25において、フィルタ処理部43は、干渉縞の設定値を用いて、パワースペクトル(周波数領域)におけるピーク位置を算出する。つまり、ステップS25においては、フィルタ処理部43は、パワースペクトルのデータを用いることなく、パワースペクトル(周波数領域)におけるピーク位置を算出する。
 フィルタ処理部43は、ステップS25の処理が終了した後、又はステップS23において干渉縞の検出に成功したと判定した場合(ステップS23;Yes)、ステップS26において、ピーク位置に応じたバンドパスフィルタを生成する。ステップS27において、フィルタ処理部43は、例えば、フーリエ変換したノイズ低減処理の対象の撮像画像50にバンドパスフィルタを掛けた後、逆フーリエ変換することによって第1強調画像60を生成する。
 なお、フィルタ処理部43は、ステップS23において、干渉縞の検出が失敗したと判定した場合(ステップS23;No)、その判定結果を出力してもよい。例えば、フィルタ処理部43は、ステップS23の判定結果を制御部41に供給し、制御部41は、干渉縞の検出の失敗をユーザに報知してもよい。また、フィルタ処理部43は、干渉縞の検出を行う場合、ステップS24およびステップS25の処理を行わなくてもよい。この場合、フィルタ処理部43は、ステップS23において、干渉縞の検出が失敗したと判定した場合(ステップS23;No)、ノイズ低減処理を中断または終了してもよい。また、フィルタ処理部43は、干渉縞を検出するか否かの判定処理(ステップS20)を行わなくてもよく、この場合、ステップS20~ステップS23の処理を省略可能である。
 次に、3D-SIMモードについて説明する。照明光学系11は、3D-SIMモードにおいて、+1次回折光と-1次回折光との干渉縞と、0次回折光と-1次回折光との干渉縞と、0次回折光と+1次回折光との干渉縞とが合成された合成干渉縞によって、試料Xを照明する。マスク22は、3D-SIMモードにおいて、0次回折光および1次回折光を通し、2次以上の回折光を遮断する。なお、マスク22において0次回折光が入射する部分は、0次回折光の通過と遮断とを切り替え可能なシャッタ部になっていてもよい。
 3D-SIMモードにおいて、構造化照明顕微鏡1は、例えば、干渉縞の方向を第1方向~第3方向の3通りに変更する。また、構造化照明顕微鏡1は、干渉縞の方向が第1~第3方向の各方向に設定されている状態で、例えば、干渉縞の位相を第1~第5位相の5通りに変更する。例えば、第1位相は、照明光学系11の光軸11aに直交する面内で任意に設定される位相であり、第2~第5位相は、それぞれ、第1位相から2π/5、4π/5、6π/5、8π/5ずれる位相である。構造化照明顕微鏡1は、干渉縞の状態(方向と位相との組み合わせ)を例えば15通りに変更し、各状態の干渉縞によって照明されている試料Xの撮像画像を取得する。3D-SIMモードにおいて1枚の復調画像の生成には、例えば、15枚の画像が用いられる。画像処理部40は、3D-SIMモードにおいて2D-SIMモードと同様に、ノイズ低減処理を行うことができる。
 3D-SIMモードにおいて、復調処理は、例えば、米国特許第8115806号明細書に開示された方法を用いる処理であってもよいし、"Super-Resolution Video Microscopy of Live Cells by Structured Illumination", Peter Kner, Bryant B. Chhun, Eric R. Griffis, Lukman Winoto, and Mats G. L. Gustafsson, NATURE METHODS Vol.6 NO.5, pp.339-342, (2009)に記載された方法を用いる処理であってもよい。復調処理に用いられる方法は、これらの方法に限られない。
 なお、図7および図8では、ノイズ低減処理の対象の撮像画像50から生成される第1強調画像60から参照パッチ領域Nqを選択するが、ノイズ低減処理の対象の撮像画像50と別の撮像画像から生成される強調画像(以下、第2強調画像という)から参照パッチ領域Nqを選択することもできる。ここで、第2強調画像を用いたノイズ低減処理について説明する。
 図12は、フィルタ処理およびノイズ低減処理の他の例を示す説明図である。図12(A)に示すように、フィルタ処理部43は、ノイズ低減処理の対象の撮像画像50に対してフィルタ処理を行って第1強調画像60を生成する。また、図12(B)に示すように、フィルタ処理部43は、撮像画像50(図12(A)参照)と別の撮像画像61に対してフィルタ処理を行って、第2強調画像62を生成する。撮像画像61は、撮像画像50と干渉縞の位相が異なる。ノイズ低減処理部44は、対象領域Pに対する対象パッチ領域Npを、第1強調画像60上に設定する。また、ノイズ低減処理部44は、参照領域Q1~Q4に対する参照パッチ領域Nq1~Nq4を、第2強調画像62上に設定する。ノイズ低減処理部44は、第1強調画像60上の対象パッチ領域Npと、第2強調画像62上の参照パッチ領域Nq1~Nq4のそれぞれとの類似度w1~w4を算出する。ノイズ低減処理部44は、撮像画像61における参照領域Q1~Q4の輝度値を、類似度w1~w4を用いて重み付けすることにより、ノイズ低減処理を行う。
 図13は、フィルタ処理およびノイズ低減処理の他の例を示す説明図である。図13(A)に示すように、フィルタ処理部43は、ノイズ低減処理の対象の撮像画像50に対してフィルタ処理を行って第1強調画像60を生成する。また、図13(B)に示すように、フィルタ処理部43は、撮像画像50(図12(A)参照)と別の撮像画像63に対してフィルタ処理を行って、第2強調画像64を生成する。撮像画像63は、撮像画像50と干渉縞の方向が異なる。例えば、撮像画像63における干渉縞の方向は、撮像画像50における干渉縞の方向に対して、時計回りを正として120°回転した方向である。
 図13(C)に示すように、ノイズ低減処理部44は、対象領域Pに対する対象パッチ領域Npを、第1強調画像60上に設定する。また、ノイズ低減処理部44は、参照領域Q1~Q4に対する参照パッチ領域Nq1~Nq4を、第2強調画像64上に設定する。ノイズ低減処理部44は、第2強調画像64上の参照パッチ領域Nq1~Nq4と干渉縞との方向が、第1強調画像60上の対象パッチ領域Npと干渉縞との方向と同じになるように、参照パッチ領域Nq1~Nq4を設定する。例えば、ノイズ低減処理部44は、対象パッチ領域Npと参照パッチ領域Nq1とを外周が一致するように重ねた場合、対象パッチ領域Npと参照パッチ領域Nq1とで干渉縞の方向が平行になるように、参照パッチ領域Nq1を設定する。例えば、時計回りを正として、第2強調画像64の干渉縞が第1強調画像60の干渉縞を120°回転した位置関係である場合、ノイズ低減処理部44は、参照パッチ領域Nq1を、対象パッチ領域Npを120°回転した位置関係となるように設定する。ノイズ低減処理部44は、第1強調画像60上の対象パッチ領域Npと、第2強調画像64上の参照パッチ領域Nq1~Nq4のそれぞれとの類似度w1~w4を算出する。例えば、図13(D)に示すように、ノイズ低減処理部44は、参照パッチ領域Nq1を、対象パッチ領域Npと外周が一致するように回転させ、回転後の参照パッチ領域Nq1と対象パッチ領域Np1との類似度w1を算出する。ノイズ低減処理部44は、類似度w1と同様にして、類似度w2~w4を算出する。図13(E)に示すように、ノイズ低減処理部44は、撮像画像61における参照領域Q1~Q4の輝度値を、類似度w1~w4を用いて重み付けすることにより、ノイズ低減処理を行う。
 次に、第1強調画像60と第2強調画像64とで干渉縞の方向が異なる場合について、類似度w1~w4を算出する処理の他の例を説明する。図14は、類似度w1~w4を算出する処理の他の例を示す図である。ノイズ低減処理部44は、第2強調画像64の少なくとも一部を、干渉縞の方向が第1強調画像60と平行になるように、回転する。ノイズ低減処理部44は、回転後の第2強調画像64上に、参照パッチ領域Nq1~Nq4を、対象パッチ領域Npと平行な位置関係となるように設定する。ノイズ低減処理部44は、対象パッチ領域Npと、参照パッチ領域Nq1~Nq4のそれぞれとの類似度w1~w4を算出する。
[第2実施形態]
 第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。以下の実施形態では、干渉縞の情報を使って参照領域を選択する例を説明する。本実施形態において、画像処理部40は、干渉縞の情報に基づいて参照領域を選択する。干渉縞の情報は、例えば、干渉縞の方向を含む。
 図15は、本実施形態に係るノイズ低減処理を説明するための図である。ノイズ低減処理部44は、図15(A)に示すように、第1強調画像60から、ノイズ低減の対象となる対象領域Pを選択する。次に、ノイズ低減処理部44は、図15(B)に示すように、対象領域Pを通り干渉縞のライン方向に平行な領域を候補領域Rp(サーチ領域)とする。
 干渉縞の方向(例、ライン方向、周期方向)を示す情報は、例えば、干渉縞の設定情報として図2に示した記憶装置6に記憶されており、ノイズ低減処理部44は、記憶装置6から干渉縞の設定情報を取得し、設定情報に基づいて設定される候補領域Rpから参照領域Qを選択する。なお、画像処理部40は、例えばノイズ低減処理の対象の撮像画像50と第1強調画像60の少なくとも一方を解析することにより干渉縞の方向に関する情報を取得し、ノイズ低減処理部44は、解析により得られた干渉縞の方向の情報に基づいて、候補領域Rpを決定してもよい。
 次に、ノイズ低減処理部44は、図15(C)に示すように、候補領域Rpから参照領域Qを順に選択する。対象領域Pに属する画素の位置をP(x,y)とし、参照領域Qに属する画素の位置をQ(ξ,η)とすると、ξおよびηは、幾何的な観点で、η=(ξ-x)tanθ+yを満たす。ノイズ低減処理部44は、例えば、上記の式のξにx+1を代入し、このξに対するηを算出する。ここで、上記の式のsinθ、tanθは無理数であり、算出されたηは無理数となる。ノイズ低減処理部44は、例えば、小数点以下の四捨五入、切り捨て、切り上げなどの丸めなどにより、算出されるηを整数に変換してもよい。また、ノイズ低減処理部44は、最近傍補間(Nearest neighbor)などにより、ξおよびηが整数となる参照領域Qを選択してもよい。
 なお、ノイズ低減処理部44は、候補領域Rpに属する全画素のそれぞれを参照領域Qとしてもよいし、候補領域Rpに属する一部の画素を参照領域Qに用いなくてもよい。例えば、ノイズ低減処理部44は、候補領域Rpに属する画素のうち、対象領域Pまでの距離が閾値以下となる画素のみを参照領域Qに用いてもよい。また、ノイズ低減処理部44は、候補領域Rpに属する全画素からランダムに選択される画素を、参照領域Qに用いてもよい。
 ノイズ低減処理部44は、複数の参照領域Qの光強度情報に基づいて、ノイズ低減処理を行う。例えば、ノイズ低減処理部44は、参照領域Qの輝度値を重み付けし(輝度値の加重平均を算出し)、その結果を対象領域Pにおける補正後の輝度値とする。例えば、ノイズ低減処理部44は、図8で説明したように、対象パッチ領域Npと参照パッチ領域Nqとの類似度に基づいて、重み付け係数を決定する。
 なお、重み付け係数は、類似度以外のパラメータ、例えば対象領域Pと参照領域Qとの距離に基づいて(例、距離の逆数に比例)、決定されてもよい。また、ノイズ低減処理部44は、加重平均以外の手法を用いて、対象領域Pにおける補正後の輝度値を算出してもよく、例えば、複数の参照領域Qの輝度値の相加平均を算出し、その結果を対象領域Pの補正後の輝度値としてもよい。
 上述のように、画像処理部40は、干渉縞の情報に基づいてノイズ低減処理を行う。そのため、例えば、複数の参照領域Qと干渉縞との位置関係が、対象領域Pと干渉縞と位置関係と同様になり、干渉縞のコントラストを確保しつつノイズを低減することができる。
[第3実施形態]
 第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、画像処理部40は、干渉縞の情報に基づいて参照領域を選択する。干渉縞の情報は、例えば、干渉縞の方向および干渉縞の周期に関する情報を含む。干渉縞の周期に関する情報は、例えば、干渉縞の周期と干渉縞の空間周波数の少なくとも一方を含む。
 図16は、本実施形態に係るノイズ低減処理を説明するための図である。ノイズ低減処理部44は、図16(A)に示すように、第1強調画像60から、ノイズ低減の対象となる対象領域Pを選択する。次に、ノイズ低減処理部44は、図16(B)に示すように、対象領域Pを通り干渉縞のライン方向に平行な第1候補領域Rpa、及び第1候補領域Rpaに平行な第2候補領域Rpbを含む領域を候補領域Rp(サーチ領域)とする。第2候補領域Rpbは、第1候補領域Rpaに対してλの間隔で周期的に並ぶ帯状の領域である。
 次に、ノイズ低減処理部44は、図16(C)に示すように、候補領域Rpから参照領域Qを順に選択する。参照領域Qの座標をQ(ξ,η)としたときに、ξとηは、幾何学的に、η=(ξ+nλ/sinθ-x)tanθ+yを満たす。この式においてnは、候補領域Rpに含まれる帯状の領域(例、第1候補領域Rpaなど)に対応する番号である。ここでは、第1候補領域Rpaに対応するnを0とした。また、第2候補領域Rpbに対応するnを、第1候補領域Rpaに対して水平走査方向の正方向に向かう順に、+1、+2、+3、・・・とし、第1候補領域Rpaに対して水平走査方向の負方向に向かう順に、-1、-2、-3、・・・、とした。ノイズ低減処理部44は、複数の参照領域Qの光強度情報に基づいて、対象領域Pの光強度情報を算出する。本実施形態においては、候補領域Rpに含まれる画素数が第2実施形態(図15参照)よりも多くなるので、例えば白色ノイズ(ランダムノイズ)を効果的に低減することができる。
 干渉縞の周期に関する情報(例、λ、空間周波数)は、例えば、干渉縞の設定情報として図2に示した記憶装置6に記憶されており、ノイズ低減処理部44は、記憶装置6から干渉縞の設定情報を取得し、候補領域Rpを設定する。なお、画像処理部40は、例えばノイズ低減処理の対象の撮像画像50と第1強調画像60の少なくとも一方を解析することにより干渉縞の周期に関する情報を取得し、ノイズ低減処理部44は、解析により得られた干渉縞の周期の情報に基づいて設定される候補領域Rpから、参照領域Qを選択してもよい。
 ノイズ低減処理部44は、例えば、参照領域Qの輝度値を重み付けし(輝度値の加重平均を算出し)、その結果を対象領域Pにおける補正後の輝度値とする。例えば、ノイズ低減処理部44は、図8で説明したように、対象パッチ領域Npと参照パッチ領域Nqとの類似度に基づいて、重み付け係数を決定する。
 なお、ノイズ低減処理部44は、候補領域Rpに属する全画素のそれぞれを参照領域Qとしてもよいし、候補領域Rpに属する一部の画素を参照領域Qに用いなくてもよい。例えば、ノイズ低減処理部44は、第1候補領域Rpaから参照領域Qを選択しなくてもよい。また、ノイズ低減処理部44は、第2候補領域Rpbに含まれる複数の帯状の領域のうち1以上の領域から参照領域Qを選択しなくてもよい。
[第4実施形態]
 次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。ノイズ低減処理部44は、上述の実施形態において、対象領域Pを含む画像から参照領域Qを選択したが、本実施形態において、対象領域Pを含む画像と干渉縞の位相が異なる参照画像から参照領域Qを選択する。つまり、ノイズ低減処理の対象の画像またはこの画像から生成された画像と、干渉縞の位相が異なる参照画像から参照領域Qを選択する。ノイズ低減処理部44は、例えば、干渉縞の方向の情報、周期の情報、及び位相の情報に基づいて、ノイズ低減処理を行う。
 図17は、ノイズ低減処理の対象の画像から生成された第1強調画像60と参照画像から生成された第2強調画像65とを示す概念図である。第2強調画像65は、干渉縞の位相が第1強調画像60と異なる。ここでは説明の便宜上、干渉縞の位置関係を、特徴部53(例、明部の中心線)を用いて表す。なお、第2強調画像65には、第1強調画像60における干渉縞の特徴部53の1つ(符号53xで示す)と、第1強調画像60から参照領域を選択する場合の候補領域Rpxとを比較用に図示した。第2強調画像65は、干渉縞の方向(例、ライン方向)が第1強調画像60と同じであり、干渉縞の位置が水平走査方向において第1強調画像60とΔd(位相で2πΔdsinθ/λに相当)ずれている。
 ノイズ低減処理部44は、第2強調画像65において、第1強調画像60に参照領域を設定する場合の候補領域Rpxに対して、水平走査方向にΔdだけずれた位置に候補領域Rpを設定する。このような候補領域Rpから参照領域Qを選択すると、水平走査方向における参照領域Qと特徴部53との距離がdxとなる。候補領域Rpは、例えば、線状(帯状)の領域であり、水平走査方向との角度がθである。ノイズ低減処理部44は、選択した参照領域Qに対して参照パッチ領域Nqを設定し、第1強調画像60上の対象パッチ領域Npと第2強調画像65上の参照パッチ領域Nqとの類似度wを算出する。また、ノイズ低減処理部44は、第2強調画像65上の参照領域Qの輝度値を類似度wで重み付けすることにより、ノイズ低減処理を行う。参照領域Qと干渉縞との位置関係は、対象領域Pと干渉縞との位置関係と同等であるので、干渉縞のコントラストを確保しながらノイズを減らすことができる。
 図18は、本実施形態に係るノイズ低減処理を示すフローチャートである。画像処理部40は、ステップS40においてノイズ低減処理の対象の画像のデータを取得し、ステップS41において、ノイズ低減処理の対象の画像の干渉縞を強調した第1強調画像を生成する。画像処理部40は、ステップS42においてノイズ低減処理の対象の画像上または第1強調画像上の干渉縞の方向および位相を取得する。画像処理部40は、ステップS43において参照画像のデータを取得し、ステップS44において、参照画像の干渉縞を強調した第2強調画像を生成する。画像処理部40は、ステップS45において参照画像上または第2強調画像上の干渉縞の方向および位相を取得する。画像処理部40は、ステップS42で取得した情報およびステップS45で取得した情報を用い、ステップS46において、干渉縞の位相の変化量を算出する。
 なお、干渉縞の位相に関する情報として、例えば、ノイズ低減処理の対象の画像と参照画像との干渉縞の位相差の情報が与えられる場合、画像処理部40は、ステップS42とステップS45の少なくとも一方において位相差の情報を取得し、ステップS46の処理を行わなくてもよい。また、図16に示したように干渉縞の周期に関する情報を使ってノイズ低減処理を行う場合、画像処理部40は、ステップS42とステップS45の少なくとも一方において、干渉縞の周期に関する情報を取得してもよい。
 また、画像処理部40は、ステップS47において第1強調画像から対象領域Pを選択し、ステップS48において対象領域Pに対して対象パッチ領域Npを設定する(図17(A)参照)。画像処理部40は、ステップS49において、ステップS46で算出した干渉縞の位相の変化量に基づいて、第2強調画像に候補領域Rpを設定する(図17(B)参照)。画像処理部40は、ステップS50において、第2強調画像内の候補領域Rpから参照領域Qを選択する。画像処理部40は、ステップS51において、第2強調画像内に、参照領域Qに対して参照パッチ領域Nqを設定する。
 画像処理部40は、ステップS52において、第1強調画像内の対象パッチ領域Npと、第2強調画像内の参照パッチ領域Nqとの類似度wを算出する。画像処理部40は、ステップS53において、ステップS49で設定した候補領域Rpのうち、予定された全ての参照領域Qに対する類似度wの算出が終了したか否かを判定する。画像処理部40は、類似度wの算出が終了していない参照領域Qがあると判定した場合(ステップS53;No)、ステップS50に戻り、次の参照領域Qを選択する。画像処理部40は、ステップS50~S53の処理を繰り返すことによって、候補領域Rpのうち、予定された全ての参照領域Q(例、候補領域Rp内の全ての画素)について、類似度wを算出する。
 画像処理部40は、候補領域内で予定された全ての参照領域Qの処理が終了したと判定した場合(ステップS53;Yes)、ステップS54において、参照画像における参照領域Qの輝度値を類似度で重み付けする。画像処理部40は、ステップS55において、予定された全ての対象領域Pについて処理が終了したか否かを判定する。画像処理部40は、処理が終了していない対象領域Pがあると判定した場合(ステップS55;No)、ステップS47に戻り、第1強調画像60上の次の対象領域Pを選択する。画像処理部40は、ステップS47~S55の処理を繰り返すことによって、予定された全ての対象領域P(例、全ての画素)について処理を行う。
 また、画像処理部40は、予定された全ての対象領域Pの処理が終了したと判定した場合(ステップS55;Yes)、ステップS56において、予定された全ての参照画像の処理が終了したか否かを判定する。画像処理部40は、処理が終了していない参照画像があると判定した場合(ステップS56;No)、ステップS43に戻り、次の参照画像を取得する。画像処理部40は、ステップS43~S56の処理を繰り返すことによって、予定された全ての参照画像を用いてノイズ低減処理を行う。
 なお、複数の参照画像を用いる場合、ステップS54において、ノイズ低減処理部44は、例えば、重み付けの係数を参照画像の枚数に応じて調整し、重み付けされた輝度値を複数の参照画像で積算することによって、対象領域Pの輝度値を算出する。例えば、参照画像の枚数が3枚である場合、ノイズ低減処理部44は、重み付け係数を類似度の1/3に設定し、1枚目の参照画像に対するステップS54の処理において、対象領域Pの仮の輝度値を算出する。また、ノイズ低減処理部44は、2枚目、3枚目の参照画像に対するステップS54の処理において、2枚目、3枚目のそれぞれの参照画像における参照領域Qの輝度値を重み付けした値を仮の輝度値に加算して、仮の輝度値を更新する。なお、ノイズ低減処理部44は、ステップS54の処理を、ステップS56の処理の後に行ってもよい。
 画像処理部40は、予定された全ての参照画像の処理が終了したと判定した場合(ステップS56;Yes)、一連の処理を終了する。なお、2枚以上の画像にそれぞれノイズ低減処理を行う場合、画像処理部40は、予定された複数の画像に対して、順に、ステップS40~S56の処理を行うことによって、予定された全ての画像に対してそれぞれノイズ低減処理を行う。
[第5実施形態]
 次に、第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。ノイズ低減処理部44は、上述の実施形態において、対象領域Pを含む画像と干渉縞の位相が異なる参照画像から参照領域Qを選択したが、本実施形態において、対象領域Pを含む画像と干渉縞の方向が異なる参照画像から参照領域Qを選択する。ノイズ低減処理部44は、例えば、干渉縞の方向の情報の情報に基づいて、ノイズ低減処理を行う。
 図19(A)は、第1強調画像60(図17参照)と干渉縞の方向が異なる第2強調画像70を示す概念図であり、図19(B)は、対象パッチ領域Npと参照パッチ領域Nqとの類似度を算出する処理を示す概念図である。ここでは説明の便宜上、干渉縞の位置関係を、特徴部53(例、明部の中心線)を用いて表す。なお、第2強調画像70には、第1強調画像60における干渉縞の特徴部の1つ(符号53xで示す)を比較用に図示した。
 第2強調画像70において、干渉縞の方向(例、特徴部53のライン方向)は、第1強調画像60の干渉縞(例、特徴部53xのライン方向)から時計回りに角度ψ(例、120°)だけ回転した方向である。特徴部53のライン方向は、水平走査方向と(θ+Δφ)の角度をなしている。ノイズ低減処理部44は、例えば、水平走査方向から角度ψだけ回転した方向D1において、特徴部53との距離がdxになる領域を参照領域Qに設定する。例えば、ノイズ低減処理部44は、周辺範囲Apのうち、特徴部53と平行かつ、方向D1における特徴部53からの距離がdxとなる領域を候補領域Rpに設定し、候補領域Rpから参照領域Qを順に選択する。候補領域Rpは、例えば、線状(帯状)の領域であり、水平走査方向との角度が(θ+Δφ)である。
 図19(B)に示すように、ノイズ低減処理部44は、例えば、参照パッチ領域Nqを反時計回りに角度ψだけ回転させ、回転後の参照パッチ領域Nqと対象パッチ領域Npとの類似度を算出する。また、ノイズ低減処理部44は、ノイズ低減処理の対象の画像の参照領域Qの輝度値を類似度wで重み付けすることにより、ノイズ低減処理を行う。参照領域Qと干渉縞との位置関係は、対象領域Pと干渉縞との位置関係と同等であり、干渉縞のコントラストを確保しながらノイズを減らすことができる。
 図20は、第2強調画像70に参照領域Qおよび参照パッチ領域Nqを設定する処理の他の例を示す概念図である。ノイズ低減処理部44は、例えば、第2強調画像70の少なくとも一部(例、周辺範囲Ap)を反時計回りに角度ψだけ回転させ、回転後の周辺範囲Apにおける干渉縞の方向を、第1強調画像60における干渉縞の方向と一致させる。ノイズ低減処理部44は、回転後の周辺範囲Apのうち、対象領域Pに相当する位置を通り水平走査方向に対してθの角度をなす帯状の領域を、候補領域Rpに設定する。ノイズ低減処理部44は、候補領域Rpから参照領域Qを順に選択し、参照領域Qに対して参照パッチ領域Nqを設定する。このような処理によっても、参照領域Qと干渉縞との位置関係を対象領域Pと干渉縞との位置関係と同等にすることができる。
 なお、参照画像は、ノイズ低減処理の対象の画像と干渉縞の位相がずれており、かつ干渉縞の方向がずれている画像でもよい。この場合、例えば、干渉縞の方向を揃えた状態で、参照領域Qと干渉縞との距離が、対象領域Pと干渉縞との距離と同等になるように、参照領域Qを設定すればよい。
 図21は、本実施形態に係るノイズ低減処理を示すフローチャートである。図21に示すノイズ低減処理は、図18に示したノイズ低減処理と比較して、ステップS41に続くステップS60の処理、及びステップS44に続くステップS61~ステップS63の処理が異なる。ノイズ低減処理部44は、ステップS60において、ノイズ低減処理の対象の画像と第1強調画像の少なくとも一方における干渉縞の方向を取得する。ノイズ低減処理部44は、ステップS61において、参照画像と第2強調画像の少なくとも一方における干渉縞の方向を取得する。ノイズ低減処理部44は、ステップS63において、干渉縞の方向の変化量(例、角度)を算出する。また、ノイズ低減処理部44は、ステップS63で算出した干渉縞の方向の変化量に基づいて、ステップS63において、第2強調画像70に候補領域Rpを設定する(図17参照)。以下、ノイズ低減処理部44は、図16に示した処理と同様にして、ノイズ低減処理を行う。
 なお、干渉縞の方向に関する情報として、例えば、ノイズ低減処理の対象の画像と参照画像との干渉縞の角度の情報が与えられる場合、ノイズ低減処理部44は、ステップS60とステップS61の少なくとも一方において、ノイズ低減処理の対象の画像と参照画像との干渉縞の角度の情報を取得し、ステップS62の処理を行わなくてもよい。また、図16に示したように干渉縞の周期に関する情報を使ってノイズ低減処理を行う場合、画像処理部40は、ステップS60とステップS61の少なくとも一方において、干渉縞の周期に関する情報を取得してもよい。
 画像処理部40は、例えば、復調画像の元になる複数の画像のうち1枚をノイズ低減処理の対象の画像とし、ノイズ低減処理の対象の画像以外の画像の少なくとも1枚の画像を参照画像としてノイズ低減処理を行う。また、例えば第1実施形態のように、ノイズ低減処理の対象の画像をノイズ低減処理に使うこともできる。例えば、2D-SIMモードにおいて9枚の画像を取得する場合、9枚の画像のうち参照領域Qが設定される画像は、ノイズ低減処理の対象の画像のみの1枚であってもよいし、ノイズ低減処理の対象の画像と、8枚の参照画像の少なくとも1枚とを含む2枚以上であってもよく、ノイズ低減処理の対象の画像を含まず8枚の参照画像の少なくとも1枚を含む1枚以上であってもよい。また、構造化照明顕微鏡1は、干渉縞の方向および位相が同じ複数の撮像画像を取得し、画像処理部40は、干渉縞の方向および位相が同じ複数の撮像画像を用いてノイズ低減処理を行ってもよい。
 画像処理部40は、例えば、復調画像の元になる複数の画像(例、9枚の撮像画像)から順にノイズ低減処理の対象の画像を選択し、複数の画像のうち2枚以上に対してノイズ低減処理を行う。例えば、2D-SIMモードにおいて9枚の画像を取得する場合、画像処理部40は、9枚の画像のそれぞれに対してノイズ低減処理を行う。
 次に、候補領域Rpの変形例について説明する。図22(A)は、候補領域Rpの変形例を示す図であり、図22(B)は、類似度wを算出する処理を示す概念図である。干渉縞の1周期の間に設定される候補領域Rpの数は、上述の実施形態において1つ(図15、図16参照)であるが、本変形例においては2つである。候補領域Rpは、上述の実施形態と同様の候補領域Rpcと、候補領域Rpdとを含む。候補領域Rpdは、候補領域Rpcと平行な領域であり、水平走査方向の位置が候補領域Rpcと異なる。候補領域Rpcは、例えば特徴部53から水平走査方向の正方向に距離dxだけ離れた位置に配置される。候補領域Rpdは、例えば特徴部53から水平走査方向の負方向に距離dxだけ離れた位置に配置される。ノイズ低減処理部44は、例えば、干渉縞の方向の情報、干渉縞の周期の情報、及び干渉縞の位相の情報に基づいて、候補領域Rpを設定する。
 ノイズ低減処理部44は、図22(B)に示すように、候補領域Rpcから選択される参照領域Q(以下、参照領域Qaという)に対して設定された参照パッチ領域Nq(以下、参照パッチ領域Nqaという)については、上述の実施形態と同様にして、対象領域Pとの類似度wを算出する。ノイズ低減処理部44は、候補領域Rpdから選択される参照領域Q(以下、参照領域Qb)に対して設定される参照パッチ領域Nq(以下、参照パッチ領域Nqbという)を180°回転させる。これにより、回転後の参照パッチ領域Nqbは、干渉縞(例、特徴部53)との位置関係が参照パッチ領域Nqaと同じになる。ノイズ低減処理部44は、対象パッチ領域Npと、回転後の参照パッチ領域Nqbとの類似度を算出し、参照領域Qbの輝度値を類似度で重み付けする。
 なお、上述の実施形態において、画像処理部40は、例えば図3に示したように撮像素子32による撮像画像をノイズ低減処理の対象の画像としているが、撮像画像を用いて生成される画像をノイズ低減処理の対象の画像としてもよい。
 上述の実施形態において、画像処理部40は、例えば図9に示したように、候補領域Rp内の全ての参照領域Qについて類似度を算出した後に、類似度により輝度値を重み付けする。なお、画像処理部40は、ステップS16において類似度wを算出するたびに、類似度wにより重み付けした輝度値を積算し、全ての参照領域Qについて類似度wの算出が終了した後に、重み付けした輝度値の積算値を正規化してもよい。
 上述の実施形態において、制御装置4は、例えば記憶装置6に記憶されている制御プログラムを読み出し、この制御プログラムに従って各種の処理を実行する。この制御プログラムは、例えば、コンピュータに、試料に含まれる蛍光物質を励起するための励起光を、干渉縞で試料に照射することと、干渉縞の方向および位相を制御することと、干渉縞が照射された前記試料の像を形成することと、像を撮像して撮像画像を生成することと、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、フィルタ処理が行われた画像に対してノイズ低減処理を行うことと、ノイズ低減処理が行われた画像を用いて復調処理を行うことと、を含む処理の制御を実行させる。
 なお、画像処理部40は、例えば記憶装置6に記憶されている画像処理プログラムを読み出し、この画像処理プログラムに従って各種の画像処理を実行する態様でもよい。例えば、この画像処理プログラムは、試料に含まれる蛍光物質を励起するための励起光を干渉縞で試料に照射し、干渉縞の方向および位相を制御し、干渉縞が照射された試料の像を撮像して生成される撮像画像を用いて、コンピュータに、撮像画像または撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、フィルタ処理が行われた画像に対してノイズ低減処理を行うことを実行させる。この画像処理プログラムは、コンピュータに、ノイズ低減処理後の画像を用いて、復調画像を生成することを実行させてもよい。この画像処理プログラムは、上記の制御プログラムの一部であってもよい。
 なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
1・・・構造化照明顕微鏡、11・・・照明光学系、15・・・分岐部、
31・・・結像光学系、32・・・撮像素子、40・・・画像処理部、
41・・・制御部、50・・・撮像画像、Np・・・対象パッチ領域、
Nq・・・参照パッチ領域、P・・・対象領域、Q・・・参照領域、
Rp・・・サーチ領域、X・・・試料、w・・・類似度
 

Claims (20)

  1.  試料に含まれる蛍光物質を励起するための励起光を、干渉縞で前記試料に照射する照明光学系と、
     前記干渉縞の方向および位相を制御する制御部と、
     前記干渉縞が照射された前記試料の像を形成する結像光学系と、
     前記結像光学系が形成した前記像を撮像して撮像画像を生成する撮像素子と、
     前記撮像画像を用いて復調処理を行う画像処理部と、を備える構造化照明顕微鏡であって、
     前記画像処理部は、
     前記撮像画像または前記撮像画像から生成された画像の周波数領域においてフィルタ処理を行うフィルタ処理部と、
     前記フィルタ処理が行われた画像を用いて、前記撮像画像または前記撮像画像から生成された画像に対してノイズ低減処理を行うノイズ低減処理部と、
     前記ノイズ低減処理が行われた画像を用いて復調処理を行う復調部と、を備える
     ことを特徴とする構造化照明顕微鏡。
  2.  前記フィルタ処理部は、
     前記撮像画像または前記撮像画像から生成された画像から、前記干渉縞の周波数を考慮して、所定の周波数領域を抽出する
     ことを特徴とする請求項1に記載の構造化照明顕微鏡。
  3.  前記所定の周波数領域は、前記干渉縞の周波数を含む
     ことを特徴とする請求項2に記載の構造化照明顕微鏡。
  4.  前記フィルタ処理部は、予め設定された前記干渉縞の周波数を用いて、前記所定の周波数領域を抽出する
     ことを特徴とする請求項2または3に記載の構造化照明顕微鏡。
  5.  前記フィルタ処理部は、前記撮像画像または前記撮像画像から生成された画像から前記干渉縞の周波数を抽出する
     ことを特徴とする請求項2~4のいずれか1項に記載の構造化照明顕微鏡。
  6.  前記所定の周波数領域は、前記干渉縞の周波数よりも低周波数を含む
     ことを特徴とする請求項2~5のいずれか一項に記載の構造化照明顕微鏡。
  7.  前記所定の周波数領域は、0を含む
     ことを特徴とする請求項2~6のいずれか1項に記載の構造化照明顕微鏡。
  8.  前記フィルタ処理部は、前記撮像画像または前記撮像画像から生成された画像から、前記干渉縞のコントラストを変化させる
     ことを特徴とする請求項1~7のいずれか1項に記載の構造化照明顕微鏡。
  9.  前記ノイズ低減処理部は、前記ノイズ低減処理の対象となる画像における対象領域と、当該画像または当該画像と異なる画像における複数の参照領域とに基づいて、前記ノイズ低減処理を行う
     ことを特徴とする請求項1~8のいずれか一項に記載の構造化照明顕微鏡。
  10.  前記ノイズ低減処理部は、前記対象領域の光強度情報および前記複数の参照領域の光強度情報に基づいて、ノイズ低減処理を行う
     ことを特徴とする請求項9に記載の構造化照明顕微鏡。
  11.  前記ノイズ低減処理部は、前記フィルタ処理が行われた画像における対象領域を含む対象パッチ領域と、前記フィルタ処理が行われた画像における参照領域を含む参照パッチ領域との類似度を算出し、
     前記ノイズ低減処理部は、前記算出した類似度を用いて、前記ノイズ低減処理を行う
     ことを特徴とする請求項1~8のいずれか1項に記載の構造化照明顕微鏡。
  12.  前記ノイズ低減処理部は、前記前記算出した類似度を用いて、前記ノイズ低減処理の対象となる画像または当該画像と異なる画像における複数の参照領域の光強度情報に重み付けを行い、前記ノイズ低減処理の対象となる画像における対象領域の光強度情報を算出することを特徴とする請求項11に記載の構造化照明顕微鏡。
  13.  前記ノイズ低減処理部は、前記干渉縞の情報を考慮して前記参照領域を選択する
     ことを特徴とする請求項9~12のいずれか一項に記載の構造化照明顕微鏡。
  14.  前記ノイズ低減処理部は、前記対象領域の位置と、前記干渉縞の情報とを考慮して定められた候補領域から、前記参照領域を選択する
     ことを特徴とする請求項9~13に記載の構造化照明装置。
  15.  前記干渉縞の情報は、前記干渉縞の方向を含む
     ことを特徴とする請求項13又は14に記載の構造化照明顕微鏡。
  16.  前記ノイズ低減処理部は、
     前記対象領域を含む画像における前記干渉縞の方向と、前記参照領域を含む画像における前記干渉縞の方向とに基づいて、前記参照領域を選択する
     ことを特徴とする請求項15に記載の構造化照明顕微鏡。
  17.  前記干渉縞の情報は、前記干渉縞の周期に関する情報を含む
     ことを特徴とする請求項15または16に記載の構造化照明顕微鏡。
  18.  前記干渉縞の情報は、前記干渉縞の位相を含む
     請求項15~17のいずれか一項に記載の構造化照明顕微鏡。
  19.  試料に含まれる蛍光物質を励起するための励起光を、干渉縞で前記試料に照射することと、
     前記干渉縞の方向および位相を制御することと、
     前記干渉縞が照射された前記試料の像を形成することと、
     前記像を撮像して撮像画像を生成することと、
     前記撮像画像を用いて復調処理を行うことと、を含む観察方法であって、
     前記撮像画像または前記撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、
     前記フィルタ処理が行われた画像に対してノイズ低減処理を行うことと、
     前記ノイズ低減処理が行われた画像を用いて前記復調処理を行うことと、を含む
     ことを特徴とする観察方法。
  20.  試料に含まれる蛍光物質を励起するための励起光を干渉縞で前記試料に照射し、前記干渉縞の方向および位相を制御し、前記干渉縞が照射された前記試料の像を撮像して生成される撮像画像を用いて、コンピュータに、
     前記撮像画像または前記撮像画像から生成された画像の周波数領域においてフィルタ処理を行うことと、
     前記フィルタ処理が行われた画像に対してノイズ低減処理を行うことと、
     前記ノイズ低減処理が行われた画像を用いて復調処理を行うことと、を実行させる
     ことを特徴とする画像処理プログラム。
PCT/JP2015/058420 2015-03-20 2015-03-20 構造化照明顕微鏡、観察方法、及び画像処理プログラム WO2016151666A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/058420 WO2016151666A1 (ja) 2015-03-20 2015-03-20 構造化照明顕微鏡、観察方法、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/058420 WO2016151666A1 (ja) 2015-03-20 2015-03-20 構造化照明顕微鏡、観察方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2016151666A1 true WO2016151666A1 (ja) 2016-09-29

Family

ID=56977885

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058420 WO2016151666A1 (ja) 2015-03-20 2015-03-20 構造化照明顕微鏡、観察方法、及び画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2016151666A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106706577A (zh) * 2016-11-16 2017-05-24 深圳大学 一种光成像系统及方法
WO2018150471A1 (ja) * 2017-02-14 2018-08-23 株式会社ニコン 構造化照明顕微鏡、観察方法、及びプログラム
DE102018108657A1 (de) 2018-04-12 2019-10-17 Jenoptik Optical Systems Gmbh Mikroskop mit strukturierter Beleuchtung
CN117368174A (zh) * 2023-12-07 2024-01-09 深圳赛陆医疗科技有限公司 成像系统及成像方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013076867A (ja) * 2011-09-30 2013-04-25 Olympus Corp 超解像観察装置
JP2014240870A (ja) * 2013-06-11 2014-12-25 オリンパス株式会社 共焦点画像生成装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013076867A (ja) * 2011-09-30 2013-04-25 Olympus Corp 超解像観察装置
JP2014240870A (ja) * 2013-06-11 2014-12-25 オリンパス株式会社 共焦点画像生成装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106706577A (zh) * 2016-11-16 2017-05-24 深圳大学 一种光成像系统及方法
CN106706577B (zh) * 2016-11-16 2019-08-16 深圳大学 一种光成像系统及方法
WO2018150471A1 (ja) * 2017-02-14 2018-08-23 株式会社ニコン 構造化照明顕微鏡、観察方法、及びプログラム
JPWO2018150471A1 (ja) * 2017-02-14 2019-12-19 株式会社ニコン 構造化照明顕微鏡、観察方法、及びプログラム
DE102018108657A1 (de) 2018-04-12 2019-10-17 Jenoptik Optical Systems Gmbh Mikroskop mit strukturierter Beleuchtung
DE102018108657B4 (de) 2018-04-12 2024-03-28 Jenoptik Optical Systems Gmbh Vorrichtung zur Aufnahme wenigstens eines mikroskopischen Bildes und Verfahren zur Aufnahme eines mikroskopischen Bildes
CN117368174A (zh) * 2023-12-07 2024-01-09 深圳赛陆医疗科技有限公司 成像系统及成像方法

Similar Documents

Publication Publication Date Title
EP2437095B1 (en) Sample observation device for generating super resolution image
US8019136B2 (en) Optical sectioning microscopy
JP6635052B2 (ja) 構造化照明顕微鏡、及び観察方法
JP4123305B2 (ja) 画像作成方法および顕微鏡装置
WO2016151666A1 (ja) 構造化照明顕微鏡、観察方法、及び画像処理プログラム
JP5888416B2 (ja) 構造化照明顕微鏡装置
CN108027320A (zh) 基于辅助电磁场的引入的一阶散射测量叠对的新方法
JP7027446B2 (ja) 角度可変照明による材料試験
JP6627871B2 (ja) 構造化照明顕微鏡システム、方法及びプログラム
WO2007043314A1 (ja) 顕微鏡装置
WO2007043313A1 (ja) 顕微鏡装置及び観察方法
JP6513507B2 (ja) 位相差顕微鏡および撮像方法
US11287625B2 (en) Microscope and observation method
CN111433559A (zh) 增强计量目标信息内容
US20210389577A1 (en) Microscope
US9729800B2 (en) Image generation system
US9995923B2 (en) Control apparatus and control method for spatial light modulator
WO2016151665A1 (ja) 構造化照明顕微鏡、観察方法、及び画像処理プログラム
WO2017094184A1 (ja) 走査型顕微鏡および顕微鏡画像取得方法
US9507137B2 (en) Microscope with structured illumination using displaceable grid structures
JP6621350B2 (ja) 空間光変調器の制御装置及び制御方法
EP3583459A1 (en) Structured illumination scanning microscopy
CN113711014A (zh) 使用结构化照明显微镜增强样品成像
WO2018150471A1 (ja) 構造化照明顕微鏡、観察方法、及びプログラム
Dzyuba et al. Phase apodization of the imaging system through separate color channels to increase the depth of field

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15886223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15886223

Country of ref document: EP

Kind code of ref document: A1