WO2014132485A1 - 標本観察方法及び標本観察装置 - Google Patents

標本観察方法及び標本観察装置 Download PDF

Info

Publication number
WO2014132485A1
WO2014132485A1 PCT/JP2013/078635 JP2013078635W WO2014132485A1 WO 2014132485 A1 WO2014132485 A1 WO 2014132485A1 JP 2013078635 W JP2013078635 W JP 2013078635W WO 2014132485 A1 WO2014132485 A1 WO 2014132485A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
optical system
image
electronic image
light
Prior art date
Application number
PCT/JP2013/078635
Other languages
English (en)
French (fr)
Inventor
鈴木 良政
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013040143A external-priority patent/JP6218394B2/ja
Priority claimed from JP2013040142A external-priority patent/JP6385643B2/ja
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP13876585.4A priority Critical patent/EP2963475A4/en
Publication of WO2014132485A1 publication Critical patent/WO2014132485A1/ja
Priority to US14/835,844 priority patent/US10241316B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0088Inverse microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/02Objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/12Condensers affording bright-field illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/14Condensers affording illumination for phase-contrast observation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres

Definitions

  • the present invention relates to a sample observation method and a sample observation apparatus.
  • 0th-order diffracted light Undiffracted light
  • diffracted light diffracted light
  • the image of the specimen is formed by the combination of zero-order diffracted light and diffracted light.
  • the complex amplitude E at the image plane is represented, for example, by the following equation.
  • phase contrast observation As a result, even when trying to observe a colorless and transparent specimen, for example, a cell at a focusing position, in the bright field observation, almost no image of the cell can be observed.
  • phase contrast observation a phase contrast microscope is used.
  • Various proposals have been made for this phase contrast microscope. One of them is a microscope which observes a sample at a position shifted from a focusing position of an imaging optical system in order to observe an image (phase difference image) in a wide observation range (Patent Document 1).
  • the microscope disclosed in Patent Document 1 includes a partial aperture and wavefront introducing means.
  • the partial aperture is disposed substantially at the pupil position of the illumination optical system, and the wavefront introducing means is disposed at the pupil position of the imaging optical system.
  • the wavefront introducing means is adapted to introduce a wavefront whose size changes according to the diameter of the pupil of the imaging optical system.
  • the wavefront introducing means is disposed in the imaging optical system. Therefore, it can not be said that it is in the state of bright field observation. For example, the sample is changed from a colorless and transparent sample to a bright and dark sample. If bright field observation is performed in this state, the image of the sample is affected by the wavefront introducing means. For example, when the wavefront introducing means is an absorbing film, the image of the sample becomes dark. Therefore, in order to observe a bright and dark sample in the bright field, it is necessary to take out the wavefront introducing means from the optical path. In particular, when the wavefront introducing means is provided in the microscope objective, it is necessary to replace the microscope objective.
  • the present invention has been made in view of the above, and it is an object of the present invention to provide a sample observation method and a sample observation apparatus capable of observing a colorless and transparent sample, for example, cells while being in a bright field observation state. .
  • the sample observation method of the present invention includes an acquisition step of acquiring an electronic image of a sample, and a subtraction step of subtracting a DC component from a signal of the electronic image.
  • the acquiring step is performed in a bright-field observation state
  • the electronic image in the subtraction step is an image acquired in a first predetermined state, and in the first predetermined state, at least the position of the specimen and The in-focus position of the imaging optical system is different.
  • another sample observation method of the present invention includes an acquisition step of acquiring an electronic image of a specimen, and a subtraction step of subtracting a DC component from a signal of the electronic image, and the acquisition step is in the state of bright field observation.
  • the electronic image in the subtraction step is an image acquired in a second predetermined state, and the position and imaging of the specimen with the light of the first wavelength band before becoming the second predetermined state
  • the focusing position of the optical system is made to coincide, and in the second predetermined state, at least light of the second wavelength band forms an optical image of the sample, and the second wavelength band is the first wavelength band. , Or different from the first wavelength band.
  • the sample observation apparatus of the present invention includes a light source, an illumination optical system, an imaging optical system, an imaging device, and an image processing apparatus, and the illumination optical system uses illumination light from the light source as a specimen.
  • the imaging optical system is disposed to irradiate light, the imaging optical system is disposed to receive light from the specimen, and forms an optical image of the specimen, the imaging device is disposed at the position of the optical image, and the image processing device is , And performing the above-mentioned sample observation method.
  • the present invention it is possible to provide a sample observation method and a sample observation apparatus capable of observing a colorless and transparent sample, for example, cells while being in a bright field observation state.
  • FIG. 1 is a flowchart of the sample observation method of the first embodiment and the ninth embodiment.
  • FIG. 3 is an electronic image of the sample in the in-focus state.
  • FIG. 1 is a flowchart of the sample observation method of the first embodiment and the ninth embodiment.
  • FIG. 6 is an electronic image of the sample in the in-focus state.
  • FIG. 10 is a diagram related to the sample observation method of the second embodiment, wherein (a) is a simple flowchart of the sample observation method, and (b) is a graph showing the relationship between the distance between the sample and the imaging optical system and the contrast. is there.
  • FIG. 11 is a detailed flowchart of the sample observation method of the second embodiment.
  • FIG. 12 is a flowchart of the sample observation method of the embodiment, wherein (a) is a flowchart of the sample observation method of the third embodiment and the tenth embodiment, and (b) is a sample of the fourth embodiment and the eleventh embodiment. It is a flowchart of the observation method.
  • FIG. 12 is a flowchart of the sample observation method of the embodiment, wherein (a) is a flowchart of the sample observation method of the third embodiment and the tenth embodiment, and (b) is a sample of the fourth embodiment and the eleventh embodiment. It is a flowchart of the observation method.
  • FIG. 13 is a diagram showing the magnitude at each spatial frequency, where (a) is a state before execution of the subtraction step, and (b) is a view showing a state after execution of the subtraction step.
  • FIG. 14 is a flowchart of the sample observation method of the fifth embodiment and the twelfth embodiment.
  • FIG. 15 is a diagram showing the configuration of the sample observation device of the first embodiment.
  • FIG. 16 is a view showing the arrangement of a sample observation apparatus according to the second embodiment.
  • FIG. 17 is a view showing the configuration of a sample observation apparatus according to the third embodiment, wherein (a) shows a schematic configuration of the sample observation apparatus, and (b) shows a configuration of an optical system.
  • FIG. 18 is a diagram showing the relationship between the incident direction of the illumination light and the diffraction direction of the diffracted light, and the wavefront aberration amount, wherein (a) is a case where the incident direction of the illumination light is parallel to the optical axis, (b) These are figures which show the case where the angle of the incident direction of illumination light and an optical axis is large, when the angle of the incident direction of illumination light and an optical axis to make is small.
  • FIG. 19 is a view showing how the illumination optical system is a telecentric optical system.
  • FIG. 20 is a view showing the state of wavefront aberration in two objective lenses each having a different numerical aperture.
  • FIG. 6 is a diagram when the position of the sample and the in-focus position are made to coincide with light in the first wavelength band, and
  • FIG. 7B is a diagram when an optical image of the sample is formed with light in the second wavelength band .
  • FIG. 6 is a diagram when the position of the sample and the in-focus position are made to coincide with light in the first wavelength band, and
  • FIG. 7B is a diagram when an optical image of the sample is formed with light in the second wavelength band .
  • FIG. 27 is a view showing the arrangement of a sample observation apparatus according to the fourth embodiment.
  • FIG. 28 is a view showing the configuration of a sample observation device of the fifth embodiment.
  • FIG. 29 is a view showing the configuration of a sample observation apparatus according to the sixth embodiment.
  • (A) is a view showing a schematic configuration of the sample observation apparatus, and (b) is a view showing a configuration of an optical system.
  • the wavelength band of light forming the image of the sample (hereinafter, appropriately referred to as “imaging light”) is light which illuminates the sample (hereinafter, appropriately) It corresponds to a part of the wavelength band of “illumination light”, or the wavelength band of imaging light and the wavelength band of illumination light.
  • the phase film in the phase difference observation and the differential interference prism in the differential interference observation are not used. Therefore, as for light emitted from one point of the sample, in the bright field observation state, both the change of the wavefront of light in the illumination optical system and the change of the wavefront in the imaging optical system occur only with the lens.
  • the sample observation method includes an acquisition step of acquiring an electronic image of a specimen, and a subtraction step of subtracting a DC component from a signal of the electronic image, and the acquisition step is performed in a bright field observation state.
  • the electronic image in the subtraction step is an image acquired in a first predetermined state, and in the first predetermined state, at least the position of the sample and the in-focus position of the imaging optical system are different.
  • FIG. 1 is a flowchart of the sample observation method of the first embodiment and the sample observation method of a ninth embodiment described later.
  • the sample observation method of the first embodiment includes an acquisition step S10 and a subtraction step S20. Thereby, in the sample observation method of the first embodiment, a clear electronic image can be obtained.
  • an acquisition step S10 is first executed.
  • acquisition step S10 acquisition of an electronic image of the sample (hereinafter, appropriately referred to as an "electronic image") is performed.
  • An image (optical image) of the sample is formed by an imaging optical system.
  • this image is captured by an imaging device such as a CCD or CMOS.
  • an imaging device such as a CCD or CMOS.
  • the image of the sample is converted into an electronic image (digital data).
  • the acquisition of the electronic image is also performed in the state of bright field observation.
  • a subtraction step S20 is performed.
  • the DC component bias component
  • the electronic image in the subtraction step S20 is an image acquired in a first predetermined state.
  • the sample In the first predetermined state, at least the position of the sample and the in-focus position of the imaging optical system (hereinafter referred to as “in-focus position” as appropriate) are different.
  • the sample In order to make the position of the sample different from the in-focus position of the imaging optical system, for example, the sample may be moved by visual observation to a position which seems to be deviated from the in-focus position.
  • the position of the sample may be first matched to the in-focus position, and then the sample may be moved in a direction away from the in-focus position.
  • the in-focus position is known in advance, the position shifted from the in-focus position can be determined in advance, so the sample may be moved to that position.
  • the electronic image in the subtraction step S20 is an image at least when the position of the sample and the in-focus position are different. Therefore, when the electronic image is acquired, a state in which the position of the sample and the in-focus position are different, that is, a state in which the position of the sample is deviated from the in-focus position is included.
  • the sample is a grating phase object
  • when the sample is illuminated zero-order diffracted light and diffracted light emerge from the sample.
  • a difference in wavefront aberration difference in optical path length
  • FIG. 2 is a diagram showing the relationship between the position of the sample and the in-focus position, and the amount of wavefront aberration
  • FIG. 2 (a) is a diagram in the in-focus state
  • FIG. 3 is an electronic image of the sample when in focus.
  • FIG. 6 is an electronic image of the sample in the in-focus state.
  • FIGS. 3, 4, 6 and 7 are all images after the subtraction step S20 is performed. Also, the specimens in FIGS.
  • the in-focus state is a state in which the position of the sample S coincides with the in-focus position
  • the out-of-focus state is a state in which the position of the sample S deviates from the in-focus position.
  • the direction of the deviation is the upward direction (the direction approaching the imaging optical system 31) in both FIG. 2 (b) and FIG. 5 (b).
  • the spatial frequency is different between FIG. 2 and FIG. In FIGS. 2 and 5, the sample S is a lattice phase object. However, in the sample S in FIG. 2, the spatial frequency is high (the period of phase unevenness is short). On the other hand, in the sample S in FIG.
  • the graph also shows the amount of wavefront aberration at the pupil position.
  • the vertical axis of the graph represents the amount of wavefront aberration (unit: wavelength), and the horizontal axis represents the distance from the center of the pupil plane (on the pupil plane). Because the distance from the center of the pupil plane is standardized, it is unknown.
  • the numerical value 0 of the horizontal axis represents the center position of the pupil plane, and the numerical value 1 represents the outermost position of the pupil plane.
  • the light L emitted from one point on the optical axis C And ray L P And are included.
  • Ray L C Is a ray traveling on the optical axis.
  • the ray L C The intersection of the pupil plane and the pupil plane coincides with the center position of the pupil plane.
  • the ray L P Is a light beam which enters the imaging optical system 31 at a predetermined angle with respect to the optical axis AX.
  • the ray L P The intersection of the pupil plane and the pupil plane is located at a predetermined distance from the center of the pupil plane.
  • the zeroth-order diffracted light is a ray L C It can be regarded as On the other hand, since the first-order diffracted light is diffracted in a predetermined direction, the first-order diffracted light emerging from this point is incident on the imaging optical system 31 at a predetermined angle with respect to the optical axis. The first-order diffracted light entering the imaging optical system 31 reaches a position away from the center of the pupil plane.
  • the first-order diffracted light P It can be regarded as First, the case where the sample S has a high spatial frequency will be described.
  • the position P of the sample S S Is the in-focus position P F It matches with.
  • the amount of wavefront aberration is zero at any position on the pupil plane. This indicates that both the amount of wavefront aberration in zero-order diffracted light and the amount of wavefront aberration in first-order diffracted light are zero.
  • the imaging light includes light of a wavelength obtained by adding the amount of wavefront aberration to the first-order diffracted light. Therefore, although the electronic image is originally an image having no contrast, the electronic image is actually an image having some contrast as shown in FIG.
  • the position P of the sample S Is the in-focus position P F It is off the line. In FIG. 2 (b), the position P of the sample S S Is the in-focus position P F It is deviated in the upper direction (direction approaching the imaging optical system 31) than that.
  • the amount of wavefront aberration is 0 at the center of the pupil surface, but wavefront aberration occurs at a position away from the center of the pupil surface.
  • the wavefront aberration is a deviation of the actual wavefront with respect to the reference wavefront, and this deviation is a phase deviation. Therefore, if the position of the first-order diffracted light is within the range in which the wavefront aberration occurs, the phase of the first-order diffracted light becomes the phase originally possessed by the amount of the wavefront aberration.
  • the position P of the sample S S Focusing position P F By shifting from this, it is possible to change the phase of the first order diffracted light. As shown in the graph of FIG.
  • the position of the first-order diffracted light on the pupil plane is W In-focus position P to match F Adjust the deviation amount ⁇ Z from In other words, the amount of deviation ⁇ Z is adjusted so that the amount of wavefront aberration becomes ⁇ / 4 at the position of the first-order diffracted light on the pupil plane.
  • the position of the first-order diffracted light on the pupil plane is determined to be the position P W Match to By doing this, the amount of wavefront aberration in first-order diffracted light can be set to ⁇ / 4 while keeping the amount of wavefront aberration in zero-order diffracted light to zero.
  • phase information is obtained as contrast information.
  • the electronic image becomes an image having a clear contrast. Therefore, if this electronic image is displayed on a display device, for example, the observer can clearly observe the sample S (image of the sample S).
  • the sample S image of the sample S.
  • the position P of the sample S S Is the in-focus position P F It matches with.
  • the amount of wavefront aberration is zero at any position on the pupil plane. This is the same as FIG. 2 (a). Therefore, the electronic image is an image without contrast.
  • the electronic image is an image with some contrast.
  • the position P of the sample S is S Is the in-focus position P F It is deviated in the upward direction (direction approaching the imaging optical system) than that.
  • the amount of wavefront aberration is 0 at the center of the pupil surface, but wavefront aberration occurs at a position away from the center of the pupil surface.
  • the structure of the sample S in FIG. 5 is different from the structure of the sample S in FIG. In this case, the diffraction angles of the first-order diffracted light differ between FIG. 5 (b) and FIG. 2 (b). The diffraction angle in FIG. 5 (b) is smaller than that in FIG.
  • the position of the first-order diffracted light in the pupil plane is also different between FIG. 5 (b) and FIG. 2 (b).
  • the position where the amount of wavefront aberration is ⁇ / 4 is P W '.
  • position P W The amount of wavefront aberration at ' is ⁇ / 4. Therefore, the position of the first-order diffracted light on the pupil plane is W The deviation amount ⁇ Z is adjusted to be coincident with '.
  • the amount of deviation ⁇ Z is adjusted so that the amount of wavefront aberration becomes ⁇ / 4 at the position of the first-order diffracted light on the pupil plane.
  • the position of the first-order diffracted light on the pupil plane is set to the position P. W 'Match it.
  • the amount of wavefront aberration in first-order diffracted light can be made ⁇ / 4 while the amount of wavefront aberration in zero-order diffracted light remains zero.
  • FIG. 2 (b) the electronic image is an image having a clear contrast. Therefore, the observer can observe the sample S (image of the sample S) clearly.
  • the amount of wavefront aberration in first-order diffracted light is ⁇ / 4.
  • the phase of the zeroth-order diffracted light and the phase of the first-order diffracted light are in an inverse phase relationship.
  • the zeroth-order diffracted light and the first-order diffracted light weaken each other. Therefore, in the electronic image, the sample S becomes darker than the background. This corresponds to dark contrast in phase contrast observation.
  • the diffraction angle of the diffracted light differs depending on the spatial frequency that the sample S has. For example, when the sample S is a grid-like phase object, the fact that the lattice spacing is wide means that the spatial frequency possessed by the sample S is low.
  • narrow lattice spacing means that the spatial frequency of the sample S is high.
  • the diffraction angle is smaller as the lattice spacing is wider, and the diffraction angle is larger as the lattice spacing is narrower. Therefore, when the sample S has a low spatial frequency, the diffraction angle is small, and when the sample S has a high spatial frequency, the diffraction angle becomes large.
  • Cells contain structures with different spatial frequencies. Therefore, when the sample S is a cell, the appearance of the image of the sample changes depending on the spatial frequency at which the position where the wavefront aberration amount is ⁇ / 4 matches the position of the first-order diffracted light.
  • FIG. 4 is an electronic image by adjustment 1
  • FIG. 7 is an electronic image by adjustment 2. The sample is the same. Comparing the electronic image of FIG. 4 with the electronic image of FIG. 7, the electronic image of FIG.
  • the amount of wavefront aberration in first-order diffracted light is + ⁇ / 4.
  • the phase of the zeroth order diffracted light and the phase of the first order diffracted light are in the same phase relationship.
  • the zeroth-order diffracted light and the first-order diffracted light reinforce each other.
  • the sample S is brighter than the background.
  • the diffraction angle of the first-order diffracted light is larger in FIG. 8 (b) than in FIG. 9 (b). Therefore, while the outer periphery of the cell (the part where the spatial frequency is high) becomes clear in the electronic image of FIG. 8B, the inside of the cell (the part where the spatial frequency is low) is present in the electronic image of FIG. It becomes clear.
  • the deviation amount ⁇ Z is not so large. In this case, even if the position of the sample S is shifted with respect to the in-focus position, the incident position of the first-order diffracted light with respect to the imaging optical system 31 hardly changes.
  • the position of the first-order diffracted light on the pupil plane can also be regarded as hardly changing. Therefore, only by moving the position of the sample S, the amount of wavefront aberration added to the first-order diffracted light can be made to be - ⁇ / 4.
  • the subtraction step S20 is subsequently performed.
  • the DC component bias component
  • the subtraction step S20 the DC component (bias component) is subtracted from the signal of the electronic image.
  • the position of the sample and the in-focus position are different. Therefore, 2A 1 A 2 It becomes cos ⁇ ⁇ 0. In this case, the light intensity I at the image plane is become.
  • a 1 2 + A 2 2 Represents the DC component (bias component) in the image of the sample, that is, the DC component (bias component) in the signal of the electronic image.
  • the amplitude A of 0th order diffracted light 1 2 Has a very large value. Therefore, in the subtraction step S20, A 1 2 Decrease the value of. By doing this, A 1 2 + A 2 2 2A for the value of 1 A 2
  • the value of cos ⁇ ⁇ ⁇ can be made relatively large. As a result, the sample S (the image of the sample S) can be clearly observed.
  • the sample observation method of the second embodiment has a comparison step after the subtraction step, performs the acquisition step at least three times, and compares the previously acquired electronic image and the later acquired electronic image in the comparison step. The steps from the acquisition step to the comparison step are repeated until an electronic image satisfying a predetermined condition is obtained.
  • the sample observation method of the second embodiment will be described using FIGS. 10 and 11.
  • FIG. 10 (a) is a simple flowchart of the sample observation method of the second embodiment
  • FIG. 10 (b) is a graph showing the relationship between the distance between the sample and the imaging optical system and the contrast.
  • the sample observation method of the second embodiment has a comparison step S30-1 in addition to the acquisition step S10 and the subtraction step S20, as shown in FIG. 10 (a).
  • the comparison step S30-1 is performed after the subtraction step S20.
  • the acquisition step S10 is performed at least three times, and the electronic image acquired earlier and the electronic image acquired later are compared in the comparison step S30-1. Further, the acquisition step S10 to the comparison step S30-1 are repeated until an electronic image satisfying the predetermined condition is obtained. Thereby, in the sample observation method of the second embodiment, a clearer electronic image is automatically obtained. There are contrasts in evaluating the quality of electronic images.
  • the interval D may be an interval when the contrast is large.
  • the interval D is the interval between the boundaries of the sections X1 and X2 (hereinafter referred to as “interval DM1” as appropriate), or the interval between the boundaries of the sections X3 and X4 (hereinafter referred to as the “interval DM2” It should be said).
  • interval DM1 the interval between the boundaries of the sections X1 and X2
  • the interval DM2 the interval between the boundaries of the sections X3 and X4
  • the comparison step S30-1 a comparison is performed in consideration of these points.
  • the sample observation method of the second embodiment will be described in more detail with reference to FIG. First, in order to measure the number of times of acquisition, 0 is set to the variable n (S300). Subsequently, acquisition step S10 (first time) and subtraction step S20 are executed. In the acquisition step S10, the electronic image is acquired at an interval D1.
  • the number of times of acquisition is determined (S301).
  • the determination result of S301 is YES. Therefore, 1 is added to the variable n (S302), and the acquired electronic image is stored in the storage unit 1 (S303).
  • the distance (distance D) between the sample S and the imaging optical system 31 is increased by a predetermined amount (S304).
  • the predetermined amount is assumed to be set in advance.
  • the acquisition step S10 (second time) is executed again. At this time, the electronic image is acquired in a state in which the interval D is wider than the interval D1.
  • the subtraction step S20 is executed to determine the number of times of acquisition (S301, S305).
  • the determination result of S301 is NO, and the determination result of S305 is YES. Therefore, 1 is added to the variable n (S306), and the acquired electronic image is stored in the storage unit 2 (S307). Subsequently, the contrast of the electronic image of the storage unit 1 and the electronic image of the storage unit 2 is compared (S308).
  • the judgment result is YES, that is, Contrast of electronic image of storage unit 1> Contrast of electronic image of storage unit 2
  • the interval D1 exists in the section X1 or in the section X3.
  • the interval D may be narrowed in order to increase the contrast.
  • designation to narrow the interval D is performed (S309).
  • processing is also performed to narrow the interval D by a predetermined amount.
  • the predetermined amount at this time may be the same as or different from the predetermined amount in S304.
  • the judgment result is NO, that is, Contrast of electronic image in storage unit 1 ⁇ contrast of electronic image in storage unit 2
  • the interval D1 exists in the section X2 or in the section X4.
  • the interval D may be made wide in order to increase the contrast. Therefore, designation to widen the interval D is performed (S310).
  • a process of increasing the interval D by a predetermined amount is also performed.
  • the predetermined amount at this time may be the same as or different from the predetermined amount in S304.
  • the electronic image stored in the storage unit 2 is stored in the storage unit 1 (S311).
  • the storage unit 1 stores the previously acquired electronic image.
  • the comparison step S30-1 includes the processing from S301 to S311, but the processing from S301 to S311 may be performed only once. Thus, even if the acquisition step S10 to the comparison step S30-1 are repeated, the processing from S301 to S311 is not repeated.
  • the acquisition step S10 (third time) is executed again.
  • the subtraction step S20 is executed to determine the number of times of acquisition (S301, S305).
  • the determination result of S301 is NO, and the determination result of S305 is also NO.
  • the acquired electronic image is stored in the storage unit 2 (S312).
  • the storage unit 2 stores an electronic image acquired later. Subsequently, the contrast of the electronic image of the storage unit 1 and the electronic image of the storage unit 2 is compared (S313).
  • the storage unit 1 always stores an electronic image with high contrast. If the judgment result is YES, that is, Contrast of electronic image of storage unit 1> Contrast of electronic image of storage unit 2 In the case, the predetermined condition is satisfied. This indicates that an electronic image with sufficiently high contrast has been obtained, so the comparison is ended. On the other hand, if the judgment result is NO, that is, Contrast of electronic image in storage unit 1 ⁇ contrast of electronic image in storage unit 2 In the case, the predetermined condition is not satisfied. This means that the contrast of the acquired electronic image can not be said to be sufficiently high.
  • the predetermined condition is Contrast of electronic image of storage unit 1> Contrast of electronic image of storage unit 2
  • the predetermined condition may be that the difference in contrast between the two electronic images is smaller than the allowable value E.
  • the sample observation method of the third embodiment has an amplification step after the subtraction step, and the amplification step amplifies the signal of the electronic image after the subtraction step.
  • the sample observation method according to the third embodiment will be described with reference to FIG.
  • FIG. 12A is a flowchart of the sample observation method of the third embodiment and the sample observation method of the tenth embodiment described later.
  • the sample observation method of the third embodiment has an amplification step S30-2 in addition to the acquisition step S10 and the subtraction step S20, as shown in FIG. 12 (a). Thereby, in the sample observation method of the third embodiment, a clearer electronic image can be obtained.
  • a 1 2 + A 2 2 Represents the direct current component of the image of the sample, that is, the direct current component of the signal of the electronic image.
  • a 1 2 2A by reducing the value of 1 A 2
  • the value of cos A A 1 2 + A 2 2 It is relatively large with respect to the value of.
  • the amplification step S30-2 is executed after the end of the acquisition step S10 and the subtraction step S20.
  • 2A 1 A 2 The value of cos ⁇ ⁇ ⁇ is increased (amplified).
  • the amplification step S30-2 may be used in the sample observation method of the second embodiment. In this case, the amplification step S30-2 is performed before the comparison step S30-1. As described above, according to the sample observation method of the third embodiment, it is possible to observe a colorless and transparent sample more clearly while in the state of bright field observation.
  • the sample observation method according to the fourth embodiment includes a transformation step of Fourier transforming a signal of an electronic image, and an inverse transformation step of performing an inverse Fourier transformation, the transformation step being performed before the subtraction step, and inverse The conversion step is performed at least after the subtraction step.
  • the sample observation method of the fourth embodiment will be described with reference to FIGS. 12 (b) and 13.
  • FIG. 12B is a flowchart of the sample observation method of the fourth embodiment and the sample observation method of the eleventh embodiment described later.
  • FIG. 13 is a diagram showing the magnitude at each spatial frequency, where (a) is a state before execution of the subtraction step, and (b) is a view showing a state after execution of the subtraction step.
  • the sample observation method of the fourth embodiment has a conversion step S15-1 and an inverse conversion step S30-3 in addition to the acquisition step S10 and the subtraction step S20, as shown in FIG. 12 (b). Thereby, a clearer electronic image can be easily obtained by the sample observation method of the fourth embodiment.
  • a 1 2 By reducing the value of 1 2 + A 2 2 2A for the value of 1 A 2
  • the value of cos ⁇ is relatively large.
  • the subtraction step S20 is performed in the frequency space, subtraction can be performed efficiently.
  • the subtraction in the subtraction step S20 will be described with reference to FIG. As mentioned above, specimens such as cells contain structures with different spatial frequencies.
  • the conversion step S15-1 is executed after the end of the acquisition step S10.
  • the signal of the electronic image is subjected to Fourier transform.
  • the magnitude (corresponding to the vertical axis, the brightness) is separated for each spatial frequency.
  • the numerical value on the horizontal axis indicates the spatial frequency, and the magnitude is 100 when the spatial frequency is 0, and the magnitude is 30 when the spatial frequency is 1.
  • the value of the spatial frequency (numerical value on the horizontal axis) corresponds to the order of the diffracted light.
  • the magnitude corresponds to the brightness of the zeroth-order diffracted light.
  • the magnitude corresponds to the brightness of the first order diffracted light. Therefore, after the conversion step S15-1, the subtraction step S20 is performed. In this subtraction step S20, the magnitude at the spatial frequency 0 is reduced. For example, as shown in FIG. 13B, the magnitude at the spatial frequency 0 is reduced by half from 100 to 50. This is A 1 2 Is equivalent to reducing the value of. By doing this, the brightness of the zero-order light can be reduced.
  • inverse transformation step S30-3 is performed. In inverse transformation step S30-3, inverse Fourier transformation is performed.
  • the conversion step S15-1 and the inverse conversion step S30-3 may be used for the sample observation method of the second embodiment or the sample observation method of the third embodiment. In this case, the conversion step S15-1 is performed before the subtraction step S20. Also, the inverse conversion step S30-3 is executed after the subtraction step S20.
  • the sample observation method of the fifth embodiment has a pre-acquisition step and a normalization step, in the pre-acquisition step, an electronic image is acquired without a specimen, and in the normalization step, the specimen is obtained by the electronic image. The electronic image is normalized and the normalization step is performed before the subtraction step.
  • the sample observation method of the fifth embodiment will be described with reference to FIG.
  • FIG. 14 is a flowchart of the sample observation method of the fifth embodiment and the sample observation method of the twelfth embodiment described later. The sample observation method according to the fifth embodiment, as shown in FIG.
  • the amplification step S30-2 is provided after the subtraction step S20, the amplification step S30-2 is not essential.
  • the brightness of the image of the sample S may be influenced by the illumination optical system or by the imaging optical system. For example, when light passes through the illumination optical system or the imaging optical system, unevenness occurs in the brightness of the light after passing. In this case, the brightness of the image of the sample S is also uneven due to the unevenness of brightness due to the illumination optical system and the imaging optical system.
  • the pre-acquisition step S00 prior to the acquisition step S10, the pre-acquisition step S00 is performed.
  • the electronic image A is acquired without the sample S.
  • the electronic image A is an image with only brightness unevenness.
  • an acquisition step S10 is performed to acquire the electronic image B of the sample S.
  • the electronic image B is an image in which unevenness of brightness due to the illumination optical system or the imaging optical system is added to the image of the sample S. Therefore, the standardization step S15-2 is performed. In the standardization step S15-2, the electronic image B is standardized with the electronic image A.
  • the following operation Electronic image B / Electronic image A Is performed in the standardization step S15-2.
  • the unevenness of the brightness in the electronic image B is canceled by the unevenness of the brightness in the electronic image A. Therefore, the electronic image after standardization is an image in which unevenness in brightness due to the illumination optical system or the imaging optical system is reduced.
  • a subtraction step S20 is performed.
  • the normalized electronic image A is 1 2 To reduce the value of 1 2 + A 2 2 2A for the value of 1 A 2 Make the value of cos ⁇ ⁇ ⁇ ⁇ relatively large. As a result, the sample S (image of the sample S) can be observed more clearly.
  • the pre-acquisition step S00 and the normalization step S15-2 may be used in any of the sample observation method of the second embodiment to the sample observation method of the fourth embodiment.
  • the pre-acquisition step S00 is performed before the acquisition step S10.
  • the normalization step S15-2 is performed before the subtraction step S20.
  • the sample position is changed a plurality of times with respect to the in-focus position of the imaging optical system, and the acquisition step and the subtraction step are performed at the changed sample position.
  • a plurality of electronic images after the execution of the subtraction step are generated, and the generated plurality of electronic images are added.
  • the sample observation method of the sixth embodiment when generating an electronic image, an image with high contrast in each frequency space from low frequency space to high spatial frequency is used. Thus, in the generated electronic image, the contrast is high at any spatial frequency. As a result, the sample S (the image of the sample S) can be clearly observed. As described above, according to the sample observation method of the sixth embodiment, it is possible to clearly observe a colorless and transparent sample while in the state of bright field observation.
  • a portion with the highest contrast in the electronic image is extracted, and addition is performed using the extracted portion.
  • the sample observation method of the seventh embodiment when the electronic image is generated by addition, only the portion where the contrast is the highest in each frequency space is used. Thus, in the generated electronic image, the contrast is very high at any spatial frequency. As a result, the sample S (image of the sample S) can be observed more clearly. As described above, according to the sample observation method of the seventh embodiment, the clear and colorless sample can be observed more clearly while being in the bright field observation state. In the sample observation method of the eighth embodiment, the change of the position of the sample is performed in the state where the signs of the amount of wavefront aberration in the first predetermined state are the same. As described above, when the amount of wavefront aberration in first-order diffracted light becomes ⁇ / 4, the electronic image becomes a dark contrast image.
  • the sample S becomes darker than the background.
  • the wavefront aberration amount in the first-order diffracted light becomes + ⁇ / 4
  • the electronic image becomes a bright contrast image. That is, in the electronic image, the sample S is brighter than the background. Therefore, when generating an electronic image by addition, it is preferable to use an image in a state in which the sign of the amount of wavefront aberration is the same. In this way, the generated electronic image can be an image based only on dark contrast or an image based only on bright contrast. As a result, the sample S (image of the sample S) can be observed more clearly.
  • the sample observation apparatus includes a light source, an illumination optical system, an imaging optical system, an imaging device, and an image processing apparatus, and the illumination optical system includes the light source
  • the illumination optical system is disposed to irradiate the sample with the illumination light
  • the imaging optical system is disposed to receive the light from the sample, and forms an optical image of the sample
  • the imaging device is disposed at the position of the optical image
  • the image processing apparatus performs the sample observation method according to the first to eighth embodiments described above.
  • the configuration of the sample observation device of the first embodiment is shown in FIG.
  • the sample observation apparatus 1 is an observation system using an upright microscope.
  • the sample observation device 1 includes a main body unit 10, an illumination unit 20, an observation unit 30, and an image processing device 40.
  • the illumination unit 20 and the observation unit 30 are attached to the main body unit 10.
  • the main body unit 10 and the image processing apparatus 40 are connected by wire or wirelessly.
  • the sample observation device 1 may include the display device 50.
  • the display device 50 is connected to the image processing device 40 by wire or wirelessly.
  • the main body unit 10 has a stage 11.
  • the stage 11 is a holding member.
  • the sample S is placed on the stage 11.
  • the movement of the sample S is performed by an operation knob (not shown) or a focusing knob (not shown) attached to the stage.
  • the illumination unit 20 has a light source 21 and an illumination optical system 22.
  • the illumination optical system 22 has a condenser lens 23 and an aperture stop 24.
  • the illumination optical system 22 may include a lens 25, a mirror 26 and a lens 27.
  • the condenser lens 23 and the aperture stop 24 are held by the stage 11.
  • the illumination optical system 22 is disposed in the light path between the light source 21 and the stage 11.
  • the observation unit 30 has an imaging optical system 31 and an imaging device 32.
  • the observation unit 30 may include the revolver 33 and the observation lens barrel 34.
  • the imaging optical system 31 has a microscope objective lens 35 and an imaging lens 36. As shown in FIG. 15, the imaging optical system 31 may include an imaging lens 37 and a prism 38. The imaging optical system 31 is disposed in the optical path between the stage 11 and the imaging device 32. The imaging device 32 has an imaging element 39.
  • the illumination unit 20 is disposed on the side facing the observation unit 30 across the stage 11. Therefore, in the sample observation device 1, the sample S is illuminated by transmissive illumination. Illumination light is emitted from the light source 21. The illumination light passes through the illumination optical system 22 and reaches the stage 11. The specimen S is illuminated by this illumination light.
  • the light from the sample S is collected by the imaging optical system 31, whereby an image (optical image) of the sample S is formed at the collection position.
  • the image of the sample S is imaged by the imaging element 39 of the imaging device 32.
  • the image of the sample S is converted into an electronic image (digital data).
  • the electronic image is sent to the image processor 40.
  • the image processing apparatus 40 performs various processes.
  • the sample observation device 1 includes the display device 50
  • the electronic image is displayed on the display device 50.
  • the observer can observe the sample S (image of the sample S) by viewing the electronic image displayed on the display device 50.
  • the imaging device 32 may include a circuit that performs automatic gain control.
  • the circuit that performs automatic gain control may be included in the image processing apparatus 40.
  • a prism 38 can also be inserted into the light path of the imaging optical system 31. By doing this, the light from the specimen S is guided to the eyepiece of the observation lens barrel 34. An observer can observe the optical image of the sample S through the eyepiece.
  • a procedure for performing the sample observation method of the embodiment using the sample observation device 1 will be described.
  • the sample observation method of the first embodiment will be described as an example.
  • a white light source is used as the light source 21. First, the observer causes the illumination optical system 22 and the imaging optical system 31 to be in the state of bright field observation.
  • the observer places the sample S on the stage 11. Then, the observer moves the sample by visual observation to a position considered to be deviated from the in-focus position. As a result, in the state of bright field observation, the position of the sample S is different from the in-focus position.
  • the image processing apparatus 40 is operated. Note that these tasks may be performed in random order.
  • the operation of the image processing apparatus 40 enables an image of the sample S to be captured, so the acquisition step S10 is performed.
  • the acquisition step S10 is performed to acquire an electronic image.
  • the electronic image acquired in the acquisition step S10 is stored in a temporary storage unit (not shown) in the image processing apparatus 40.
  • subtraction step S20 is performed.
  • the value of cos ⁇ is A 1 2 + A 2 2 Relative to the value of
  • the execution result of the subtraction step S20 is displayed on the display device 50, for example.
  • the setting of the position of the sample S is performed by visual observation.
  • the image of the sample S is largely blurred. Therefore, even if the image of the sample S is captured, the observer can not view the electronic image on the display device 50. Then, the observer operates the focusing knob to move the sample S toward the in-focus position.
  • the main body 10 may include the motor 12. In FIG.
  • the motor 12 is connected to the stage 11.
  • the sample S can be moved by moving the stage 11 along the optical axis by the motor 12.
  • the configuration of the sample observation device of the second embodiment is shown in FIG.
  • the sample observation apparatus 1 ′ is an observation system using an inverted microscope. The same members as those of the sample observation device 1 are assigned the same reference numerals and descriptions thereof will be omitted.
  • the illumination unit 20 is disposed on the side opposite to the observation unit 30 with the stage 11 interposed therebetween.
  • the sample S can be illuminated by the transmission illumination.
  • the sample observation device 1 ′ also includes an illumination unit 20 ′ separately from the illumination unit 20.
  • the illumination unit 20 ′ is disposed on the same side as the observation unit 30. Therefore, in the sample observation device 1 ′, the sample S can be illuminated with epi-illumination using the illumination unit 20 ′.
  • the illumination unit 20 ' includes a light source 21' and an illumination optical system 22 '.
  • the illumination optical system 22 ' has a condenser lens and an aperture stop.
  • illumination is performed via the microscope objective lens 35.
  • the microscope objective lens 35 corresponds to a condenser lens.
  • the aperture stop is not shown.
  • the illumination optical system 22 ' may include a lens 25', a half mirror HM, and a lens 27 '.
  • the illumination optical system 22 ′ is disposed in the light path between the light source 21 ′ and the stage 11.
  • the half mirror HM and the microscope objective lens 33 constitute an illumination optical system 22 ′ and an imaging optical system 31.
  • the image of the sample S is imaged by the imaging element 39 of the imaging device 32.
  • the prism 38 out of the optical path of the imaging optical system 31 the light of the sample S can be guided to the eyepiece of the observation lens barrel 34. In this case, the light of the sample S is reflected by the mirror M toward the observation lens barrel 34.
  • the motor 12 is connected to the revolver 33.
  • the revolver 33 is moved by the motor 12 along the optical axis.
  • the microscope objective lens 35 imaging optical system 31
  • the position of the sample S and the in-focus position can be made different.
  • the sample S can be illuminated by transmitted illumination or epi-illumination.
  • the epi-illumination will be described.
  • illumination light is emitted from the light source 21 '.
  • the illumination light passes through the illumination optical system 22 ′ and reaches the stage 11.
  • the specimen S is illuminated by this illumination light.
  • the light from the sample S is collected by the imaging optical system 31, whereby an image (optical image) of the sample S is formed at the collection position.
  • an image optical image
  • the image of the sample S is imaged by the imaging element 39 of the imaging device 32.
  • the image processing apparatus 40 performs various processes.
  • the sample observation device 1 includes the display device 50
  • the electronic image is displayed on the display device 50.
  • the observer can clearly observe the sample S (image of the sample S) by viewing the electronic image displayed on the display device 50.
  • a procedure for performing the sample observation method of the embodiment will be described using the sample observation device 1 ′.
  • a white light source is used as the light source 21 '.
  • the observer brings the illumination optical system 22 'and the imaging optical system 31 into a state of bright field observation. Then, the observer places the sample S on the stage 11. Subsequently, the image processing apparatus 40 is operated. Note that these tasks may be performed in random order.
  • the observer inputs information on the start of observation into the image processing apparatus 40. Here, it is assumed that information on the amount of deviation from the in-focus position is stored in the image processing apparatus 40 in advance.
  • the image processing device 40 calculates the amount of movement based on the information of the current position of the revolver 33 (microscope objective lens 35) and the amount of deviation from the in-focus position.
  • the image processing apparatus 40 transmits a drive signal to the motor 12 based on the calculated result. Based on the transmitted signal, the motor 12 moves the revolver 33 so that the position of the sample S deviates from the in-focus position. By doing this, the position of the sample S and the in-focus position can be made different.
  • an acquisition step S10 first time
  • acquisition of an electronic image is performed.
  • the acquired electronic image is stored in a temporary storage unit (not shown) in the image processing apparatus 40. Subsequently, subtraction step S20 is performed.
  • the electronic image is stored in the storage unit 1 (not shown) in the image processing apparatus 40.
  • the electronic image stored in the storage unit 1 is displayed on the display device 50, for example.
  • the image processing device 40 transmits a drive signal to the motor 12.
  • the drive signal at this time is a signal that widens the distance D (the distance between the sample S and the microscope objective lens 35) by a predetermined amount.
  • the motor 12 moves the revolver 33 so that the microscope objective lens 35 moves away from the stage 11.
  • an acquisition step S10 (second time) and a subtraction step S20 are performed.
  • the electronic image is stored in the storage unit 2 (not shown) in the image processing apparatus 40. Subsequently, the contrast of the electronic image of the storage unit 1 and the electronic image of the storage unit 2 is compared. If the determination result is YES, designation to narrow the interval D is performed. On the other hand, when the determination result is NO, designation to widen the interval D is performed, and the electronic image stored in the storage unit 2 is stored in the storage unit 1. When the designation for the interval D is completed, an acquisition step S10 (third time) and a subtraction step S20 are performed. Subsequently, the contrast of the electronic image of the storage unit 1 and the electronic image of the storage unit 2 is compared.
  • FIG. 17A shows a schematic configuration of the observation apparatus
  • FIG. 17B shows a configuration of the optical system.
  • the sample observation apparatus 300 is an observation system using an electronic endoscope.
  • the sample observation device 300 is configured of an electronic endoscope 100 and an image processing device 200.
  • the electronic endoscope 100 includes a scope unit 100a and a connection cord unit 100b. Further, a display unit 204 is connected to the image processing apparatus 200.
  • the scope unit 100 a is roughly divided into the operation unit 140 and the insertion unit 141.
  • the insertion portion 141 is elongated and can be inserted into a body cavity of a patient. Moreover, the insertion part 141 is comprised by the member which has flexibility. The observer can perform various operations with an angle knob or the like provided in the operation unit 140.
  • a connection cord portion 100 b is extended from the operation unit 140.
  • the connection cord portion 100 b includes a universal cord 150.
  • the universal cord 150 is connected to the image processing apparatus 200 via the connector 250.
  • the universal cord 150 is used to transmit and receive various signals and the like.
  • the various signals include a power supply voltage signal and a CCD drive signal. These signals are transmitted from the power supply device or the video processor to the scope unit 100a. In addition, there are video signals as various signals. This signal is transmitted from the scope unit 100a to the video processor.
  • the video processor in the image processing apparatus 200 can be connected with peripheral devices such as a VTR deck and a video printer (not shown). The video processor performs signal processing on the video signal from the scope unit 100a.
  • An endoscopic image is displayed on the display screen of the display unit 204 based on the video signal.
  • An optical system is disposed at the distal end portion 142 of the insertion portion 141.
  • the electronic endoscope 100 is a magnifying endoscope. Therefore, the optical system forms an enlarged image of the sample S.
  • the illumination unit has a light source and an illumination optical system. Light from the light source is emitted from the optical fiber 401.
  • the illumination optical system includes a lens 402, a mirror 403, a lens 404, a half prism 405, and an objective lens 406.
  • the observation unit has an imaging optical system and an imaging device.
  • the imaging optical system includes an objective lens 406, a half prism 405, and an imaging lens 407.
  • the imaging device has an imaging element 408. In this optical system, the sample S is illuminated by epi-illumination. A procedure for performing the sample observation method of the embodiment using the sample observation device 300 will be described.
  • the sample observation method of the third embodiment will be described as an example.
  • a white light source is used as a light source.
  • the observer causes the illumination optical system and the imaging optical system to be in the state of bright field observation.
  • the observer visually moves the insertion unit 141 to a position considered to be a position deviated from the in-focus position.
  • the image processing apparatus 200 is operated. Note that these tasks may be performed in random order.
  • the operation of the image processing apparatus 200 enables an image of the sample S to be captured, and thus the acquisition step S10 is performed.
  • the acquisition step S10 is performed to acquire an electronic image.
  • the electronic image acquired in the acquisition step S10 is stored in a temporary storage unit (not shown) in the image processing apparatus 200.
  • subtraction step S20 is performed.
  • the value of cos ⁇ is A 1 2 + A 2 2 Relative to the value of
  • an amplification step S30-2 is performed.
  • 2A 1 A 2 Increase (amplify) the value of cos ⁇ .
  • the value of cos ⁇ ⁇ becomes relatively larger.
  • the execution result of the amplification step S30-2 is displayed on, for example, the display device 204. While moving the insertion unit 141, imaging is always performed.
  • acquisition step S10, subtraction step S20 and amplification step S30-2 are also always performed. Therefore, the observer moves the insertion unit 141 while viewing the electronic image on the display device 204, and ends the movement of the insertion unit 141 when the electronic image with good contrast is obtained. As a result, the sample S (the image of the sample S) can be clearly observed.
  • the objective lens 406, the imaging lens 407, and the imaging device 408 may be moved along the optical axis. For these movements, for example, a microactuator (not shown) or a voice coil motor (not shown) may be used. In this way, it is possible to finely adjust the deviation amount ⁇ Z.
  • the movement of the insertion unit 141 may be performed to the place where an electronic image having a certain degree of contrast can be acquired.
  • a clear and colorless sample can be observed more clearly while being in the bright field observation state.
  • FIG. 18 is a diagram showing the relationship between the incident direction of the illumination light and the diffraction direction of the diffracted light, and the wavefront aberration amount, and FIG.
  • FIG. 18A shows the case where the incident direction of the illumination light is parallel to the optical axis
  • FIG. 18B is a view showing the case where the angle between the incident direction of the illumination light and the optical axis is small
  • FIG. 18C is a diagram showing the case where the angle between the incident direction of the illumination light and the optical axis is large.
  • the diffracted light generated from the sample S depends on the incident direction of the illumination light on the sample S.
  • the illumination light L ill Zero-order diffracted light L when the incident direction of light is parallel to the optical axis 0 Travels on the optical axis to reach the pupil position.
  • + 1st order diffracted light L +1 Is incident on the imaging optical system at an angle of + ⁇ with respect to the optical axis to reach the pupil position.
  • first-order diffracted light L -1 Is incident on the imaging optical system at an angle of ⁇ with respect to the optical axis to reach the pupil position.
  • the zeroth order diffracted light L 0 0th order diffracted light L because it travels on the optical axis 0
  • the amount of wavefront aberration added to is zero.
  • a wavefront aberration amount of ⁇ / 4 is added to both.
  • zero-order diffracted light L 0 There is no change in the phase of
  • the total of the delays is ⁇ , since ⁇ / 2 further adds to the original delay ⁇ / 2.
  • phase information is obtained as contrast information.
  • the contrast is a so-called dark contrast.
  • -1st order diffracted light L -1 + 1st order diffracted light L +1 Is the same as
  • the illumination light L ill Zero-order diffracted light L when the angle between the incident direction of light and the optical axis is small (when the angle is ⁇ ) 0
  • the illumination light L ill Proceed in the same direction as the incident direction of. Therefore, 0th order diffracted light L 0 Is incident on the imaging optical system at an angle of + ⁇ with respect to the optical axis to reach the pupil position.
  • + 1st order diffracted light L +1 Is diffracted outside the predetermined direction (a direction away from the optical axis). Therefore, + 1st order diffracted light L +1 Is incident on the imaging optical system at an angle of + 2 ⁇ with respect to the optical axis to reach the pupil position.
  • first-order diffracted light L -1 Is also diffracted, but -1st order diffracted light L -1 Travels on the optical axis to reach the pupil position.
  • + 1st order diffracted light L +1 Diffraction direction of light and -1st order diffracted light L -1 The diffraction direction of is asymmetric with respect to the optical axis, but the wavefront aberration occurs symmetrically with respect to the center of the pupil plane (optical axis). Therefore, zero-order diffracted light L 0 Amount of wavefront aberration added to the lens, + 1st order diffracted light L +1 Amount of wavefront aberration added to the lens and -1st order diffracted light L -1 The amount of wavefront aberration applied to each is different. In FIG.
  • the illumination light L ill When the angle between the incident direction of the light and the optical axis is large (when the angle 0 The illumination light L ill Proceed in the same direction as the incident direction of. Therefore, 0th order diffracted light L 0 Is incident on the imaging optical system at an angle of + 2 ⁇ with respect to the optical axis to reach the pupil position. On the other hand, + 1st order diffracted light L +1 Is diffracted outside the effective aperture of the imaging optical system. Therefore, + 1st order diffracted light L +1 Does not reach the pupil position. In addition, first-order diffracted light L -1 Is incident on the imaging optical system at an angle of + ⁇ with respect to the optical axis to reach the pupil position.
  • + 1st order diffracted light L +1 Diffraction direction of light and -1st order diffracted light L -1 The diffraction direction of is asymmetric with respect to the optical axis, but the wavefront aberration occurs symmetrically with respect to the center of the pupil plane (optical axis). Therefore, zero-order diffracted light L 0 Amount of wavefront aberration to be added to the -1 The amount of wave front aberration which arises to be different is different.
  • the zeroth order diffracted light L 0 Is added to the amount of wavefront aberration of -3 ⁇ / 4, and -1 Adds a wavefront aberration amount of - ⁇ / 4.
  • conditional expression (2) By satisfying the conditional expression (2), it is possible to observe a clear and colorless specimen more clearly while in the bright field observation state.
  • the value goes below the lower limit value of the conditional expression (2) the difference between the focusing position of the imaging optical system and the position of the sample becomes too small. In this case, the amount of wavefront aberration added to the diffracted light decreases. In particular, the amount of wavefront aberration added to the first-order diffracted light is smaller than ⁇ / 4. Therefore, it is difficult to obtain an electronic image with good contrast. If the upper limit value of the conditional expression (2) is exceeded, the difference between the focusing position of the imaging optical system and the position of the sample becomes too large. In this case, the amount of wavefront aberration added to the diffracted light becomes large.
  • the amount of wavefront aberration added to the first-order diffracted light becomes larger than ⁇ / 4.
  • the optical image is largely blurred.
  • the following conditional expression (2 ') be satisfied instead of the conditional expression (2).
  • ⁇ Z is the difference between the focusing position of the imaging optical system and the position of the sample
  • NA ill Is the numerical aperture of the sample side of the illumination optics, It is.
  • the upper limit value of the conditional expression (3) is exceeded, the difference between the focusing position of the imaging optical system and the position of the sample becomes too large. In this case, the amount of wavefront aberration added to the diffracted light becomes large. In particular, the amount of wavefront aberration added to the first-order diffracted light becomes larger than ⁇ / 4. In addition, the optical image is largely blurred. As a result, it is difficult to obtain high resolution electronic images. If the upper limit value of the conditional expression (3) is exceeded, the numerical aperture on the sample side of the illumination optical system becomes too large. In this case, illumination light obliquely incident on the optical axis increases. Therefore, it is difficult to obtain an electronic image with good contrast.
  • the illumination optical system preferably includes a condenser lens and an aperture stop.
  • the illumination optical system is preferably a Koehler illumination optical system. By doing this, the sample can be illuminated evenly. Therefore, the processing (image processing) in the above-described sample observation method can be simplified. Further, in the sample observation device according to each of the embodiments described above, the illumination optical system is preferably a telecentric optical system. By doing this, an electronic image with good contrast can be obtained in the entire observation range.
  • FIG. 19 is a view showing how the illumination optical system is a telecentric optical system.
  • the illumination optical system has a condenser lens 62 and an aperture stop 60. An aperture stop 60 is disposed on the front focal plane 61 of the condenser lens 62.
  • an axial light beam (line indicated by a solid line) emitted from the center of the aperture stop 60 is converted into a parallel light beam by the condenser lens 62 and reaches the position 63 of the sample.
  • an off-axis light beam (a line shown by a broken line) emitted from the periphery of the aperture stop 60 is also converted into a parallel light beam by the condenser lens 62 and reaches the position 63 of the sample.
  • the illumination optical system is a telecentric optical system, an off-axis light beam is incident on the condenser lens so that its chief ray is parallel to the optical axis. As shown in FIG.
  • the light beam passing through the center of the aperture stop 60 is parallel to the optical axis to reach the position of the sample.
  • the sample is illuminated with a beam parallel to the optical axis, and from the sample, zero-order diffracted light and first-order diffracted light emerge. Among these, the zeroth-order diffracted light travels in parallel with the optical axis.
  • the + 1st order diffracted light and the -1st order diffracted light travel in the direction away from the optical axis.
  • the + 1st order diffracted light and the -1st order diffracted light travel in symmetry with respect to the optical axis.
  • the amount of wavefront aberration added to + 1st order diffracted light and the amount of wavefront aberration added to -1st order diffracted light become equal. If the 0th order diffracted light and the + 1st order diffracted light are weakened, the 0th order diffracted light and the -1st order diffracted light are also weakened. Conversely, if the 0th-order diffracted light and the + 1st-order diffracted light intensify, the 0th-order diffracted light and the ⁇ 1st-order diffracted light also strengthen. Therefore, an electronic image with good contrast can be obtained over the entire observation range.
  • the sample observation apparatus of each above-mentioned embodiment has a wavelength selection means.
  • the illumination light is preferably monochromatic light.
  • the amount of wavefront aberration added to the first-order diffracted light may be 1 ⁇ 4 ⁇ for light of one wavelength and ⁇ 1 ⁇ 4 ⁇ for light of another wavelength.
  • light of a certain wavelength is an image of dark contrast
  • light of another wavelength is an image of bright contrast. Therefore, it is difficult to obtain an electronic image with good contrast when viewed in the whole of white light. Therefore, if the sample observation device has a wavelength selection means, it is possible to suppress the decrease in contrast. Since the sample observation device has the wavelength selection means, the variation in the generation amount of the wavefront aberration due to the wavelength is eliminated. Therefore, an electronic image with good contrast can be obtained.
  • the wavelength selection means in the case of using an imaging optical system having large axial chromatic aberration, an electronic image with good contrast can be obtained if the wavelength selection means is provided.
  • the illumination light is monochromatic light.
  • the optical filter FL wavelength selection means
  • the optical filter FL and the optical filter FL' can be alternately arranged in the light path of the imaging optical system 31.
  • the optical filter FL is not shown, but can be the same as the sample observation device 1 or the sample observation device 1 '.
  • the optical filter FL may be movable. Further, the number of optical filters FL is not limited to one.
  • a plurality of optical filters FL having different spectral transmittance characteristics may be prepared, and one or more optical filters FL may be disposed in the optical path.
  • the location of the optical filter FL may be either one of the illumination optical system and the imaging optical system, or both.
  • the optical filter FL may be disposed in the imaging device. When the imaging device has an optical filter, this optical filter may be used. Further, when the optical filter FL has a characteristic of transmitting light of long wavelength, damage to cells can be reduced by using the optical filter FL.
  • the optical filter FL has a characteristic of transmitting light of a short wavelength
  • an electronic image with high resolution can be obtained by using this optical filter FL.
  • the light source itself may emit light having a narrow wavelength band. In this way, it is not necessary to arrange the optical filter in the optical path of the optical system. Also, a plurality of light sources may be used.
  • the imaging optical system is preferably a telecentric optical system. By doing this, the angles of the zeroth-order diffracted light can be made approximately the same anywhere in the observation range. Therefore, an electronic image with good contrast can be obtained anywhere in the observation range.
  • the imaging optical system preferably has an aperture stop.
  • the imaging optical system preferably includes an objective lens, and the aperture stop is preferably provided in the objective lens. By doing this, an image with good contrast can be obtained according to the sample. It demonstrates using a microscope objective lens.
  • FIG. 20 is a diagram showing the state of wavefront aberration in two microscope objective lenses each having a different numerical aperture (NA). In FIG. 20, a curve indicated by a solid line and a curve indicated by a broken line both show the relationship between the numerical aperture and the amount of wavefront aberration.
  • the solid line represents a microscope objective lens with a large numerical aperture (hereinafter referred to as “objective lens OB 1 And the wavefront aberration amount of
  • the broken line indicates a microscope objective lens having a small numerical aperture (hereinafter referred to as “the objective lens OB 2 And the wavefront aberration amount of Objective lens OB 1 And objective lens OB 2
  • the wavefront aberration amount is ⁇ / 4 at the position where the numerical aperture is 0.2. Therefore, by making the position of the first-order diffracted light coincide with the position where the numerical aperture is 0.2, an electronic image with good contrast can be obtained.
  • the objective lens OB 2 Objective lens OB compared to the numerical aperture of 1 Has a large numerical aperture.
  • the objective lens OB 1 Diffracted light of higher order than the first-order diffracted light is incident on.
  • the amount of wavefront aberration is also added to the diffracted light of high order. Therefore, depending on the magnitude of the amount of wavefront aberration, the zero-order diffracted light and the high-order diffracted light may be weak or strong.
  • the objective lens OB 1 it becomes difficult to obtain an electronic image with good contrast. Therefore, the objective lens OB 1 Objective lens OB by providing an aperture stop on the 1 The numerical aperture of can be limited. That is, the objective lens OB 1 The numerical aperture of the objective lens OB 2 Can be as good as the numerical aperture of As a result, an electronic image with good contrast is obtained.
  • the position of the aperture stop may be anywhere as long as the numerical aperture can be limited between the microscope objective lens and the imaging device. Therefore, the imaging optical system may have an aperture stop.
  • the objective lens in addition to the microscope objective lens, for example, there is an endoscope objective lens.
  • is the wavelength of light incident on the imaging device
  • P is the pixel pitch of the imaging device in the imaging device
  • NA im Is the numerical aperture on the imaging device side of the imaging optical system
  • NA im I is a value obtained by dividing the numerical aperture on the sample side of the imaging optical system by the projection magnification of the imaging optical system.
  • the sample observation apparatus of each above-mentioned embodiment has a drive mechanism, and a drive mechanism moves at least one of a holding member, an imaging device, and an imaging optical system along an optical axis.
  • a drive mechanism moves at least one of a holding member, an imaging device, and an imaging optical system along an optical axis.
  • the imaging optical system and the imaging device it is preferable to move the imaging optical system and the imaging device.
  • the imaging optical system or the imaging device is moved, the sample S can be made stationary. Therefore, even if the sample has a very soft structure or the observation target is suspended in the liquid, the state of the sample is not changed (the deformation of the sample or the liquid Electronic image can be acquired without changing the position of
  • a sample observation method and a sample observation apparatus according to another embodiment will be described.
  • the sample observation methods of the following ninth to fifteenth embodiments and the sample observation apparatus of the fourth to sixth embodiments are used in the state of bright field observation.
  • a fluorescence mirror unit including an excitation filter, a dichroic mirror, and an absorption filter is not used as in fluorescence observation. Therefore, in the bright field observation state, when the sample is colorless and transparent, the wavelength band of light forming the image of the sample (hereinafter referred to as “imaging light” as appropriate) and light illuminating the sample (hereinafter referred to as “ The wavelength band of “illumination light” corresponds to the time of focusing.
  • the phase film in the phase difference observation and the differential interference prism in the differential interference observation are not used. Therefore, as for light emitted from one point of the sample, in the bright field observation state, both the change of the wavefront of light in the illumination optical system and the change of the wavefront in the imaging optical system occur only with the lens. Further, in the bright field observation in the present embodiment, a light reduction filter that reduces a part of the light flux coming from the sample is not used. Therefore, in the state of bright field observation, there is no intensity change in the imaging light from the specimen to the image of the specimen (except for the intensity change due to the lens).
  • the sample observation method includes an acquisition step of acquiring an electronic image of a specimen, and a subtraction step of subtracting a DC component from a signal of the electronic image, the acquisition step being performed in a bright field observation state
  • the electronic image in the subtraction step is an image acquired in the second predetermined state, and the position of the sample and the imaging optical system with the light of the first wavelength band before the second predetermined state is attained.
  • the second predetermined state at least light of the second wavelength band forms an optical image of the sample, and the second wavelength band corresponds to one of the first wavelength bands. It is characterized in that it partially matches or is different from the first wavelength band.
  • the sample observation method of the ninth embodiment has an acquisition step S10 and a subtraction step S20. Thereby, in the sample observation method of the ninth embodiment, a clear electronic image can be obtained.
  • an acquisition step S10 is first executed.
  • acquisition step S10 acquisition of an electronic image of the sample (hereinafter, appropriately referred to as an "electronic image") is performed.
  • An image (optical image) of the sample is formed by an imaging optical system.
  • this image is captured by an imaging device such as a CCD or CMOS.
  • the image of the sample is converted into an electronic image (digital data).
  • the acquisition of the electronic image is also performed in the state of bright field observation.
  • a subtraction step S20 is performed.
  • the DC component bias component
  • the electronic image in the subtraction step S20 is an image acquired in the second predetermined state.
  • the electronic image in the subtraction step S20 is an image when the optical image of the sample is formed by the light of the second predetermined state, that is, the light of the second wavelength band.
  • the position of the sample and the in-focus position of the imaging optical system (hereinafter referred to as “in-focus position” as appropriate) are made to coincide with light in the first wavelength band. .
  • the second wavelength band coincides with a part of the first wavelength band or is different from the first wavelength band.
  • the wavelength band of light is different between before acquiring an electronic image and when acquiring an electronic image (instant).
  • the sample is a grating phase object, when the sample is illuminated, zero-order diffracted light and diffracted light emerge from the sample.
  • the wavelength bands of light are made different between before acquiring an electronic image and when acquiring an electronic image. Then, a difference in wavefront aberration (optical path length difference) occurs between light before acquiring an electronic image and light when acquiring an electronic image.
  • a difference in wavefront aberration optical path length difference
  • the specimens in FIGS. 22, 23, 25 and 26 are cells.
  • the graph also shows the amount of wavefront aberration at the pupil position.
  • the vertical axis of the graph represents the amount of wavefront aberration (unit: wavelength), and the horizontal axis represents the distance from the center of the pupil plane (on the pupil plane). Because the distance from the center of the pupil plane is standardized, it is unknown.
  • the numerical value 0 of the horizontal axis represents the center position of the pupil plane, and the numerical value 1 represents the outermost position of the pupil plane.
  • the light beam L is emitted from one point on the optical axis.
  • C And ray L P And are included.
  • Ray L C Is a ray traveling on the optical axis.
  • the ray L C The intersection of the pupil plane and the pupil plane coincides with the center position of the pupil plane.
  • the ray L P Is a light beam which enters the imaging optical system 31 at a predetermined angle with respect to the optical axis AX.
  • the ray L P The intersection of the pupil plane and the pupil plane is located at a predetermined distance from the center of the pupil plane.
  • the zeroth-order diffracted light is a ray L C It can be regarded as On the other hand, since the first-order diffracted light is diffracted in a predetermined direction, the first-order diffracted light emerging from this point is incident on the imaging optical system 31 at a predetermined angle with respect to the optical axis. The first-order diffracted light entering the imaging optical system 31 reaches a position away from the center of the pupil plane.
  • the first-order diffracted light P It can be regarded as First, the case where the central wavelength ⁇ 1 of the first wavelength band is 550 nm and the central wavelength ⁇ 2 of the second wavelength band is 450 nm will be described.
  • the in-focus position P of the first wavelength band 550 Is the position P of the sample S S It matches with.
  • the amount of wavefront aberration is substantially zero at any position on the pupil plane. This indicates that both the amount of wavefront aberration in zero-order diffracted light and the amount of wavefront aberration in first-order diffracted light are substantially zero.
  • the in-focus position of the second wavelength band is shifted from the position of the sample.
  • the in-focus position P of the second wavelength band 450 Is the position P of the sample S S (Focusing position P 550 ) (In a direction away from the imaging optical system 31).
  • the amount of wavefront aberration is 0 at the center of the pupil surface, but wavefront aberration occurs at a position away from the center of the pupil surface.
  • the wavefront aberration is a deviation of the actual wavefront with respect to the reference wavefront, and this deviation is a phase deviation.
  • the phase of the first-order diffracted light becomes the phase originally possessed by the amount of the wavefront aberration.
  • the phase of the first-order diffracted light can be changed by making the wavelength bands of light different from each other before acquiring the electronic image and when acquiring the electronic image.
  • the position P is a position P where the distance from the center of the pupil is 0.4. W And let P be W
  • the amount of wavefront aberration at is - ⁇ / 4.
  • the amount of wavefront aberration in first-order diffracted light can be set to ⁇ / 4 while keeping the amount of wavefront aberration in zero-order diffracted light to zero.
  • the phase amount since the value obtained by multiplying the wavefront aberration amount by (2 ⁇ / ⁇ ) is the phase amount, the phase does not change for the zeroth-order diffracted light when out of focus, but the phase for the first-order diffracted light Changes occur. Specifically, in the first-order diffracted light, the phase is further delayed by ⁇ / 2 in addition to the original phase delay of ⁇ / 2.
  • phase information is obtained as contrast information.
  • the electronic image becomes an image having a clear contrast. Therefore, if this electronic image is displayed on a display device, for example, the observer can clearly observe the sample S (image of the sample S).
  • the in-focus position P of the first wavelength band 550 Is the position P of the sample S S It matches with. This is the same as FIG. 21 (a). Therefore, as shown in FIG. 25, the electronic image is an image without contrast.
  • the in-focus position P of the second wavelength band is 650 Is the position P of the sample S S (Focusing position P 550 ) (In a direction away from the imaging optical system 31). In this state, as shown in the graph of FIG.
  • the amount of wavefront aberration is 0 at the center of the pupil surface, but wavefront aberration occurs at a position away from the center of the pupil surface.
  • the in-focus position P 650 Is the in-focus position P 450 It is different from
  • the amount of wavefront aberration at the position of the first-order diffracted light on the pupil plane is different between FIG. 24 (b) and FIG. 21 (b).
  • the wavefront aberration amount is approximately ⁇ 1 ⁇ / 10.
  • the amount of wavefront aberration in zero-order diffracted light remains zero, and the wavefront aberration in first-order diffracted light
  • the amount can be ⁇ / 10.
  • the electronic image is an image having a clear contrast. Therefore, the observer can observe the sample S (image of the sample S) clearly.
  • the amount of wavefront aberration in the first-order diffracted light is ⁇ / 4.
  • the phase of the zeroth-order diffracted light and the phase of the first-order diffracted light are in an inverse phase relationship.
  • the zeroth-order diffracted light and the first-order diffracted light weaken each other. Therefore, in the electronic image, the sample S becomes darker than the background. This corresponds to dark contrast in phase contrast observation.
  • the amount of wavefront aberration in the first-order diffracted light is ⁇ / 4
  • the phase of the zero-order diffracted light and the phase of the first-order diffracted light have the same phase relationship.
  • the zeroth-order diffracted light and the first-order diffracted light are intensified.
  • the sample S is brighter than the background.
  • the diffraction angle of the diffracted light differs depending on the spatial frequency that the sample S has.
  • the fact that the lattice spacing is wide means that the spatial frequency possessed by the sample S is low.
  • narrow lattice spacing means that the spatial frequency of the sample S is high.
  • the diffraction angle is smaller as the lattice spacing is wider, and the diffraction angle is larger as the lattice spacing is narrower. Therefore, when the sample S has a low spatial frequency, the diffraction angle is small, and when the sample S has a high spatial frequency, the diffraction angle becomes large.
  • Cells contain structures with different spatial frequencies. Therefore, when the sample S is a cell, the appearance of the image of the sample changes depending on the spatial frequency at which the position where the wavefront aberration amount is ⁇ / 4 matches the position of the first-order diffracted light.
  • the second wavelength band is set so that the amount of wavefront aberration becomes ⁇ / 4 at the position of the first-order diffracted light at a high spatial frequency, a high spatial frequency portion becomes clear in the electronic image.
  • the second wavelength band is set so that the amount of wavefront aberration is ⁇ / 4 at the position of the first-order diffracted light at a low spatial frequency, a low spatial frequency portion becomes clear in the electronic image. For example, as shown in FIG.
  • the position P is a position where the distance from the center of the pupil is 0.64.
  • W ', Position P W The wavefront aberration amount at 'is - ⁇ / 4. Therefore, the first order diffracted light is at position P W If the sample S has a spatial frequency that passes', it is possible to clearly observe the portion corresponding to the spatial frequency. Further, the in-focus position of the second wavelength band may be shifted upward from the position of the sample S (the in-focus position of the first wavelength band).
  • the central wavelength ⁇ 1 of the first wavelength band may be 650 nm
  • the central wavelength ⁇ 2 of the second wavelength band may be 550 nm.
  • the difference in central wavelength is not so large between the first wavelength band and the second wavelength band.
  • the wavelength bands of light are made different between before acquiring an electronic image and when acquiring an electronic image, the incident position of the first-order diffracted light with respect to the imaging optical system 31 hardly changes. Therefore, the position of the first-order diffracted light on the pupil plane can also be regarded as hardly changing. Therefore, only by changing the wavelength band, the amount of wavefront aberration added to the first-order diffracted light can be changed.
  • the wavelength bands of light are different before acquiring the electronic image and when acquiring the electronic image. Therefore, 2A 1 A 2 It becomes cos ⁇ ⁇ 0.
  • the sample observation method of the ninth embodiment it is possible to clearly observe a colorless and transparent sample while in the state of bright field observation.
  • the sample observation method of the tenth embodiment has an amplification step after the subtraction step, and the amplification step amplifies the signal of the electronic image after the subtraction step.
  • the sample observation method according to the tenth embodiment will be described with reference to FIG.
  • FIG. 12A is a flowchart of the sample observation method of the tenth embodiment.
  • the sample observation method according to the tenth embodiment has an amplification step S30-2 in addition to the acquisition step S10 and the subtraction step S20, as shown in FIG. 12 (a). Thereby, a clearer electronic image can be obtained by the sample observation method of the tenth embodiment.
  • a 1 2 + A 2 2 Represents the direct current component of the image of the sample, that is, the direct current component of the signal of the electronic image.
  • a 1 2 2A by reducing the value of 1 A 2
  • the value of cos A A 1 2 + A 2 2 It is relatively large with respect to the value of.
  • the amplification step S30-2 is executed after the end of the acquisition step S10 and the subtraction step S20.
  • 2A 1 A 2 The value of cos ⁇ ⁇ ⁇ is increased (amplified).
  • the amplification step S30-2 may be used in the sample observation method of the ninth embodiment. In this case, the amplification step S30-2 is performed before the comparison step S30-1. As described above, according to the sample observation method of the tenth embodiment, it is possible to observe a colorless and transparent sample more clearly while in the state of bright field observation.
  • the sample observation method according to the eleventh embodiment includes a transformation step of Fourier transforming a signal of an electronic image, and an inverse transformation step of performing an inverse Fourier transformation, the transformation step being performed before the subtraction step, and inverse The conversion step is performed at least after the subtraction step.
  • the sample observation method of the eleventh embodiment will be described with reference to FIGS. 12 (b) and 13.
  • FIG. 12B is a flowchart of the sample observation method of the eleventh embodiment.
  • FIG. 13 is a diagram showing the magnitude at each spatial frequency, where (a) is a state before execution of the subtraction step, and (b) is a view showing a state after execution of the subtraction step.
  • the sample observation method according to the eleventh embodiment has a conversion step S15-1 and an inverse conversion step S30-3 in addition to the acquisition step S10 and the subtraction step S20, as shown in FIG. 12 (b).
  • a clearer electronic image can be easily obtained.
  • a 1 2 By reducing the value of 1 2 + A 2 2 2A for the value of 1 A 2
  • the value of cos ⁇ is relatively large.
  • the subtraction step S20 is performed in the frequency space, subtraction can be performed efficiently.
  • the subtraction in the subtraction step S20 will be described with reference to FIG.
  • specimens such as cells contain structures with different spatial frequencies.
  • the conversion step S15-1 is executed after the end of the acquisition step S10.
  • the signal of the electronic image is subjected to Fourier transform.
  • the magnitude (corresponding to the vertical axis, the brightness) is separated for each spatial frequency.
  • the numerical value on the horizontal axis indicates the spatial frequency, and the magnitude is 100 when the spatial frequency is 0, and the magnitude is 30 when the spatial frequency is 1.
  • the value of the spatial frequency (numerical value on the horizontal axis) corresponds to the order of the diffracted light.
  • the magnitude corresponds to the brightness of the zeroth-order diffracted light.
  • the magnitude corresponds to the brightness of the first order diffracted light. Therefore, after the conversion step S15-1, the subtraction step S20 is performed. In this subtraction step S20, the magnitude at the spatial frequency 0 is reduced. For example, as shown in FIG. 13B, the magnitude at the spatial frequency 0 is reduced by half from 100 to 50. This is A 1 2 Is equivalent to reducing the value of. By doing this, the brightness of the zero-order light can be reduced.
  • inverse transformation step S30-3 is performed. In inverse transformation step S30-3, inverse Fourier transformation is performed.
  • the conversion step S15-1 and the inverse conversion step S30-3 may be used in the sample observation method of the tenth embodiment. In this case, the conversion step S15-1 is performed before the subtraction step S20. Also, the inverse conversion step S30-3 is executed after the subtraction step S20.
  • the sample observation method of the eleventh embodiment it is possible to observe a colorless and transparent sample more clearly while being in the bright field observation state.
  • the sample observation method of the twelfth embodiment has a pre-acquisition step and a normalization step, and in the pre-acquisition step, an electronic image is acquired without a sample, and in the standardization step, the specimen is The electronic image is normalized and the normalization step is performed before the subtraction step.
  • the sample observation method of the twelfth embodiment will be described with reference to FIG.
  • FIG. 14 is a flowchart of the sample observation method of the twelfth embodiment.
  • the amplification step S30-2 is provided after the subtraction step S20, the amplification step S30-2 is not essential.
  • the brightness of the image of the sample S may be influenced by the illumination optical system or by the imaging optical system. For example, when light passes through the illumination optical system or the imaging optical system, unevenness occurs in the brightness of the light after passing. In this case, the brightness of the image of the sample S is also uneven due to the unevenness of brightness due to the illumination optical system and the imaging optical system.
  • the pre-acquisition step S00 prior to the execution of the acquisition step S10, the pre-acquisition step S00 is performed.
  • the electronic image A is acquired without the sample S.
  • the electronic image A is an image with only brightness unevenness.
  • an acquisition step S10 is performed to acquire the electronic image B of the sample S.
  • the electronic image B is an image in which unevenness of brightness due to the illumination optical system or the imaging optical system is added to the image of the sample S. Therefore, the standardization step S15-2 is performed. In the standardization step S15-2, the electronic image B is standardized with the electronic image A.
  • the following operation Electronic image B / Electronic image A Is performed in the standardization step S15-2.
  • the unevenness of the brightness in the electronic image B is canceled by the unevenness of the brightness in the electronic image A. Therefore, the electronic image after standardization is an image in which unevenness in brightness due to the illumination optical system or the imaging optical system is reduced.
  • a subtraction step S20 is performed.
  • the normalized electronic image A is 1 2 To reduce the value of 1 2 + A 2 2 2A for the value of 1 A 2 Make the value of cos ⁇ ⁇ ⁇ ⁇ relatively large. As a result, the sample S (image of the sample S) can be observed more clearly.
  • the pre-acquisition step S00 and the normalization step S15-2 may be used for the sample observation method of the tenth embodiment or the sample observation method of the eleventh embodiment.
  • the pre-acquisition step S00 is performed before the acquisition step S10.
  • the normalization step S15-2 is performed before the subtraction step S20.
  • the second wavelength band is changed a plurality of times with respect to the first wavelength band, and the acquisition step and the subtraction step are performed in the changed second wavelength band.
  • a plurality of electronic images after the subtraction step is performed, and the generated plurality of electronic images are added.
  • the sample observation method of the thirteenth embodiment when generating an electronic image, an image with high contrast in each frequency space from low frequency space to high spatial frequency is used. Thus, in the generated electronic image, the contrast is high at any spatial frequency. As a result, the sample S (the image of the sample S) can be clearly observed.
  • the sample observation method of the thirteenth embodiment it is possible to clearly observe a colorless and transparent sample while being in the state of bright field observation.
  • a portion with the highest contrast in the electronic image is extracted, and addition is performed using the extracted portion.
  • the sample observation method of the fourteenth embodiment when generating an electronic image by addition, only a portion where the contrast is the highest in each frequency space is used. Thus, in the generated electronic image, the contrast is very high at any spatial frequency. As a result, the sample S (image of the sample S) can be observed more clearly. As described above, according to the specimen observation method of the fourteenth embodiment, it is possible to observe a colorless and transparent specimen more clearly while being in the bright field observation state. In the sample observation method of the fifteenth embodiment, the change of the second wavelength band is performed in a state in which the sign of the amount of wavefront aberration in the second predetermined state is the same.
  • the electronic image becomes a dark contrast image. That is, in the electronic image, the sample S becomes darker than the background.
  • the wavefront aberration amount in the first-order diffracted light becomes + ⁇ / 4
  • the electronic image becomes a bright contrast image. That is, in the electronic image, the sample S is brighter than the background. Therefore, when generating an electronic image by addition, it is preferable to use an image in a state in which the sign of the amount of wavefront aberration is the same. In this way, the generated electronic image can be an image based only on dark contrast or an image based only on bright contrast.
  • the sample S (image of the sample S) can be observed more clearly.
  • a clear and colorless sample can be observed more clearly while in the bright field observation state.
  • the sample observation device of the present embodiment will be described.
  • the sample observation apparatus includes a light source, an illumination optical system, an imaging optical system, an imaging device, and an image processing apparatus, and the illumination optical system includes the light source
  • the illumination optical system is disposed to irradiate the sample with the illumination light
  • the imaging optical system is disposed to receive the light from the sample, and forms an optical image of the sample
  • the imaging device is disposed at the position of the optical image
  • the image processing apparatus performs the sample observation method according to the ninth to fifteenth embodiments described above.
  • the configuration of the sample observation device of the fourth embodiment is shown in FIG.
  • the sample observation device 2 is an observation system using an upright microscope.
  • the same members as those of the sample observation device 1 are assigned the same reference numerals and descriptions thereof will be omitted.
  • the illumination unit 20 has a light source 21 and an illumination optical system 22.
  • the illumination optical system 22 includes a condenser lens 23, an aperture stop 24, and an optical filter FL.
  • the illumination optical system 22 may include a lens 25, a mirror 26 and a lens 27.
  • the condenser lens 23 and the aperture stop 24 are held by the stage 11.
  • the illumination optical system 22 is disposed in the light path between the light source 21 and the stage 11.
  • the observer causes the illumination optical system 22 and the imaging optical system 31 to be in the state of bright field observation. Subsequently, the observer places the sample S on the stage 11. Then, the observer moves the sample by visual observation to a position considered to be deviated from the in-focus position. As a result, in the state of bright field observation, the position of the sample S is different from the in-focus position. Subsequently, the image processing apparatus 40 is operated. Note that these tasks may be performed in random order. The operation of the image processing apparatus 40 enables an image of the sample S to be captured, so the acquisition step S10 is performed. The acquisition step S10 is performed to acquire an electronic image.
  • the electronic image acquired in the acquisition step S10 is stored in a temporary storage unit (not shown) in the image processing apparatus 40.
  • subtraction step S20 is performed.
  • a 1 2 2A by reducing the value of 1 A 2
  • the value of cos ⁇ is A 1 2 + A 2 2 Relative to the value of
  • the execution result of the subtraction step S20 is displayed on the display device 50, for example.
  • the setting of the position of the sample S is performed by visual observation. In this case, since there is a high possibility that the position of the sample S and the in-focus position are largely different, the image of the sample S is largely blurred.
  • the observer can not view the electronic image on the display device 50. Then, the observer operates the focusing knob to move the sample S toward the in-focus position.
  • the observer may move the stage 11 in the direction in which the sample S approaches the microscope objective lens 35.
  • the observer may move the stage 11 in the direction in which the sample S is separated from the microscope objective lens 35. While moving the sample S, imaging is always performed. Therefore, the acquisition step S10 and the subtraction step S20 are always performed.
  • the observer moves the sample S along the optical axis while observing the electronic image on the display device 50, and causes the position of the sample S to coincide with the in-focus position.
  • the sample S is illuminated with white light (light of the first wavelength band).
  • the focusing position at this time can be regarded as a position when focusing is performed with green light (light having a wavelength of 500 nm to 560 nm).
  • the optical filter FL is inserted into the light path of the illumination optical system 22.
  • the wavelength band (transmittance characteristic) of the optical filter FL is set to a central wavelength of 450 nm and a wavelength width of ⁇ 20 nm.
  • the wavelength band of the optical filter FL coincides with part of the wavelength band of white light.
  • the optical filter FL is inserted into the light path, the light of the second wavelength band forms an optical image of the sample. Therefore, the electronic image is acquired with the light of the second wavelength band.
  • the wavelength bands of light are different between before acquiring an electronic image and when acquiring an electronic image (instant).
  • the sample S (the image of the sample S) can be clearly observed.
  • the configuration of the sample observation device of the fifth embodiment is shown in FIG.
  • the sample observation device 2 ′ is an observation system using an inverted microscope.
  • the imaging optical system 31 includes optical filters FL and FL ′.
  • the optical filter FL is disposed in the light path of the imaging optical system 31.
  • the optical filter FL ′ is disposed outside the optical path of the imaging optical system 31.
  • the optical filter FL and the optical filter FL ' are interchangeable.
  • the observer places the sample S on the stage 11.
  • the optical filter LF is inserted into the light path of the imaging optical system 31.
  • the wavelength band (transmittance characteristic) of the optical filter FL is set to a central wavelength of 550 nm and a wavelength width of ⁇ 20 nm.
  • the image processing apparatus 40 is operated. Note that these tasks may be performed in random order.
  • the observer inputs information on the start of observation into the image processing apparatus 40.
  • information on the in-focus position is stored in the image processing apparatus 40 in advance.
  • the image processing device 40 calculates the amount of movement based on the information of the current position of the revolver 33 (microscope objective lens 35) and the in-focus position.
  • the image processing apparatus 40 transmits a drive signal to the motor 12 based on the calculated result. Based on the transmitted signal, the motor 12 moves the revolver 33 so that the position of the sample S coincides with the in-focus position.
  • the focusing position at this time can be regarded as a position when focusing is performed with light having a wavelength band of 550 nm ⁇ 20 nm (light of the first wavelength band).
  • the optical filter FL is taken out of the optical path of the imaging optical system 31, and an optical filter FL 'is inserted instead.
  • the wavelength band (transmittance characteristic) of the optical filter FL ′ is set to a central wavelength of 650 nm and a wavelength width of ⁇ 20 nm.
  • the wavelength band of the optical filter FL ' is different from the wavelength band of the optical filter FL.
  • the optical filter FL ' is inserted into the light path, the light of the second wavelength band forms an optical image of the sample. Therefore, the electronic image is acquired with the light of the second wavelength band.
  • the wavelength bands of light are different between before acquiring an electronic image and when acquiring an electronic image (instant).
  • the sample S (the image of the sample S) can be clearly observed.
  • a variable wavelength interference filter may be used as the optical filter FL.
  • the variable wavelength interference filter is an optical filter whose wavelength band (transmittance characteristic) can be changed. If a wavelength variable interference filter is used, the exchange of the optical filter FL and the optical filter FL 'becomes unnecessary.
  • the sample is illuminated with white light (light of the first wavelength band) so that the position of the sample S matches the in-focus position.
  • the optical filter FL is inserted into the light path of the imaging optical system 31.
  • the light of the second wavelength band forms an optical image of the sample.
  • the wavelength band of the optical filter FL is different from the wavelength band of the optical filter FL 'for white light. Therefore, the wavelength band of light is different between before acquiring an electronic image and when acquiring an electronic image (instant).
  • the sample S (the image of the sample S) can be clearly observed. Also, it may be as follows.
  • the optical filter FL is inserted into the optical path of the illumination optical system 22 so that the position of the sample S and the in-focus position coincide with each other. Then, the optical filter FL is taken out from the optical path of the illumination optical system 22, and instead, the optical filter FL 'is inserted in the optical path of the imaging optical system 31.
  • the optical filter FL 'is inserted into the light path the light of the second wavelength band forms an optical image of the sample.
  • the wavelength band of the optical filter FL is different from the wavelength band of the optical filter FL '. Therefore, the wavelength band of light is different between before acquiring an electronic image and when acquiring an electronic image (instant). As a result, the sample S (the image of the sample S) can be clearly observed.
  • FIG. 29 (a) is a view showing a schematic configuration of an observation apparatus
  • FIG. 29 (b) is a view showing a configuration of an optical system.
  • the same members as those of the sample observation device 300 are assigned the same reference numerals and descriptions thereof will be omitted.
  • the illumination unit has a light source and an illumination optical system. Light from the light source is emitted from the optical fiber 401.
  • the illumination optical system includes a lens 402, a mirror 403, a lens 404, a half prism 405, and an objective lens 406.
  • the observation unit has an imaging optical system and an imaging device.
  • the imaging optical system includes an objective lens 406, a half prism 405, an imaging lens 407, and an optical filter 409.
  • the imaging device has an imaging element 408.
  • the sample S is illuminated by epi-illumination.
  • a procedure for performing the sample observation method of the embodiment using the sample observation device 301 will be described.
  • the sample observation method of the eleventh embodiment will be described as an example.
  • a white light source is used as a light source.
  • the observer causes the illumination optical system and the imaging optical system to be in the state of bright field observation.
  • the observer moves the insertion unit 141 by visual observation to a position considered to be the in-focus position.
  • the image processing apparatus 200 is operated. Note that these tasks may be performed in random order.
  • the operation of the image processing apparatus 200 enables an image of the sample S to be captured, and thus the acquisition step S10 is performed.
  • the acquisition step S10 is performed to acquire an electronic image.
  • the electronic image acquired in the acquisition step S10 is stored in a temporary storage unit (not shown) in the image processing apparatus 200.
  • subtraction step S20 is performed.
  • the value of cos ⁇ is A 1 2 + A 2 2 Relative to the value of
  • an amplification step S30-2 is performed.
  • 2A 1 A 2 Increase (amplify) the value of cos ⁇ .
  • the value of cos ⁇ ⁇ becomes relatively larger.
  • the execution result of the amplification step S30-2 is displayed on, for example, the display device 204. While moving the insertion unit 141, imaging is always performed. Therefore, acquisition step S10, subtraction step S20 and amplification step S30-2 are also always performed.
  • the observer moves the insertion unit 141 while observing the electronic image on the display device 204, and causes the position of the sample S to coincide with the in-focus position.
  • the sample S is illuminated with white light (light of the first wavelength band).
  • the focusing position at this time can be regarded as a position when focusing is performed with green light (light having a wavelength of 500 nm to 560 nm).
  • the optical filter FL is inserted into the light path of the illumination optical system 22.
  • the wavelength band (transmittance characteristic) of the optical filter FL is set to a central wavelength of 650 nm and a wavelength width of ⁇ 20 nm.
  • the wavelength band of the optical filter FL coincides with part of the wavelength band of white light.
  • the optical filter FL is inserted into the light path, the light of the second wavelength band forms an optical image of the sample. Therefore, the electronic image is acquired with the light of the second wavelength band.
  • the wavelength bands of light are different between before acquiring an electronic image and when acquiring an electronic image (instant).
  • the sample S (the image of the sample S) can be clearly observed.
  • at least one of the objective lens 406, the imaging lens 407, and the imaging device 408 may be moved along the optical axis. For these movements, for example, a microactuator (not shown) or a voice coil motor (not shown) may be used.
  • the movement of the insertion unit 141 may be performed to the place where an electronic image having a certain degree of contrast can be acquired.
  • a clear and colorless sample can be observed more clearly while in the bright field observation state.
  • the following conditional expression (5) be satisfied. 10 ⁇ m ⁇ d / NA ob 2 ⁇ 1000 ⁇ m (5) here, D is the amount of axial chromatic aberration in the second wavelength band relative to the first wavelength band, NA ob Is the numerical aperture of the sample side of the imaging optical system, It is.
  • the conditional expression (5) By satisfying the conditional expression (5), it is possible to observe a clear and colorless sample more clearly while in the bright field observation state.
  • the difference between the amount of wavefront aberration in the first wavelength band and the amount of wavefront aberration in the second wavelength band becomes too small. In this case, the amount of wavefront aberration added to the diffracted light decreases. In particular, the amount of wavefront aberration added to the first-order diffracted light is smaller than ⁇ / 4. Therefore, it is difficult to obtain an electronic image with good contrast. If the upper limit value of the conditional expression (5) is exceeded, the difference between the amount of wavefront aberration in the first wavelength band and the amount of wavefront aberration in the second wavelength band becomes too large.
  • the imaging optical system has the objective lens, and the axial chromatic aberration in the objective lens changes monotonously with the wavelength change. preferable. By doing this, an electronic image with good contrast can be obtained.
  • the imaging device has an imaging element, and in the imaging element, minute optical filters having different wavelength bands are arranged for each pixel. Is preferred. By doing this, an electronic image with good contrast can be easily obtained.
  • An optical filter is disposed in the imaging element.
  • the optical filter includes a plurality of minute optical filters. Examples of minute optical filters include red filters, green filters, and blue filters. A plurality of color filters are arranged.
  • the imaging device may be a monochrome imaging device.
  • the present invention can be modified in various ways without departing from the scope of the invention.
  • the present invention is suitable for a sample observation method and sample observation apparatus capable of observing a colorless and transparent sample, for example, cells while being in a bright field observation state.
  • AX Optical axis FL, FL 'Optical filter HM Half mirror L ill illumination light L C ray (0th order diffraction light) L P ray (1st order diffracted light) L 0 0-order diffracted light L -1 -1 order diffracted light L +1 +1 order diffracted beam M mirror OB 1, OB 2 objective lens P S sampling focus position S sample position P F imaging optical system of the S X1, X2, X3, X4 section 1, 1 ', 2, 2' sample observation device 10 main body 11 stage 12 motor 20, 20 'illumination unit 21, 21' light source 22, 22 'illumination optical system 23 condenser lens 24 aperture stop 25, 25' lens Reference Signs List 26 mirror 27 27 ′ lens 30 observation unit 31 imaging optical system 32 imaging device 33 revolver 34 observation lens barrel 35 microscope objective lens 36 imaging lens 37 imaging lens 38 prism 39 imaging device 40 image processing device 50 display device 100 electron Endoscope 100a Scope part 100b Connection cord part 140 Operation part 141 Insertion part 142 Tip part

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

標本観察方法であって、標本の電子画像を取得する取得ステップと、電子画像の信号から直流成分を減算する減算ステップと、を有し、取得ステップは明視野観察の状態で行われ、減算ステップにおける電子画像は、第1の所定の状態で取得された画像であって、該第1の所定の状態では、少なくとも、標本の位置と結像光学系の合焦位置とが異なっている。また、標本観察装置1であって、光源21と、照明光学系と22、結像光学系31と、撮像装置32と、画像処理装置40と、を有し、照明光学系22は、光源21からの照明光を標本Sに照射するように配置され、結像光学系31は、標本Sからの光が入射するように配置されると共に、標本Sの光学像を形成し、撮像装置32は光学像の位置に配置され、画像処理装置40は、上述の標本観察方法を行う。

Description

標本観察方法及び標本観察装置
 本発明は、標本観察方法及び標本観察装置に関するものである。
 標本を平行光束で照明すると、標本からは、非回折光(以下、0次回折光という)と回折光が生じる。顕微鏡では、標本の像は、0次回折光と回折光の合成によって形成される。
 像面における複素振幅Eは、例えば、以下の式で表される。
 E=A−iφ1(r)iωt+A−iφ2(r)iωt
 ここで、
 Aは0次回折光の振幅、
 Aは回折光の振幅、
 φ1(r)は0次回折光の位相、
 φ2(r)は回折光の位相、
である。
 像面では光の強度が観測されるため、像面における光の強度Iは以下の式で表される。
 I=|E|=A +A +2Acosψ
 ここで、
 ψは位相差であって、ψ=φ1(r)−φ2(r)、
である。
 上述のように、標本の像(光学像)の形成には、0次回折光と回折光が必要である。そこで、以下の説明では、0次回折光と1次回折光とによって、標本の像(光学像)が形成されるものとする。1次回折光の位相は0次回折光の位相に対してπ/2遅れているので、ψ=0−(−π/2)=π/2となる。この場合、2Acosψ=0となるので、位相情報をコントラスト情報として得られない。その結果、合焦位置で、無色透明な標本、例えば、細胞を観察しようとしても、明視野観察では細胞の像はほとんど観察できない。
 無色透明な標本を観察する方法として、位相差観察がある。位相差観察では、位相差顕微鏡が用いられる。この位相差顕微鏡については、様々な提案がされている。その1つに、広い観察範囲で像(位相差像)を観察するために、結像光学系の合焦位置からずらした位置で標本を観察する顕微鏡がある(特許文献1)。特許文献1に開示された顕微鏡は、部分開口と波面導入手段を備えている。部分開口は照明光学系の略瞳位置に配置され、波面導入手段は結像光学系の瞳位置に配置されている。そして、波面導入手段は、結像光学系の瞳の径に応じて大きさが変化する波面を導入するようになっている。
 標本の位置を結像光学系の合焦位置からずらすと、0次回折光と回折光との間に光路長差(位相差)が発生する。この場合、2Acosψ≠0になるので、位相情報をコントラスト情報として得られる。ただし、A の値は、2Acosψの値に比べると非常に大きい。そこで、特許文献1の顕微鏡では、結像光学系の瞳位置に波面導入手段、すなわち吸収膜を配置してAの値を小さくしている。
特開2005−173288号公報
 特許文献1の顕微鏡では、結像光学系に波面導入手段が配置されている。よって、明視野観察の状態になっているとは言えない。例えば、標本を、無色透明な標本から明暗のある標本に入れ替える。この状態で明視野観察を行うと、標本の像は波面導入手段の影響を受けてしまう。例えば、波面導入手段が吸収膜だと、標本の像が暗くなる。そのため、明暗のある標本を明視野で観察するためには、波面導入手段を光路から取り出す必要がある。特に、波面導入手段が顕微鏡対物レンズ内に設けられている場合は、顕微鏡対物レンズを交換する必要がある。
 本発明は、上記に鑑みてなされたものであって、明視野観察の状態でありながら、無色透明な標本、例えば、細胞を観察できる標本観察方法及び標本観察装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の標本観察方法は、標本の電子画像を取得する取得ステップと、電子画像の信号から直流成分を減算する減算ステップと、を有し、取得ステップは明視野観察の状態で行われ、減算ステップにおける電子画像は、第1の所定の状態で取得された画像であって、該第1の所定の状態では、少なくとも、標本の位置と結像光学系の合焦位置とが異なっていることを特徴とする。
 また、本発明の別の標本観察方法は、標本の電子画像を取得する取得ステップと、電子画像の信号から直流成分を減算する減算ステップと、を有し、取得ステップは明視野観察の状態で行われ、減算ステップにおける電子画像は、第2の所定の状態で取得された画像であって、第2の所定の状態になる前に、第1の波長帯域の光で標本の位置と結像光学系の合焦位置を一致させ、該第2の所定の状態では、少なくとも、第2の波長帯域の光で標本の光学像が形成されており、第2の波長帯域は第1の波長帯域のうちの一部と一致しているか、又は第1の波長帯域とは異なることを特徴とする。
 また、本発明の標本観察装置は、光源と、照明光学系と、結像光学系と、撮像装置と、画像処理装置と、を有し、照明光学系は、光源からの照明光を標本に照射するように配置され、結像光学系は、標本からの光が入射するように配置されると共に、標本の光学像を形成し、撮像装置は光学像の位置に配置され、画像処理装置は、上述の標本観察方法を行うことを特徴とする。
 本発明によれば、明視野観察の状態でありながら、無色透明な標本、例えば、細胞を観察できる標本観察方法及び標本観察装置を提供できる。
 図1は第1実施形態及び第9実施形態の標本観察方法のフローチャートである。
 図2は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=10μm)のときの図である。
 図3は合焦状態のときの標本の電子画像である。
 図4は非合焦状態(ずれ量ΔZ=10μm)のときの標本の電子画像である。
 図5は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=20μm)のときの図である。
 図6は合焦状態のときの標本の電子画像である。
 図7は非合焦状態(ずれ量ΔZ=20μm)のときの標本の電子画像である。
 図8は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=10μm)のときの図である。
 図9は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=20μm)のときの図である。
 図10は第2実施形態の標本観察方法に関する図であって、(a)は標本観察方法の簡単なフローチャート、(b)は標本と結像光学系の間隔と、コントラストの関係を示すグラフである。
 図11は第2実施形態の標本観察方法の詳細なフローチャートである。
 図12は実施形態の標本観察方法のフローチャートであって、(a)は第3実施形態及び第10実施形態の標本観察方法のフローチャート、(b)は第4実施形態及び第11実施形態の標本観察方法のフローチャートである。
 図13は各空間周波数における大きさを示す図であって、(a)は減算ステップ実行前の状態、(b)は減算ステップ実行後の状態を示す図である。
 図14は第5実施形態及び第12実施形態の標本観察方法のフローチャートである。
 図15は第1実施形態の標本観察装置の構成を示す図である。
 図16は第2実施形態の標本観察装置の構成を示す図である。
 図17は第3実施形態の標本観察装置の構成を示す図であって、(a)は、標本観察装置の概略構成を示す図、(b)は光学系の構成を示す図である。
 図18は照明光の入射方向と回折光の回折方向の関係、及び波面収差量を示す図であって、(a)は、照明光の入射方向が光軸と平行である場合、(b)は照明光の入射方向と光軸とのなす角度が小さい場合、(c)は照明光の入射方向と光軸との角度が大きい場合を示す図である。
 図19は照明光学系がテレセントリック光学系である様子を示す図である。
 図20は開口数がそれぞれ異なる2つの対物レンズにおける波面収差の様子を示す図である。
 図21は第1の波長帯域(中心波長λ1=550nm)と、第2の波長帯域(中心波長λ2=450nm)と合焦位置の関係、及び波面収差量を示す図であって、(a)は第1の波長帯域の光で標本の位置と合焦位置を一致させたときの図、(b)は第2の波長帯域の光で標本の光学像が形成されているときの図である。
 図22は第1の波長帯域(中心波長λ1=550nm)での標本の電子画像である。
 図23は第2の波長帯域(中心波長λ2=450nm)での標本の電子画像である。
 図24は第1の波長帯域(中心波長λ1=550nm)と、第2の波長帯域(中心波長λ2=650nm)と合焦位置の関係、及び波面収差量を示す図であって、(a)は第1の波長帯域の光で標本の位置と合焦位置を一致させたときの図、(b)は第2の波長帯域の光で標本の光学像が形成されているときの図である。
 図25は第1の波長帯域(中心波長λ1=550nm)での標本の電子画像である。
 図26は第2の波長帯域(中心波長λ2=650nm)での標本の電子画像である。
 図27は第4実施形態の標本観察装置の構成を示す図である。
 図28は第5実施形態の標本観察装置の構成を示す図である。
 図29は第6実施形態の標本観察装置の構成を示す図であるって、(a)は、標本観察装置の概略構成を示す図、(b)は光学系の構成を示す図である。
 本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 実施形態の標本観察方法及び標本観察装置について説明する。以下の第1実施形態から第8実施形態までの標本観察方法及び第1実施形態から第3実施形態までの標本観察装置は、明視野観察の状態で用いられるものである。これらの実施形態における明視野観察では、蛍光観察のように、励起フィルタ、ダイクロイックミラー、吸収フィルタからなる蛍光ミラーユニットは用いられない。よって、明視野観察の状態では、標本が無色透明の場合、標本の像を形成する光(以下、適宜、「結像光」という)の波長帯域は、標本を照明する光(以下、適宜、「照明光」という)の波長帯域のうちの一部と一致しているか、又は結像光の波長帯域と照明光の波長帯域とは一致している。
 また、本実施形態における明視野観察では、位相差観察における位相膜や、微分干渉観察における微分干渉プリズムは用いられない。よって、標本の一点から出た光についてみると、明視野観察の状態では、照明光学系における光の波面の変化と結像光学系における波面の変化はいずれもレンズのみで生じる。
 また、本実施形態における明視野観察では、標本から来る光束の一部を減光するような減光フィルタは用いられない。よって、明視野観察の状態では、標本から標本の像までの間で、結像光に強度変化は生じない(ただし、レンズに起因する強度変化は除く)。
 第1実施形態の標本観察方法は、標本の電子画像を取得する取得ステップと、電子画像の信号から直流成分を減算する減算ステップと、を有し、取得ステップは明視野観察の状態で行われ、減算ステップにおける電子画像は、第1の所定の状態で取得された画像であって、第1の所定の状態では、少なくとも、標本の位置と結像光学系の合焦位置とが異なっていること
を特徴とする。
 第1実施形態の標本観察方法について、図1を用いて説明する。図1は、第1実施形態の標本観察方法及び後述の第9実施形態の標本観察方法のフローチャートである。
 第1実施形態の標本観察方法は、取得ステップS10と、減算ステップS20とを有する。これにより、第1実施形態の標本観察方法では、明瞭な電子画像が得られる。
 第1実施形態の標本観察方法では、まず、取得ステップS10が実行される。取得ステップS10では、標本の電子画像(以下、適宜、「電子画像」という)の取得が行われる。標本の像(光学像)は、結像光学系によって形成される。電子画像の取得では、この像をCCDやCMOSのような撮像素子で撮像する。撮像によって、標本の像は電子画像(デジタルデータ)に変換される。なお、標本の像は明視野観察の状態で形成されているので、電子画像の取得も明視野観察の状態で行われる。
 取得ステップS10が終わると、減算ステップS20が実行される。減算ステップS20では、電子画像の信号に対して直流成分(バイアス成分)の減算が行われる。減算ステップS20における電子画像は、第1の所定の状態で取得された画像である。この第1の所定の状態では、少なくとも、標本の位置と結像光学系の合焦位置(以下、適宜、「合焦位置」という)とが異なっている。
 標本の位置と結像光学系の合焦位置とを異ならせるには、例えば、合焦位置からずれていると思われる位置まで、目測で標本を移動させれば良い。また、まず合焦位置に標本の位置を一致させ、その後、合焦位置から離れる方向に標本を移動させても良い。あるいは、合焦位置が予め分かっている場合、合焦位置からずれた位置を予め決めておくことができるので、その位置まで標本を移動させれば良い。
 減算ステップS20における電子画像は、少なくとも、標本の位置と合焦位置とが異なっているときの画像である。よって、電子画像の取得時には、標本の位置と合焦位置とが異なっている状態、すなわち、標本の位置が合焦位置からずれている状態が含まれる。
 ここで、標本が格子状の位相物体の場合、標本を照明すると、標本から0次回折光と回折光が出てくる。標本の位置が合焦位置からずれている状態では、0次回折光と回折光との間に波面収差の差(光路長差)が発生する。この点ついて、図2~図9を使って説明する。なお、回折光として1次回折光を用いて説明する。また、結像光学系の収差は無収差であるとする。また、結像光学系の合焦位置と標本の位置との差、すなわち、標本の位置の合焦位置からのずれ量を、適宜、ずれ量ΔZという。
 図2は、標本の位置と合焦位置との関係、及び波面収差量を示す図であって、図2(a)は、合焦状態のときの図、図2(b)は、非合焦状態(ずれ量ΔZ=10μm)のときの図である。図3は、合焦状態のときの標本の電子画像である。図4は、非合焦状態(ずれ量ΔZ=10μm)のときの標本の電子画像である。図5は、標本の位置と合焦位置との関係、及び波面収差量を示す図であって、図5(a)は、合焦状態のときの図、図5(b)は、非合焦状態(ずれ量ΔZ=20μm)のときの図である。図6は、合焦状態のときの標本の電子画像である。図7は、非合焦状態(ずれ量ΔZ=20μm)のときの標本の電子画像である。なお、図3、4、6及び7は、いずれも減算ステップS20が実行された後の画像である。また、図3、4、6及び7における標本は細胞である。
 また、合焦状態とは、標本Sの位置が合焦位置と一致した状態のことであって、非合焦状態とは、標本Sの位置が合焦位置からずれた状態のことである。また、ずれの方向は、図2(b)と図5(b)のいずれにおいても上方向(結像光学系31に近づく方向)である。
 また、標本Sについては、図2と図5で空間周波数が異なっている。図2と図5では、標本Sは、いずれも格子状の位相物体である。ただし、図2における標本Sでは、空間周波数が高い(位相の凹凸の周期が短い)。一方、図5における標本Sでは、図2の標本Sよりも空間周波数が低い(位相の凹凸の周期が図2の標本Sよりも長い)。
 また、グラフは瞳位置での波面収差の量を表している。グラフの縦軸は波面収差量(単位は波長)、横軸は瞳面(瞳面上)の中心からの距離を表している。瞳面の中心からの距離は規格化されているので、無名数となっている。横軸の数値0は瞳面の中心位置、数値1は瞳面の最も外側の位置を表している。
 図2(a)に示すように、光軸上の一点から出た光には、光線Lと光線Lとが含まれている。光線Lは光軸上を進む光線である。ここで、光線Lと瞳面の交点は、瞳面の中心位置に一致している。一方、光線Lは、光軸AXに対して所定の角度で結像光学系31に入射する光線である。ここで、光線Lと瞳面の交点は、瞳面の中心から所定の距離だけ離れた位置になっている。
 標本Sを照明光(平行光束)で照明すると、標本Sから0次回折光と1次回折光が出てくる。ここで、標本Sと光軸が交わる点(光軸上の一点)に着目すると、0次回折光は回折されないので、この点から出た0次回折光は光軸上を進んで瞳の中心に到達する。よって、0次回折光は光線Lとみなすことができる。一方、1次回折光は所定の方向に回折されるので、この点から出た1次回折光は光軸に対して所定の角度で結像光学系31に入射する。結像光学系31に入射した1次回折光は、瞳面の中心から離れた位置に到達する。よって、1次回折光は光線Lとみなすことができる。
 まず、標本Sが高い空間周波数を持つ場合について説明する。合焦状態では、標本Sの位置Pは合焦位置Pと一致している。この状態では、図2(a)のグラフに示すように、瞳面のどの位置においても波面収差量は0になっている。これは、0次回折光における波面収差量と1次回折光における波面収差量が、共に0であることを示している。波面収差量に(2π/λ)を乗じた値は位相量に相当するので、合焦時は、0次回折光と1次回折光のいずれにおいても、位相に変化は生じない。1次回折光の位相は、0次回折光の位相に対してπ/2遅れたままなので、ψ=0−(−π/2)=π/2となる。この場合、2Acosψ=0となるので、位相情報をコントラスト情報として得られない。その結果、電子画像はコントラストが無い画像になる。
 ただし、実際の結像光学系には軸上色収差が残存している。そのため、白色光で標本Sを照明すると、波長よっては標本Sの位置Pと合焦位置Pとが一致しなくなる。この場合、結像光には、1次回折光に波面収差量が加わった波長の光が含まれる。そのため、本来であれば、電子画像はコントラストが無い画像になるが、実際には、図3に示すように、電子画像はコントラストを若干持った画像になる。
 一方、非合焦状態では、標本の位置Pは合焦位置Pからずれている。図2(b)では、標本Sの位置Pが合焦位置Pよりも上方向(結像光学系31に近づく方向)にずれている。この状態では、図2(b)のグラフに示すように、瞳面の中心では波面収差量は0であるが、瞳面の中心から離れた位置では波面収差が発生する。ここで、波面収差は参照波面に対する実際の波面のずれで、このずれは位相のずれになる。そのため、波面収差が発生している範囲内に、1次回折光の位置があると、1次回折光の位相は、本来持っている位相に波面収差量が加わったものになる。このように、標本Sの位置Pを合焦位置Pからずらすことで、1次回折光の位相を変化させられる。
 図2(b)のグラフに示すように、位置Pにおける波面収差量は−λ/4である。そこで、瞳面での1次回折光の位置が位置P一致するように、合焦位置Pからのずれ量ΔZを調整する。言い換えると、瞳面における1次回折光の位置において波面収差量が−λ/4となるように、ずれ量ΔZを調整する。図2(b)では、ずれ量ΔZを10μmにすることで、瞳面での1次回折光の位置を位置Pに一致させている。
 このようにすることで、0次回折光における波面収差量を0にしたままで、1次回折光における波面収差量を−λ/4にできる。上述のように、波面収差量に(2π/λ)を乗じた値は位相量であるので、非合焦時は、0次回折光については位相に変化は生じないが、1次回折光については位相に変化が生じる。具体的には、1次回折光では、もともとの位相の遅れπ/2に加えて、更に位相がλ/4×(2π/λ)=π/2遅れる。1次回折光の位相は、0次回折光の位相に対してπ遅れた状態になるので、ψ=0−(−π)=πとなる。この場合、2Acosψ≠0となるので、位相情報がコントラスト情報として得られる。その結果、図4に示すように、電子画像は、コントラストを明らかに持った画像になる。よって、この電子画像を、例えば、表示装置に表示すれば、観察者は標本S(標本Sの像)を明瞭に観察できる。
 次に、標本Sが低い空間周波数を持つ場合について説明する。合焦状態では、標本Sの位置Pは合焦位置Pと一致している。この状態では、図5(a)のグラフに示すように、瞳面のどの位置においても波面収差量は0になっている。これは、図2(a)と同じである。そのため、電子画像はコントラストが無い画像になる。ただし、上述の理由により、図6に示すように、電子画像は、コントラストを若干持った画像になる。
 一方、非合焦状態では、図5(b)に示すように、標本Sの位置Pが合焦位置Pよりも上方向(結像光学系に近づく方向)にずれている。この状態では、図5(b)のグラフに示すように、瞳面の中心では波面収差量は0であるが、瞳面の中心から離れた位置では波面収差が発生する。ここで、図5における標本Sの構造は、図2における標本Sの構造と異なる。
 この場合、1次回折光の回折角は、図5(b)と図2(b)とで異なる。図5(b)における回折角は、図2(b)に比べて小さくなる。そのため、瞳面における1次回折光の位置も、図5(b)と図2(b)とで異なる。図5(b)のグラフに示すように、波面収差量が−λ/4となる位置はP’となる。位置P’は、図2の位置Pに比べて瞳面の中心に近い位置になっている。
 上述のように、位置P’における波面収差量は−λ/4である。そこで、瞳面での1次回折光の位置が位置P’と一致するように、ずれ量ΔZを調整する。言い換えると、瞳面における1次回折光の位置において波面収差量が−λ/4となるように、ずれ量ΔZを調整する。図5(b)では、ずれ量ΔZを20μmにすることで、瞳面での1次回折光の位置を位置P’に一致させている。
 このようにすると、0次回折光における波面収差量を0にしたままで、1次回折光における波面収差量を−λ/4にできる。これは、図2(b)と同じである。そのため、図7に示すように、電子画像は、コントラストを明らかに持った画像になる。よって、観察者は標本S(標本Sの像)を明瞭に観察できる。
 図2(b)や図5(b)では、1次回折光における波面収差量が−λ/4になっている。この場合、0次回折光の位相と1次回折光の位相は逆位相の関係になる。逆位相の関係では、0次回折光と1次回折光は弱め合うことになる。よって、電子画像では、背景に比べて標本Sが暗くなる。これは、位相差観察におけるダークコントラストに相当する。
 また、回折光の回折角は、標本Sが持っている空間周波数によって異なる。例えば、標本Sを格子状の位相物体とした場合、格子の間隔が広いということは、標本Sが持っている空間周波数が低いということになる。一方、格子の間隔が狭いということは、標本Sが持っている空間周波数が高いということになる。ここで、格子の間隔が広いほど回折角は小さく、格子の間隔が狭いほど回折角は大きくなる。よって、標本Sが低い空間周波数を持つ場合回折角は小さく、標本Sが高い空間周波数を持つ場合回折角は大きくなる。
 細胞には、様々な空間周波数を持つ構造が含まれている。そのため、標本Sが細胞の場合、波面収差量が−λ/4となる位置を、どの空間周波数における1次回折光の位置と一致させるかで、標本の像の見え方が変わってくる。
 高い空間周波数における1次回折光の位置で波面収差量が−λ/4となるように、ずれ量ΔZを調整すると(調整1)、電子画像では、空間周波数の高い部分が明瞭になる。一方、低い空間周波数における1次回折光の位置で波面収差量が−λ/4となるように、ずれ量ΔZを調整すると(調整2)、電子画像では、空間周波数の低い部分が明瞭になる。
 図4は調整1による電子画像で、図7は調整2による電子画像である。なお、標本は同じである。図4の電子画像と図7の電子画像を比べると、図4の電子画像では細胞の外周(空間周波数が高い部分)が明瞭になっているのに対して、図7の電子画像では細胞の内側(空間周波数が低い部分)が明瞭になっていることがわかる。
 また、ずれの方向は下方向(結像光学系31から離れる方向)であっても良い。その様子を図8と図9に示す。なお、図8と図9の詳細な説明は、図2と図5と同様であるので省略する。
 図8は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=10μm)のときの図である。図9は標本の位置と合焦位置との関係、及び波面収差量を示す図であって、(a)は合焦状態のときの図、(b)は非合焦状態(ずれ量ΔZ=20μm)のときの図である。
 図8(b)や図9(b)では、1次回折光における波面収差量が+λ/4になっている。この場合、0次回折光の位相と1次回折光の位相は同位相の関係になる。同位相の関係では、0次回折光と1次回折光は強め合うことになる。よって、電子画像では、背景に比べて標本Sが明るくなる。これは、位相差観察におけるブライトコントラストに相当する。
 また、電子画像は示さないが、1次回折光の回折角は、図8(b)の方が図9(b)に比べて大きい。よって、図8(b)の電子画像では細胞の外周(空間周波数が高い部分)が明瞭になるのに対して、図9(b)の電子画像では細胞の内側(空間周波数が低い部分)が明瞭になる。
 なお、本実施形態の観察方法では、ずれ量ΔZはそれほど大きくない。この場合、合焦位置に対して標本Sの位置をずらしても、結像光学系31に対する1次回折光の入射位置はほとんど変化しない。そのため、瞳面での1次回折光の位置も、ほとんど変化しないものとみなせる。よって、標本Sの位置を移動させるだけで、1次回折光に追加される波面収差量が−λ/4となるようにできる。
 取得ステップS10が終わると、続いて減算ステップS20が実行される。減算ステップS20では、電子画像の信号に対して直流成分(バイアス成分)の減算が行われる。
 上述のように、取得ステップS10では、標本の位置と合焦位置とが異なっている。そのため、2Acosψ≠0になる。この場合、像面における光の強度Iは以下のように
なる。
 I=A +A +2Acosψ
 ここで、A +A は標本の像における直流成分(バイアス成分)、すなわち、電子画像の信号うちの直流成分(バイアス成分)を表している。このうち、0次回折光の振幅A は、非常に大きな値を持つ。そこで、減算ステップS20で、A の値を小さくする。このようにすることで、A +A の値に対して2Acosψの値を相対的に大きくできる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第1実施形態の標本観察方法によれば、明視野観察の状態でありながら、無色透明な標本を明瞭に観察できる。
 第2実施形態の標本観察方法は、減算ステップよりも後に比較ステップを有し、取得ステップを少なくとも3回行い、先に取得した電子画像と後に取得した電子画像とを、比較ステップで比較し、所定の条件を満足する電子画像が得られるまで、取得ステップから比較ステップまでを繰り返し行うものである。
 第2実施形態の標本観察方法について、図10と図11を用いて説明する。図10(a)は、第2実施形態の標本観察方法の簡単なフローチャート、図10(b)は、標本と結像光学系の間隔と、コントラストの関係を示すグラフである。また、図11は、第2実施形態の標本観察方法の詳細なフローチャートである。
 第2実施形態の標本観察方法は、図10(a)に示すように、取得ステップS10と減算ステップS20に加え、更に、比較ステップS30−1を有する。比較ステップS30−1は減算ステップS20よりも後に実行される。また、取得ステップS10は少なくとも3回行い、先に取得した電子画像と後に取得した電子画像とを、比較ステップS30−1で比較する。更に、所定の条件を満足する電子画像が得られるまで、取得ステップS10から比較ステップS30−1までを繰り返し行う。これにより、第2実施形態の標本観察方法では、より明瞭な電子画像が自動的に得られる。
 電子画像における画質を評価するものに、コントラストがある。このコントラストは、図10(b)に示すように、標本Sと結像光学系31の間隔(以下、適宜、「間隔D」という)によって変化する。間隔Dが広い状態から狭まるにつれて、区間X1ではコントラストは徐々に上昇し、その後、区間X2ではコントラストは徐々に低下する。続いて、区間X3ではコントラストは徐々に上昇し、区間X4ではコントラストは徐々に低下する。
 そこで、画質の高い電子画像を取得するには、間隔Dをコントラストが大きいときの間隔にすれば良い。すなわち、間隔Dを、区間X1と区間X2の境界部分の間隔(以下、適宜、「間隔DM1」という)、あるは、区間X3と区間X4の境界部分の間隔(以下、適宜、「間隔DM2」という)にすれば良い。
 しかしながら、図10(b)に示すコントラストの曲線では、コントラストの値によっては、同じコントラストになる間隔Dが、区間X1~区間X4のそれぞれの区間内に存在する。そのため、最初に電子画像を取得したときの間隔(以下、適宜、「間隔D1」という)が、区間X1~区間X4のうちの、どの区間内に存在するかを特定する必要がある。
 また、最初に取得した電子画像のコントラストが低い場合、コントラストが大きくなるようにする必要がある。しかしながら、間隔Dを広い状態から狭くしていった場合、区間X1と区間X3ではコントラストは徐々に上昇し、逆に、区間X2と区間X4ではコントラストは徐々に低下する。そのため、コントラストを大きくするために、間隔Dを広げるようにするのか、狭めるようにするのかを特定する必要がある。
 そこで、比較ステップS30−1では、これらの点を考慮した比較が行われる。第2実施形態の標本観察方法について、図11を用いてより詳しく説明する。
 まず、取得回数を計測するために、変数nに0が設定される(S300)。続いて、取得ステップS10(1回目)と減算ステップS20が実行される。なお、この取得ステップS10では、間隔D1で電子画像の取得が行われる。
 続いて、取得回数の判断が行われる(S301)。ここでは、変数nの値が0なので、S301の判断結果はYESとなる。そこで、変数nに1が加算され(S302)、取得した電子画像が記憶部1に保存される(S303)。そして、標本Sと結像光学系31の間隔(間隔D)が所定量だけ広げられる(S304)。なお、所定量は、予め設定されているものとする。
 S304が終了すると、再び、取得ステップS10(2回目)が実行される。このとき、間隔Dが間隔D1よりも広がった状態で、電子画像の取得が行われる。その後、減算ステップS20が実行され、取得回数の判断が行われる(S301、S305)。ここでは、変数nの値が1になっているので、S301の判断結果はNO、S305の判断結果はYESになる。そこで、変数nに1が加算され(S306)、取得した電子画像が記憶部2に保存される(S307)。
 続いて、記憶部1の電子画像と記憶部2の電子画像について、コントラストの比較が行われる(S308)。ここで、判断結果がYESの場合、すなわち、
 記憶部1の電子画像のコントラスト>記憶部2の電子画像のコントラスト
の場合、区間X1内又は区間X3内に間隔D1が存在している。
 区間X1内又は区間X3内に間隔D1が存在している場合、コントラストを大きくするためには、間隔Dを狭くすれば良い。そこで、間隔Dを狭くする指定が行われる(S309)。なお、フローチャートには示していないが、S309では、間隔Dを所定量だけ狭める処理も行われる。このときの所定量は、S304での所定量と同じであっても、異なっていても良い。
 一方、判断結果がNO場合、すなわち、
 記憶部1の電子画像のコントラスト<記憶部2の電子画像のコントラスト
の場合、区間X2内又は区間X4内に間隔D1が存在している。
 区間X2内又は区間X4内に間隔D1が存在している場合、コントラストを大きくするためには、間隔Dを広くすれば良い。そこで、間隔Dを広くする指定が行われる(S310)。なお、フローチャートには示していないが、S310では、間隔Dを所定量だけ広げる処理も行われる。このときの所定量は、S304での所定量と同じであっても、異なっていても良い。更に、記憶部2に保存していた電子画像が記憶部1に保存される(S311)。この記憶部1には、先に取得した電子画像が保存されていることになる。
 ここで、比較ステップS30−1には、S301からS311までの処理が含まれているが、S301からS311までの処理は1回だけ行えば良い。よって、取得ステップS10から比較ステップS30−1までを繰り返し行ったとしても、S301からS311までの処理は繰り返し行われない。
 S309またはS311が終了すると、再び、取得ステップS10(3回目)が実行される。このとき、間隔Dが所定量だけ広がった状態又は狭まった状態で、電子画像の取得が行われる。その後、減算ステップS20が実行され、取得回数の判断が行われる(S301、S305)。ここでは、変数nが3になっているので、S301の判断結果はNO、S305の判断結果もNOになる。そして、取得した電子画像が記憶部2に保存される(S312)。この記憶部2には、後に取得した電子画像が保存されていることになる。
 続いて、記憶部1の電子画像と記憶部2の電子画像について、コントラストの比較が行われる(S313)。ここで、この比較では、所定の条件として、
 記憶部1の電子画像のコントラスト>記憶部2の電子画像のコントラスト
を用いる。また、記憶部1には、常にコントラストの高い電子画像が保存されている。
 判断結果がYESの場合、すなわち、
 記憶部1の電子画像のコントラスト>記憶部2の電子画像のコントラスト
の場合、所定の条件が満足されたことになる。これは、十分にコントラストの高い電子画像が得られたことを示しているので、比較を終了する。
 一方、判断結果がNO場合、すなわち、
 記憶部1の電子画像のコントラスト<記憶部2の電子画像のコントラスト
の場合、所定の条件が満足されていないことになる。これは、取得した電子画像のコントラストが十分に高いとは言えないことを意味している。そこで、変数nに1が加算され(S314)、取得した電子画像が記憶部1に保存される(S315)。
 更に、指定された間隔変化に従って、間隔Dが所定量だけ変化される(S316)。指定された間隔変化とは、間隔Dを狭くする変化(S309で指定)や間隔Dを広くする変化(S310で指定)のことである。
 S316の終了後、再び、取得ステップS10が実行される。これ以降の処理は、S313における判断結果がYESになるまで繰り返し行われる。判断結果がYESになると比較を終了する。
 このように、第2実施形態の標本観察方法では、S313における判断結果がYESとなるまで繰り返し処理を行う。この繰り返し処理を行うことで、十分にコントラストの高い電子画像が自動的に得られる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、S313では、所定の条件を、
 記憶部1の電子画像のコントラスト>記憶部2の電子画像のコントラスト
とした。しかしながら、以下のように、2つの電子画像のコントラストの差が許容値Eよりも小さくなることを、所定の条件にしても良い。
 |記憶部1の電子画像のコントラスト−記憶部2の電子画像のコントラスト|<E
 また、図11のフローチャートでは、区間X1内又は区間X2内に間隔D1が存在している場合、最終的に取得される電子画像は間隔DM1の画像になる。一方、区間X3内又は区間X4内に間隔D1が存在している場合、最終的に取得される電子画像は間隔DM2の画像になる。
 しかしながら、別の処理を加えて、区間X1内又は区間X2内に間隔D1が存在している場合であっても、間隔DM2での電子画像が得られるようにしても良い。同様に、区間X3内又は区間X4内に間隔D1が存在している場合であっても、間隔DM1での電子画像が得られるようにしても良い。この場合、処理の途中で、標本Sの位置と結像光学系31の合焦位置とが一致した状態になるが、この状態になったとしても、取得ステップS10は実行される。なお、別の処理については、説明を省略する。
 以上のように、第2実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第3実施形態の標本観察方法は、減算ステップよりも後に増幅ステップを有し、増幅ステップでは、減算ステップ後の電子画像の信号を増幅するものである。
 第3実施形態の標本観察方法について、図12(a)を用いて説明する。図12(a)は、第3実施形態の標本観察方法及び後述の第10実施形態の標本観察方法のフローチャートである。
 第3実施形態の標本観察方法は、図12(a)に示すように、取得ステップS10と減算ステップS20に加え、更に、増幅ステップS30−2を有する。これにより、第3実施形態の標本観察方法では、より明瞭な電子画像が得られる。
 上述のように、A +A は標本の像の直流成分、すなわち、電子画像の信号うちの直流成分を表している。減算ステップS20では、A の値を小さくすることで、2Acosψの値をA +A の値に対して相対的に大きくしている。
 これに対して、第3実施形態の標本観察方法では、取得ステップS10と減算ステップS20の終了後に、増幅ステップS30−2が実行される。増幅ステップS30−2では、2Acosψの値を大きくしている(増幅している)。このようにすることで、A +A の値に対して2Acosψの値を相対的により大きくできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、増幅ステップS30−2を、第2実施形態の標本観察方法に用いても良い。この場合、増幅ステップS30−2は、比較ステップS30−1よりも前に実行される。
 以上のように、第3実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第4実施形態の標本観察方法は、電子画像の信号をフーリエ変換する変換ステップと、逆フーリエ変換を行う逆変換ステップと、を有し、変換ステップは、減算ステップよりも前に行われ、逆変換ステップは、少なくとも減算ステップよりも後に行われるものである。
 第4実施形態の標本観察方法について、図12(b)と図13を用いて説明する。図12(b)は、第4実施形態の標本観察方法及び後述の第11実施形態の標本観察方法のフローチャートである。図13は、各空間周波数における大きさを示す図であって、(a)は減算ステップ実行前の状態、(b)は減算ステップ実行後の状態を示す図である。
 第4実施形態の標本観察方法は、図12(b)に示すように、取得ステップS10と減算ステップS20に加え、更に、変換ステップS15−1と逆変換ステップS30−3とを有する。これにより、第4実施形態の標本観察方法では、より明瞭な電子画像が簡単に得られる。
 上述のように、減算ステップS20では、A の値を小さくすることで、A +A の値に対して2Acosψの値を相対的に大きくしている。ここで、周波数空間で減算ステップS20が実行されると、減算を効率的に行える。
 減算ステップS20における減算について、図13を用いて説明する。上述のように、細胞のような標本には、様々な空間周波数を持つ構造が含まれている。そこで、標本Sの像の明るさを空間周波数ごとに分離できれば、空間周波数ごとに減算が行える。
 そこで、第4実施形態の標本観察方法では、取得ステップS10の終了後に、変換ステップS15−1が実行される。変換ステップS15−1では、電子画像の信号をフーリエ変換する。その結果、図13(a)に示すように、空間周波数ごとに、その大きさ(縦軸、明るさに相当)が分離される。図13(a)では、横軸の数値は空間周波数を示しており、空間周波数が0では、その大きさは100で、空間周波数が1では、その大きさは30になっている。
 ここで、空間周波数の値(横軸の数値)は、回折光の次数と対応している。そのため、空間周波数0では、その大きさ(縦軸の数値)は0次回折光の明るさに対応する。同様に、空間周波数1では、その大きさは1次回折光の明るさに対応する。そこで、変換ステップS15−1の終了後に、減算ステップS20が実行される。この減算ステップS20では、空間周波数0での大きさを小さくしている。例えば、図13(b)に示すように、空間周波数0での大きさを、100から50に半減させている。これは、A の値を小さくすることに相当する。このようにすることで、0次光の明るさを小さくできる。
 続いて、逆変換ステップS30−3が実行される。逆変換ステップS30−3では、逆フーリエ変換を行う。これにより、電子画像の信号を得ることができる。なお、減算ステップS20によって、0次光の明るさ、すなわち、A の値が小さくなっている。そのため、A +A の値に対して2Acosψの値を相対的により大きくできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、変換ステップS15−1と逆変換ステップS30−3を、第2実施形態の標本観察方法や第3実施形態の標本観察方法に用いても良い。この場合、変換ステップS15−1は、減算ステップS20よりも前に実行される。また、逆変換ステップS30−3は、減算ステップS20よりも後に実行される。
 以上のように、第4実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第5実施形態の標本観察方法は、事前取得ステップと、規格化ステップと、を有し、事前取得ステップでは、標本が無い状態で電子画像を取得し、規格化ステップでは、電子画像で標本の電子画像を規格化し、減算ステップの前に、規格化ステップを行うものである。
 第5実施形態の標本観察方法について、図14を用いて説明する。図14は第5実施形態の標本観察方法及び後述の第12実施形態の標本観察方法のフローチャートである。
 第5実施形態の標本観察方法は、図14に示すように、取得ステップS10と減算ステップS20に加え、更に、事前取得ステップS00と規格化ステップS15−2とを有する。これにより、第5実施形態の標本観察方法では、より明瞭な電子画像が得られる。
 なお、図14では、減算ステップS20の後に、増幅ステップS30−2が備わっているが、この増幅ステップS30−2は必須ではない。
 標本Sの像の明るさは、照明光学系による影響や結像光学系による影響を受けることがある。例えば、照明光学系や結像光学系を光が通過することで、通過後の光の明るさにむらが生じる。この場合、照明光学系や結像光学系による明るさのむらのために、標本Sの像にも明るさにむらが生じる。この明るさのむらは電子画像の画質を低下させるので、除去することが好ましい。
 そこで、第5実施形態の標本観察方法では、取得ステップS10の実行に先立って、事前取得ステップS00が実行される。事前取得ステップS00では、標本Sが無い状態で電子画像Aの取得が行われる。このとき、電子画像Aは、明るさのむらのみの画像になる。
 続いて、取得ステップS10が実行され、標本Sの電子画像Bの取得が行われる。この電子画像Bは、標本Sの像に、照明光学系や結像光学系による明るさのむらが加わった画像になる。そこで、規格化ステップS15−2が実行される。規格化ステップS15−2では、電子画像Aで電子画像Bを規格化する。すなわち、以下の演算、
 電子画像B/電子画像A
を規格化ステップS15−2において行う。これにより、電子画像Bにおける明るさのむらが、電子画像Aにおける明るさのむらでキャンセルされる。そのため、規格化後の電子画像は、照明光学系や結像光学系による明るさのむらが低減された画像になる。
 規格化ステップS15−2の終了後、減算ステップS20が実行される。減算ステップS20では、規格化後の電子画像においてA の値を小さくし、これにより、A +A の値に対して2Acosψの値を相対的に大きくする。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、事前取得ステップS00と規格化ステップS15−2を、第2実施形態の標本観察方法から第4実施形態の標本観察方法までのいずれに用いても良い。この場合、事前取得ステップS00は、取得ステップS10よりも前に実行される。また、規格化ステップS15−2は、減算ステップS20よりも前に実行される。
 以上のように、第5実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第6実施形態の標本観察方法は、結像光学系の合焦位置に対して標本の位置を複数回変化させ、変化させた標本の位置で、取得ステップと減算ステップが行われ、これにより、減算ステップを実行した後の電子画像を複数生成し、生成した複数の電子画像を加算するものである。
 第6実施形態の標本観察方法によれば、電子画像の生成の際に、低い周波数空間から高い空間周波数までの各々の周波数空間でコントラストが高くなっている画像が使われる。よって、生成された電子画像では、どの空間周波数においてもコントラストが高くなっている。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第6実施形態の標本観察方法によれば、明視野観察の状態でありながら、明瞭に無色透明な標本を観察できる。
 第7実施形態の標本観察方法は、加算の前に、複数の電子画像の各々について、電子画像のうちでコントラストが最も高い部分を抽出し、抽出した部分を使って加算を行うものである。
 第7実施形態の標本観察方法によれば、加算によって電子画像を生成する時に、各周波数空間でコントラストが最も高くなっている部分のみが使われている。よって、生成された電子画像では、どの空間周波数においてもコントラストが非常に高くなっている。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 以上のように、第7実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第8実施形態の標本観察方法では、標本の位置の変化は、第1の所定の状態における波面収差量の符号が同じ状態で行われるものである。
 上述のように、1次回折光における波面収差量が−λ/4になると、電子画像はダークコントラストの画像になる。すなわち、電子画像では、背景に比べて標本Sが暗くなる。一方、1次回折光における波面収差量が+λ/4になると、電子画像はブライトコントラストの画像になる。すなわち、電子画像では、背景に比べて標本Sが明るくなる。
 そこで、加算によって電子画像を生成する時は、波面収差量の符号が同じ状態の画像を用いるのが良い。このようにすることで、生成した電子画像を、ダークコントラストのみに基づく画像、あるいは、ブライトコントラストのみに基づく画像にできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 以上のように、第8実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 本実施形態の標本観察装置について説明する。第1実施形態から第3実施形態までの標本観察装置は、光源と、照明光学系と、結像光学系と、撮像装置と、画像処理装置と、を有し、照明光学系は、光源からの照明光を標本に照射するように配置され、結像光学系は、標本からの光が入射するように配置されると共に、標本の光学像を形成し、撮像装置は光学像の位置に配置され、画像処理装置は、上述の第1実施形態から第8実施形態までの標本観察方法を行うことを特徴とする。
 第1実施形態の標本観察装置の構成を図15に示す。標本観察装置1は、正立型顕微鏡を用いた観察システムである。標本観察装置1は、本体部10と、照明部20と、観察部30と、画像処理装置40と、を備える。ここで、照明部20と観察部30とは、本体部10に取り付けられている。また、本体部10と画像処理装置40とは、有線または無線で接続されている。
 なお、標本観察装置1は、表示装置50を備えていても良い。表示装置50は、有線または無線で画像処理装置40に接続されている。
 本体部10はステージ11を有する。ステージ11は保持部材である。このステージ11には、標本Sが載置される。標本Sの移動はステージに取り付けられた操作ノブ(不図示)や焦準ノブ(不図示)で行われる。操作ノブの操作により、光軸と垂直な面内で、標本Sが移動する。焦準ノブの操作により、光軸に沿って標本Sが移動する。
 照明部20は、光源21と照明光学系22とを有する。照明光学系22は、コンデンサレンズ23と開口絞り24とを有する。なお、図15に示すように、照明光学系22は、レンズ25と、ミラー26と、レンズ27とを備えていても良い。図15では、コンデンサレンズ23と開口絞り24はステージ11に保持されている。照明光学系22は、光源21からステージ11までの間の光路中に配置されている。
 観察部30は、結像光学系31と撮像装置32とを有する。なお、観察部30は、レボルバ33と観察鏡筒34とを備えていても良い。結像光学系31は、顕微鏡対物レンズ35と撮像レンズ36とを有する。なお、図15に示すように、結像光学系31は、結像レンズ37とプリズム38とを備えていても良い。結像光学系31は、ステージ11から撮像装置32までの間の光路中に配置されている。撮像装置32は撮像素子39を有する。
 標本観察装置1では、照明部20は、ステージ11を挟んで観察部30と対向する側に配置されている。よって、標本観察装置1では、標本Sは透過照明で照明される。
 光源21から照明光が出射する。照明光は照明光学系22を通過して、ステージ11に到達する。この照明光によって、標本Sが照明される。標本Sからの光は結像光学系31によって集光され、これにより、集光位置に標本Sの像(光学像)が形成される。結像光学系31の光路中にプリズム38がない場合、撮像装置32の撮像素子39によって標本Sの像が撮像される。
 撮像によって、標本Sの像は電子画像(デジタルデータ)に変換される。電子画像は画像処理装置40に送られる。画像処理装置40では各種の処理が行われる。ここで、標本観察装置1が表示装置50を備えている場合、電子画像は表示装置50に表示される。観察者は表示装置50に表示された電子画像を見ることで、標本S(標本Sの像)を観察できる。
 撮像装置32は、自動利得制御を行う回路を備えていても良い。このようにすると、撮像した電子画像の明るさ(コントラスト)を一定にできる。なお、自動利得制御を行う回路は、画像処理装置40が備えていても良い。
 なお、結像光学系31の光路中に、プリズム38を挿入することもできる。このようにすることで、標本Sからの光は、観察鏡筒34の接眼レンズに導かれる。観察者は、接眼レンズを介して、標本Sの光学像を観察できる。
 標本観察装置1を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第1実施形態の標本観察方法を例に説明する。なお、光源21として、白色光源を用いる。
 まず、観察者は、照明光学系22と結像光学系31を、明視野観察の状態となるようにする。続いて、観察者は、ステージ11に標本Sを載置する。そして、観察者は、合焦位置からずれていると思われる位置まで、目測で標本を移動させる。これにより、明視野観察の状態で、なお且つ標本Sの位置と合焦位置とが異なった状態になる。続いて、画像処理装置40を作動させる。なお、これらの作業は、順不同で行って良い。
 画像処理装置40が作動することで、標本Sの像が撮像可能になるので、取得ステップS10が実行される。取得ステップS10が実行されることで、電子画像の取得が行われる。取得ステップS10で取得された電子画像は、画像処理装置40内の一時記憶部(不図示)に保存される。
 続いて、減算ステップS20が実行される。減算ステップS20では、A の値を小さくすることで、2Acosψの値がA +A の値に対して相対的に大きくなる。減算ステップS20の実行結果は、例えば、表示装置50に表示される。
 上述のように、標本Sの位置の設定は目測で行われている。この場合、標本Sの位置と合焦位置とが大きく異なっている可能性が高いので、標本Sの像は大きくぼけている。そのため、標本Sの像が撮像されても、観察者は表示装置50で電子画像を観察できない。
 そこで、観察者は焦準ノブを操作して、標本Sを合焦位置に向けて移動させる。標本Sの位置が顕微鏡対物レンズ35から大きく離れている場合、観察者は、標本Sが顕微鏡対物レンズ35に近づく方向にステージ11を移動させれば良い。一方、標本Sの位置が顕微鏡対物レンズ35に非常に近い場合、観察者は、標本Sが顕微鏡対物レンズ35から離れる方向にステージ11を移動させれば良い。
 標本Sを移動させている間、撮像は常に行われている。よって、取得ステップS10と減算ステップS20も、常に実行されている。そこで、観察者は、表示装置50で電子画像を見ながら標本Sを光軸に沿って移動させ、コントラストの良い電子画像が得られた時点で標本Sの移動を終わる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 なお、本体部10は、モータ12を備えていても良い。図15では、モータ12はステージ11に接続されている。モータ12によって、ステージ11を光軸に沿って移動させることで、標本Sの移動ができる。
 以上のように、第1実施形態の標本観察装置によれば、明視野観察の状態でありながら、無色透明な標本を観察できる。
 第2実施形態の標本観察装置の構成を図16に示す。標本観察装置1’は、倒立型顕微鏡を用いた観察システムである。標本観察装置1と同じ部材については同じ番号を付け、説明は省略する。
 標本観察装置1’では、標本観察装置1と同じように、照明部20は、ステージ11が挟んで観察部30と対向する側に配置されている。よって、標本観察装置1’においても、標本Sを透過照明で照明できる。ただし、標本観察装置1’は、照明部20とは別に、照明部20’も備えている。照明部20’は、観察部30と同じ側に配置されている。よって、標本観察装置1’では、照明部20’を用いて標本Sを落射照明で照明できる。
 照明部20’は、光源21’と照明光学系22’とを有する。照明光学系22’は、コンデンサレンズと開口絞りとを有する。ここで、照明光学系22’では、顕微鏡対物レンズ35を介して照明が行われる。よって、顕微鏡対物レンズ35がコンデンサレンズに相当する。なお、開口絞りは図示を省略している。また、図16に示すように、照明光学系22’は、レンズ25’と、ハーフミラーHMと、レンズ27’とを備えていても良い。照明光学系22’は、光源21’からステージ11までの間の光路中に配置されている。また、ハーフミラーHMと顕微鏡対物レンズ33は、照明光学系22’を構成すると共に、結像光学系31を構成している。
 結像光学系31の光路中にプリズム38がある場合、撮像装置32の撮像素子39によって標本Sの像が撮像される。また、結像光学系31の光路外にプリズム38を移動させることで、標本Sの光を観察鏡筒34の接眼レンズに導くことができる。この場合、標本Sの光は、ミラーMによって観察鏡筒34に向けて反射される。
 また、標本観察装置1’では、モータ12がレボルバ33に接続されている。よって、標本観察装置1’では、モータ12によって、レボルバ33が光軸に沿って移動する。レボルバ33が光軸に沿って移動することで、顕微鏡対物レンズ35(結像光学系31)が光軸に沿って移動する。これにより、標本Sの位置と合焦位置とを異なる状態にできる。
 標本観察装置1’では、標本Sは透過照明か落射照明で照明できる。落射照明について説明する。落射照明では、光源21’から照明光が出射する。照明光は照明光学系22’を通過して、ステージ11に到達する。この照明光によって標本Sが照明される。標本Sからの光は結像光学系31によって集光され、これにより、集光位置に標本Sの像(光学像)が形成される。結像光学系31の光路中にプリズム38がある場合、撮像装置32の撮像素子39によって標本Sの像が撮像される。
 撮像によって、標本Sの像は電子画像(デジタルデータ)に変換される。電子画像は画像処理装置40に送られる。画像処理装置40では各種の処理が行われる。ここで、標本観察装置1が表示装置50を備えている場合、電子画像は表示装置50に表示される。観察者は表示装置50に表示された電子画像を見ることで、標本S(標本Sの像)を明瞭に観察できる。
 標本観察装置1’を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第2実施形態の標本観察方法を例に説明する。なお、光源21’として、白色光源を用いる。
 まず、観察者は、照明光学系22’と結像光学系31を、明視野観察の状態となるようにする。そして、観察者は、ステージ11に標本Sを載置する。続いて、画像処理装置40を作動させる。なお、これらの作業は、順不同で行って良い。
 観察者は、観察開始の情報を画像処理装置40に入力する。ここで、画像処理装置40に、合焦位置からのずれ量の情報が予め記憶されているとする。画像処理装置40はレボルバ33(顕微鏡対物レンズ35)の現在の位置と合焦位置からのずれ量との情報に基づいて、移動量を算出する。算出した結果に基づいて、画像処理装置40はモータ12に駆動信号を送信する。送信された信号に基づいて、モータ12はレボルバ33を移動させ、標本Sの位置が、合焦位置からずれた状態にする。このようにすることで、標本Sの位置と合焦位置とが異なった状態にできる。
 明視野観察の状態、且つ標本Sの位置と合焦位置とが異なる状態になったところで、取得ステップS10(1回目)が実行される。これにより、電子画像の取得が行われる。取得された電子画像は、画像処理装置40内の一時記憶部(不図示)に保存される。続いて、減算ステップS20が実行される。減算ステップS20の終了後、電子画像は画像処理装置40内の記憶部1(不図示)に保存される。なお、記憶部1に保存した電子画像は、例えば、表示装置50に表示される。
 減算ステップS20の終了後、画像処理装置40はモータ12に駆動信号を送信する。このときの駆動信号は、間隔D(標本Sと顕微鏡対物レンズ35の間隔)を所定量だけ広げる信号である。この信号に従って、顕微鏡対物レンズ35がステージ11から遠ざかるように、モータ12はレボルバ33を移動させる。
 顕微鏡対物レンズ35が所定量だけ移動すると、取得ステップS10(2回目)と減算ステップS20が実行される。減算ステップS20の終了後、電子画像は画像処理装置40内の記憶部2(不図示)に保存される。
 続いて、記憶部1の電子画像と記憶部2の電子画像について、コントラストの比較が行われる。判断結果がYESの場合、間隔Dを狭くする指定が行われる。一方、判断結果がNO場合、間隔Dを広くする指定が行われると共に、記憶部2に保存していた電子画像が記憶部1に保存される。
 間隔Dに関する指定が終了すると、取得ステップS10(3回目)と減算ステップS20が実行される。続いて、記憶部1の電子画像と記憶部2の電子画像について、コントラストの比較が行われる。そして、所定の条件を満足するまで、取得ステップS10から比較ステップ30−1までが繰り返し行われる。
 所定の条件を満足すると、全ての処理が終了する。これにより、十分にコントラストの高い電子画像が自動的に得られる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 以上のように、第2実施形態の標本観察装置によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第3実施形態の標本観察装置の構成を図17に示す。図17(a)は、観察装置の概略構成を示す図、図17(b)は、光学系の構成を示す図である。
 標本観察装置300は、電子内視鏡を用いた観察システムである。標本観察装置300は、電子内視鏡100と画像処理装置200とから構成されている。電子内視鏡100は、スコープ部100aと接続コード部100bとを備えている。また、画像処理装置200には、表示ユニット204が接続されている。
 スコープ部100aは、操作部140と挿入部141に大別される。挿入部141は、細長で患者の体腔内へ挿入可能になっている。また、挿入部141は、可撓性を有する部材で構成されている。観察者は、操作部140に設けられているアングルノブ等により、諸操作を行うことができる。
 また、操作部140からは、接続コード部100bが延設されている。接続コード部100bは、ユニバーサルコード150を備えている。ユニバーサルコード150は、コネクタ250を介して画像処理装置200に接続されている。
 ユニバーサルコード150は、各種の信号等の送受信に用いられる。各種の信号としては、電源電圧信号及びCCD駆動信号等がある。これらの信号は、電源装置やビデオプロセッサからスコープ部100aに送信される。また、各種の信号として映像信号がある。この信号は、スコープ部100aからビデオプロセッサに送信される。なお、画像処理装置200内のビデオプロセッサには、図示しないVTRデッキ、ビデオプリンタ等の周辺機器が接続可能である。ビデオプロセッサは、スコープ部100aからの映像信号に対して信号処理を施す。映像信号に基づいて、表示ユニット204の表示画面上に内視鏡画像が表示される。
 挿入部141の先端部142には、光学系が配置されている。ここで、電子内視鏡100は拡大内視鏡である。そのため、光学系は、標本Sの拡大像を形成するようになっている。内視鏡における観察対象としては、体内の組織がある。以下の説明では、体内の組織も標本Sに含まれるものとする。
 照明部は、光源と照明光学系とを有する。光源からの光は光ファイバ401から出射する。照明光学系は、レンズ402と、ミラー403と、レンズ404と、ハーフプリズム405と、対物レンズ406とを備える。観察部は、結像光学系と撮像装置とを有する。結像光学系は、対物レンズ406と、ハーフプリズム405と、結像レンズ407とを有する。撮像装置は撮像素子408を有する。この光学系では、標本Sは落射照明で照明される。
 標本観察装置300を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第3実施形態の標本観察方法を例に説明する。なお、光源として、白色光源を用いる。
 まず、観察者は、照明光学系と結像光学系を、明視野観察の状態となるようにする。続いて、観察者は、合焦位置からずれた位置だと思われる位置まで、目測で挿入部141を移動させる。そして、画像処理装置200を作動させる。なお、これらの作業は、順不同で行って良い。
 画像処理装置200が作動することで、標本Sの像が撮像可能になるので、取得ステップS10が実行される。取得ステップS10が実行されることで、電子画像の取得が行われる。取得ステップS10で取得された電子画像は、画像処理装置200内の一時記憶部(不図示)に保存される。
 続いて、減算ステップS20が実行される。減算ステップS20では、A の値を小さくすることで、2Acosψの値がA +A の値に対して相対的に大きくなる。
 減算ステップS20の終了後、増幅ステップS30−2が実行される。増幅ステップS30−2では、2Acosψの値を大きくする(増幅する)。これにより、A +A の値に対して2Acosψの値が相対的により大きくなる。増幅ステップS30−2の実行結果は、例えば、表示装置204に表示される。
 挿入部141を移動させている間、撮像は常に行われている。よって、取得ステップS10、減算ステップS20及び増幅ステップS30−2も、常に実行されている。そこで、観察者は、表示装置204で電子画像を見ながら挿入部141を移動させ、コントラストの良い電子画像が得られた時点で挿入部141の移動を終わる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 なお、対物レンズ406、結像レンズ407及び撮像素子408の少なくとも1つを、光軸に沿って移動させても良い。これらの移動には、例えば、マイクロアクチュエータ(不図示)やボイスコイルモータ(不図示)を用いれば良い。このようにすれば、ずれ量ΔZの調整を細かにできる。よって、挿入部141の移動は、ある程度のコントラストを持つ電子画像が取得できたところまでで済む。
 以上のように、第3実施形態の標本観察装置によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 また、上述の各実施形態の標本観察装置では、以下の条件式(1)を満足することが好ましい。
 0.01<NAill/NAob<1   (1)
 ここで、
 NAillは、照明光学系の標本側の開口数、
 NAobは、結像光学系の標本側の開口数、
である。
 条件式(1)を満足することで、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 条件式(1)の下限値を下回ると、照明光学系の標本側の開口数が小さくなりすぎる。この場合、照明光の光量不足や、照明むらが大きくなる。また、電子画像において、カバーガラスの汚れやゴミが目立つようになる。
 条件式(1)の上限値を上回ると、照明光学系の標本側の開口数が大きくなりすぎる。この場合、光軸に対して斜めから入射する照明光が増加する。そのため、コントラストの良い電子画像を得るのが難しくなる。この点について、図18を用いて説明する。
 図18は、照明光の入射方向と回折光の回折方向の関係、及び波面収差量を示す図であって、図18(a)は、照明光の入射方向が光軸と平行である場合、図18(b)は照明光の入射方向と光軸との角度が小さい場合、図18(c)は照明光の入射方向と光軸との角度が大きい場合を示す図である。
 標本Sから生じる回折光は、照明光の標本Sへの入射方向に依存する。図18(a)に示すように、照明光Lillの入射方向が光軸と平行である場合、0次回折光Lは、光軸上を進んで瞳位置に到達する。一方、+1次回折光L+1は光軸に対して+θの角度で結像光学系に入射して、瞳位置に到達する。また、−1次回折光L−1は光軸に対して−θの角度で結像光学系に入射して、瞳位置に到達する。
 上述のように、標本Sの位置と合焦位置がずれていると波面収差が生じる。この波面収差は、瞳面の中心に対して対称に発生する。そのため、図18(a)の場合、0次回折光Lに加わる波面収差量は0であるが、+1次回折光L+1と−1次回折光L−1には、所定量の波面収差が加わることになる。
 ここで、+1次回折光L+1の回折方向と−1次回折光L−1の回折方向は、光軸を挟んで対称になっており、波面収差も、瞳面の中心(光軸)に対して対称に発生している。そのため、+1次回折光L+1に加わる波面収差量と、−1次回折光L−1に加わる波面収差量は同じになる。
 図18(a)では、0次回折光Lには光軸上を進むので、0次回折光Lに加わる波面収差量は0である。+1次回折光L+1と−1次回折光L−1には、共に−λ/4の波面収差量が加わる。
 その結果、0次回折光Lの位相に変化は生じない。一方、+1次回折光L+1の位相と−1次回折光L−1の位相は、もともとの遅れπ/2に対してπ/2が更に加わるので、遅れは合計でπになる。すると、ψ=0−(−π)=πとなる。この場合、2Acosψ≠0となるので、位相情報がコントラスト情報として得られる。また、コントラストは、いわゆるダークコントラストになる。−1次回折光L−1については、+1次回折光L+1と同じである。
 次に、図18(b)に示すように、照明光Lillの入射方向と光軸との角度が小さい場合(角度がθの場合)、0次回折光Lは、照明光Lillの入射方向と同じ方向に進む。よって、0次回折光Lは光軸に対して+θの角度で結像光学系に入射して、瞳位置に到達する。一方、+1次回折光L+1は、所定の方向よりも更に外側(光軸から離れる方向)に回折される。よって、+1次回折光L+1は、光軸に対して+2θの角度で結像光学系に入射して、瞳位置に到達する。また、−1次回折光L−1も回折されるが、−1次回折光L−1は光軸上を進んで瞳位置に到達する。
 ここで、+1次回折光L+1の回折方向と−1次回折光L−1の回折方向は、光軸を挟んで非対称になっているが、波面収差は、瞳面の中心(光軸)に対して対称に発生している。そのため、0次回折光Lに加わる波面収差量、+1次回折光L+1に加わる波面収差量及び−1次回折光L−1に加わる波面収差量は、それぞれ異なる。
 図18(b)では、0次回折光Lには−λ/4の波面収差量が加わり、+1次回折光L+1には−3λ/4の波面収差量が加わる。一方、−1次回折光L−1は光軸上を進むので、−1次回折光L−1に加わる波面収差量は0になる。
 その結果、0次回折光Lの位相はπ/2遅れる。一方、+1次回折光L+1の位相は、もともとの遅れπ/2に対して3π/2が更に加わるので、遅れは合計で2πになる。すると、ψ=−π/2−(−2π)=3π/2となる。この場合、2Acosψ=0となるので、位相情報はコントラスト情報として得られない。一方、−1次回折光L+1については、加わる波面収差量が0なので、−1次回折光L+1の位相は、もともとの遅れπ/2だけになる。すると、φ=−λ/2−(−λ/2)=0となる。この場合、2Acosψ≠0となるので、位相情報がコントラスト情報として得られる。また、コントラストは、いわゆるブライトコントラストになる。
 次に、図18(c)に示すように、照明光Lillの入射方向と光軸との角度が大きい場合(角度が2θの場合)、0次回折光Lは、照明光Lillの入射方向と同じ方向に進む。よって、0次回折光Lは光軸に対して+2θの角度で結像光学系に入射して、瞳位置に到達する。一方、+1次回折光L+1は、結像光学系の有効口径よりも外側に回折される。よって、+1次回折光L+1は瞳位置に到達しない。また、−1次回折光L−1は光軸に対して+θの角度で結像光学系に入射して、瞳位置に到達する。
 ここで、+1次回折光L+1の回折方向と−1次回折光L−1の回折方向は、光軸を挟んで非対称になっているが、波面収差は、瞳面の中心(光軸)に対して対称に発生している。そのため、0次回折光Lに加わる生じる波面収差量と、−1次回折光L−1に加わる生じる波面収差量は異なる。
 図18(c)では、0次回折光Lには−3λ/4の波面収差量が加わり、−1次回折光L−1には、−λ/4の波面収差量が加わる。
 その結果、0次回折光Lの位相は3π/2遅れる。一方、−1次回折光L+1の位相は、もともとの遅れπ/2に対して更にπ/2が加わるので、遅れは合計でπになる。すると、ψ=−3π/2−(−π)=−π/2となる。この場合、2Acosψ=0となるので、位相情報はコントラスト情報として得られない。
 照明光学系の標本側の開口数が小さい場合、照明光Lillの入射方向は光軸と平行な方向になる。すなわち、図18(a)に示す状態になる。よって、光軸上の点の像は、いわゆるダークコントラストの状態で観察できる。ところが、照明光学系の標本側の開口数が大きくなるにしたがって、図18(b)や図18(c)に示すように、入射方向が光軸と交差する照明光Lillが加わってくる。
 そうすると、光軸上の点の像は、ダークコントラストの像に、ブライトコントラストの像が加わったものになる。そのため、像のコントラストが低下することになる。このように、照明光学系の標本側の開口数が大きくなると、コントラストの低下につながる光が増えてしまうことになる。
 なお、条件式(1)に代えて、下記の条件式(1’)を満足すると良い。
 0.02<NAill/NAob<0.9   (1’)
 さらに、条件式(1)に代えて、以下の条件式(1”)を満足するとなお良い。
 0.03<NAill/NAob<0.8   (1”)
 また、上述の各実施形態の標本観察装置では、以下の条件式(2)を満足することが好ましい。
 0.1μm<ΔZ×NAob <30μm   (2)
 ここで、
 ΔZは、結像光学系の合焦位置と標本の位置との差、
 NAobは、結像光学系の標本側の開口数、
である。
 条件式(2)を満足することで、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 条件式(2)の下限値を下回ると、結像光学系の合焦位置と標本の位置との差が小さくなりすぎる。この場合、回折光に加わる波面収差量が小さくなる。特に、1次回折光に加わる波面収差量がλ/4よりも小さくなる。そのため、コントラストの良い電子画像を得るのが難しくなる。
 条件式(2)の上限値を上回ると、結像光学系の合焦位置と標本の位置との差が大きくなりすぎる。この場合、回折光に加わる波面収差量が大きくなる。特に、1次回折光に加わる波面収差量がλ/4よりも大きくなる。また、光学像が大きくぼやけてしまう。その結果、解像度の高い電子画像を得るのが難しくなる。
 なお、条件式(2)に代えて、下記の条件式(2’)を満足すると良い。
 0.2μm<ΔZ×NAob <25μm   (2’)
 さらに、条件式(2)に代えて、以下の条件式(2”)を満足するとなお良い。
 0.3μm<ΔZ×NAob <20μm   (2”)
 また、上述の各実施形態の標本観察装置では、以下の条件式(3)を満足することが好ましい。
 0.05μm<ΔZ×NAill<10μm   (3)
 ここで、
 ΔZは、結像光学系の合焦位置と標本の位置との差、
 NAillは、照明光学系の標本側の開口数、
である。
 条件式(3)を満足することで、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 条件式(3)の下限値を下回ると、結像光学系の合焦位置と標本の位置との差が小さくなりすぎる。この場合、回折光に加わる波面収差量が小さくなる。特に、1次回折光に加わる波面収差量がλ/4よりも小さくなる。そのため、コントラストの良い電子画像を得るのが難しくなる。
 条件式(3)の上限値を上回ると、結像光学系の合焦位置と標本の位置との差が大きくなりすぎる。この場合、回折光に加わる波面収差量が大きくなる。特に、1次回折光に加わる波面収差量がλ/4よりも大きくなる。また、光学像が大きくぼやけてしまう。その結果、解像度の高い電子画像を得るのが難しくなる。また、条件式(3)の上限値を上回ると、照明光学系の標本側の開口数が大きくなりすぎる。この場合、光軸に対して斜めに入射する照明光が増加する。そのため、コントラストの良い電子画像を得るのが難しくなる。
 なお、条件式(3)に代えて、下記の条件式(3’)を満足すると良い。
 0.1μm<ΔZ×NAill<8μm   (3’)
 さらに、条件式(3)に代えて、以下の条件式(3”)を満足するとなお良い。
 0.2μm<ΔZ×NAill<6μm   (3”)
 また、上述の各実施形態の標本観察装置では、照明光学系は、コンデンサレンズと開口絞りを有することが好ましい。
 このようにすることで、対物レンズの光学性能にあわせて、照明光学系の標本側の開口数を適切な値に設定できる。そのため、コントラストの良い電子画像が得られる。
 また、上述の各実施形態の標本観察装置では、照明光学系は、ケーラー照明光学系であることが好ましい。
 このようにすることで、標本をむら無く照明できる。そのため、上述の標本観察方法における処理(画像処理)を簡素にできる。
 また、上述の各実施形態の標本観察装置では、照明光学系は、テレセントリック光学系であることが好ましい。
 このようにすることで、観察範囲の全域において、コントラストの良い電子画像が得られる。
 図19は、照明光学系がテレセントリック光学系である様子を示す図である。照明光学系は、コンデンサレンズ62と、開口絞り60とを有する。コンデンサレンズ62の前側焦点面61に、開口絞り60が配置されている。そのため、開口絞り60の中心から出射した軸上光束(実線で示す線)はコンデンサレンズ62で平行光束に変換され、標本の位置63に到達する。一方、開口絞り60の周辺から出射した軸外光束(破線で示す線)もコンデンサレンズ62で平行光束に変換され、標本の位置63に到達する。ここで、照明光学系がテレセントリック光学系になっているので、軸外光束では、その主光線が光軸と平行になるようにコンデンサレンズに入射する。
 図19に示すように、開口絞り60の中心を通る光束は光軸と平行になって標本の位置に到達する。標本は光軸と平行光束で照明され、標本からは0次回折光と1次回折光が出てくる。このうち、0次回折光は光軸と平行に進む。一方、+1次回折光と−1次回折光は光軸から離れる方向に進む。
 また、+1次回折光と−1次回折光は、光軸に対して対称になって進む。この場合、+1次回折光に加わる波面収差量と−1次回折光に加わる波面収差量は、共に等しくなる。0次回折光と+1次回折光が弱め合えば、0次回折光と−1次回折光も弱め合う。逆に、0次回折光と+1次回折光が強め合えば、0次回折光と−1次回折光も強め合う。そのため、観察範囲の全域において、コントラストの良い電子画像が得られる。
 また、上述の各実施形態の標本観察装置は、波長選択手段を有することが好ましい。あるいは、上述の各実施形態の標本観察装置では、照明光が単色光であることが好ましい。
 このようにすることで、コントラストの良い電子画像が得られる。特に、軸上色収差の発生量が大きい結像光学系を用いても、コントラストの良い電子画像が得られる。
 結像光学系の収差は少ないほど良い。本実施形態の標本観察装置(標本観察方法)では、特に、軸上色収差について良好に補正されていることが望ましい。軸上色収差色の発生量が大きいと、波長によって波面収差の発生量が異なってくる。例えば、白色光で標本を照明した場合、1次回折光に加わる波面収差量が、ある波長の光では1/4λで、別の波長の光では−1/4λになる可能性がある。
 この場合、ある波長の光では、ダークコントラストの像になるのに対して、別の波長の光では、ブライトコントラストの像になる。そのため、白色光全体でみると、コントラストの良い電子画像を得るのが難しくなる。
 そこで、標本観察装置が波長選択手段を有すると、コントラストの低下を抑制できる。標本観察装置が波長選択手段を持つことで、波長による波面収差の発生量のばらつきが無くなる。そのため、コントラストの良い電子画像が得られる。特に、軸上色収差が大きい結像光学系を用いる場合、波長選択手段を有すると、コントラストの良い電子画像が得られる。照明光が単色光の場合も同様である。
 上述のように、本実施形態における明視野観察の状態では、標本が無色透明な標本の場合、照明光と結像光は共通の波長の光を有していれば良い。そこで、標本観察装置1(図15)では、照明光学系20の光路中に、光学フィルタFL(波長選択手段)が配置できるようになっている。また、標本観察装置1’(図16)では、結像光学系31の光路中に、光学フィルタFLと光学フィルタFL’(不図示)を交互に配置できるようになっている。なお、標本観察装置300(図17)では、光学フィルタFLは図示してないが、標本観察装置1や標本観察装置1’と同様にできる。
 なお、光学フィルタFLは、移動可能にしておいても良い。また、光学フィルタFLの数は1枚に限られない。分光透過率特性がそれぞれ異なる光学フィルタFLを複数枚用意しておき、1枚又は複数枚を光路中に配置するようにしても良い。
 また、光学フィルタFLを配置する場所は、照明光学系と結像光学系のどちらか一方、又はその両方にすれば良い。また、撮像装置に光学フィルタFLを配置しても良い。撮像素子が光学フィルタを有している場合は、この光学フィルタを用いれば良い。
 また、光学フィルタFLが、長波長の光を透過させる特性を有する場合、この光学フィルタFLを用いれば、細胞に与えるダメージを低減できる。一方、光学フィルタFLが、短波長の光を透過させる特性を有する場合、この光学フィルタFLを用いれば、解像度の高い電子画像が得られる。
 また、光源自体を、波長帯域が狭い光を発するものにしても良い。このようにすれば、光学系の光路中に光学フィルタを配置しなくても良くなる。また、光源は複数用いても良い。
 また、上述の各実施形態の標本観察装置では、結像光学系はテレセントリック光学系であることが好ましい。
 このようにすることで、観察範囲のどこにおいても、0次回折光の角度を略同じにできる。そのため、観察範囲のどこにおいても、コントラストの良い電子画像が得られる。
 また、上述の各実施形態の標本観察装置では、結像光学系は開口絞りを有することが好ましい。また、上述の各実施形態の標本観察装置では、結像光学系は対物レンズを有し、開口絞りは対物レンズに設けられていることが好ましい。
 このようにすることで、標本に応じてコントラストの良い画像が得られる。
 顕微鏡対物レンズを用いて説明する。図20は、開口数(NA)がそれぞれ異なる2つの顕微鏡対物レンズにおける波面収差の様子を示す図である。図20において、実線で示す曲線と破線で示す曲線は、共に開口数と波面収差量の関係を示している。実線は、開口数が大きい顕微鏡対物レンズ(以下、適宜、「対物レンズOB」という)における波面収差量を示している。一方、破線は、開口数が小さい顕微鏡対物レンズ(以下、適宜、「対物レンズOB」という)における波面収差量を示している。
 対物レンズOBと対物レンズOBでは、共に開口数が0.2となる位置で波面収差量が−λ/4になっている。そこで、1次回折光の位置を開口数が0.2となる位置に一致させるようにすることで、コントラストの良い電子画像が得られる。
 しかしながら、対物レンズOBの開口数に比べて、対物レンズOBは開口数が大きい。そのため、対物レンズOBには、1次回折光よりも高次の回折光が入射する。ここで、高次の回折光にも波面収差量が加わる。そのため、波面収差量の大きさによっては、0次回折光と高次の回折光が弱めあったり強めあったりする。その結果、対物レンズOBでは、コントラストの良い電子画像を得るのが難しくなる。
 そこで、対物レンズOBに開口絞りを設けることで、対物レンズOBの開口数を制限できる。すなわち、対物レンズOBの開口数を対物レンズOBの開口数と同じ程度にできる。その結果、コントラストの良い電子画像が得られる。
 なお、顕微鏡対物レンズから撮像装置までの間で開口数を制限できるのであれば、開口絞りを配置する位置はどこでも良い。よって、結像光学系に開口絞りを持たせても良い。また、対物レンズとしては、顕微鏡対物レンズの他に、例えば、内視鏡対物レンズがある。
 また、上述の各実施形態の標本観察装置では、以下の条件式(4)を満足することが好ましい。
 0.5<λ/(P×NAim)<20   (4)
 ここで、
 λは、撮像素子に入射する光の波長、
 Pは、撮像装置における撮像素子の画素ピッチ、
 NAimは、結像光学系の撮像装置側の開口数、
である。
 なお、NAimは、結像光学系の標本側の開口数を結像光学系の投影倍率で割った値になる。
 条件式(4)を満足することで、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。また、解像度の高い電子画像が得られる。
 条件式(4)の下限値を下回ると、撮像素子におけるナイキスト周波数が、結像光学系(例えば、対物レンズ)のカットオフ周波数を大幅に下回る。そのため、電子画像の画質が悪くなる。条件式(4)の上限値を上回ると、結像光学系の分解能に比べて、撮像素子の画素が小さくなりすぎる。すなわち、電子画像は、画素数が必要以上に多い画像になる。そのため、電子画像の取扱いが困難になる。
 また、上述の各実施形態の標本観察装置は、駆動機構を有し、駆動機構は、保持部材、撮像装置及び結像光学系の少なくとも1つを、光軸に沿って移動させることが好ましい。
 このようにすることで、電子画像を容易に取得できる。特に、結像光学系や撮像素子を移動させると良い。結像光学系や撮像素子を移動させると、標本Sを静止状態にできる。そのため、標本が、非常にやわらかい構造を有している場合や、観察対象が液体中に浮遊しているような場合であっても、標本の状態を変化させることなく(形状の変形や液体中の位置を変化させることなく)電子画像が取得できる。
 別の実施形態の標本観察方法及び標本観察装置について説明する。以下の第9実施形態から第15実施形態までの標本観察方法及び第4実施形態から第6実施形態までの標本観察装置は、明視野観察の状態で用いられるものである。本実施形態における明視野観察では、蛍光観察のように、励起フィルタ、ダイクロイックミラー、吸収フィルタからなる蛍光ミラーユニットは用いられない。よって、明視野観察の状態では、標本が無色透明の場合、標本の像を形成する光(以下、適宜、「結像光」という)の波長帯域と標本を照明する光(以下、適宜、「照明光」という)の波長帯域とは、合焦時、一致している。
 また、本実施形態における明視野観察では、位相差観察における位相膜や、微分干渉観察における微分干渉プリズムは用いられない。よって、標本の一点から出た光についてみると、明視野観察の状態では、照明光学系における光の波面の変化と結像光学系における波面の変化はいずれもレンズのみで生じる。
 また、本実施形態における明視野観察では、標本から来る光束の一部を減光するような減光フィルタは用いられない。よって、明視野観察の状態では、標本から標本の像までの間で、結像光に強度変化は生じない(ただし、レンズに起因する強度変化は除く)。
 第9実施形態の標本観察方法は、標本の電子画像を取得する取得ステップと、電子画像の信号から直流成分を減算する減算ステップと、を有し、取得ステップは明視野観察の状態で行われ、減算ステップにおける電子画像は、第2の所定の状態で取得された画像であって、第2の所定の状態になる前に、第1の波長帯域の光で標本の位置と結像光学系の合焦位置を一致させ、第2の所定の状態では、少なくとも、第2の波長帯域の光で標本の光学像が形成されており、第2の波長帯域は第1の波長帯域のうちの一部と一致しているか、又は第1の波長帯域とは異なることを特徴とする。
 第9実施形態の標本観察方法について、図1を用いて説明する。図1は、第9実施形態の標本観察方法のフローチャートである。
 第9実施形態の標本観察方法は、取得ステップS10と、減算ステップS20とを有する。これにより、第9実施形態の標本観察方法では、明瞭な電子画像が得られる。
 第9実施形態の標本観察方法では、まず、取得ステップS10が実行される。取得ステップS10では、標本の電子画像(以下、適宜、「電子画像」という)の取得が行われる。標本の像(光学像)は、結像光学系によって形成される。電子画像の取得では、この像をCCDやCMOSのような撮像素子で撮像する。撮像によって、標本の像は電子画像(デジタルデータ)に変換される。なお、標本の像は明視野観察の状態で形成されているので、電子画像の取得も明視野観察の状態で行われる。
 取得ステップS10が終わると、減算ステップS20が実行される。減算ステップS20では、電子画像の信号に対して直流成分(バイアス成分)の減算が行われる。ここで、減算ステップS20における電子画像は、第2の所定の状態で取得された画像である。
 減算ステップS20における電子画像は、第2の所定の状態、すなわち、第2の波長帯域の光で標本の光学像が形成されているときの画像である。また、第2の所定の状態になる前では、第1の波長帯域の光で標本の位置と結像光学系の合焦位置(以下、適宜、「合焦位置」という)を一致させている。そして、第2の波長帯域は第1の波長帯域のうちの一部と一致しているか、又は第1の波長帯域とは異なっている。このように、第9実施形態の標本観察方法では、電子画像を取得する前と電子画像を取得する時(瞬間)とでは、光の波長帯域が異なっている。
 ここで、標本が格子状の位相物体の場合、標本を照明すると、標本から0次回折光と回折光が出てくる。結像光学系がある程度の軸上色収差を持っている状態で、電子画像を取得する前と電子画像を取得する時とで、光の波長帯域を異ならせる。すると、電子画像を取得する前の光と電子画像を取得する時の光との間に、波面収差の差(光路長差)が発生する。この点ついて、図21~図26を使って説明する。なお、回折光として1次回折光を用いて説明する。また、結像光学系は軸上色収差をある程度有しているものとする。
 図21は、第1の波長帯域(中心波長λ1=550nm)での合焦位置と第2の波長帯域(中心波長λ2=450nm)での合焦位置との関係、及び波面収差量を示す図であって、(a)は第1の波長帯域の光で標本の位置と合焦位置を一致させたときの図、(b)は第2の波長帯域の光で標本の光学像が形成されているときの図である。図22は、第1の波長帯域(中心波長λ1=550nm)での標本の電子画像である。図23は、第2の波長帯域(中心波長λ2=450nm)での標本の電子画像である。図24は、第1の波長帯域(中心波長λ1=550nm)での合焦位置と第2の波長帯域(中心波長λ2=650nm)での合焦位置との関係、及び波面収差量を示す図であって、(a)は第1の波長帯域の光で標本の位置と合焦位置を一致させたときの図、(b)は第2の波長帯域の光で標本の光学像が形成されているときの図である。図25は、第1の波長帯域(中心波長λ1=550nm)での標本の電子画像である。図26は、第2の波長帯域(中心波長λ2=650nm)での標本の電子画像である。なお、図22、23、25及び26は、いずれも減算ステップS20が実行された後の電子画像である。また、図22、23、25及び26における標本は細胞である。
 また、グラフは瞳位置での波面収差の量を表している。グラフの縦軸は波面収差量(単位は波長)、横軸は瞳面(瞳面上)の中心からの距離を表している。瞳面の中心からの距離は規格化されているので、無名数となっている。横軸の数値0は瞳面の中心位置、数値1は瞳面の最も外側の位置を表している。
 図21(a)に示すように、光軸上の一点から出た光には、光線Lと光線Lとが含まれている。光線Lは光軸上を進む光線である。ここで、光線Lと瞳面の交点は、瞳面の中心位置に一致している。一方、光線Lは、光軸AXに対して所定の角度で結像光学系31に入射する光線である。ここで、光線Lと瞳面の交点は、瞳面の中心から所定の距離だけ離れた位置になっている。
 標本Sを照明光(平行光束)で照明すると、標本Sから0次回折光と1次回折光が出てくる。ここで、標本Sと光軸が交わる点(光軸上の一点)に着目すると、0次回折光は回折されないので、この点から出た0次回折光は光軸上を進んで瞳の中心に到達する。よって、0次回折光は光線Lとみなすことができる。一方、1次回折光は所定の方向に回折されるので、この点から出た1次回折光は光軸に対して所定の角度で結像光学系31に入射する。結像光学系31に入射した1次回折光は、瞳面の中心から離れた位置に到達する。よって、1次回折光は光線Lとみなすことができる。
 まず、第1の波長帯域の中心波長λ1が550nm、第2の波長帯域の中心波長λ2が450nmの場合について説明する。第1の波長帯域の光で標本の位置と合焦位置を一致させた状態では、第1の波長帯域の合焦位置P550は標本Sの位置Pと一致している。この状態では、図21(a)のグラフに示すように、瞳面のどの位置においても波面収差量はほぼ0になっている。これは、0次回折光における波面収差量と1次回折光における波面収差量が、共にほぼ0であることを示している。波面収差量に(2π/λ)を乗じた値は位相量に相当するので、合焦時は、0次回折光と1次回折光のいずれにおいても、位相に変化は生じない。1次回折光の位相は、0次回折光の位相に対してπ/2遅れたままなので、ψ=0−(−π/2)=π/2となる。この場合、2Acosψ=0となるので、位相情報をコントラスト情報として得られない。その結果、図22に示すように、電子画像はコントラストが無い画像になる。
 一方、第2の波長帯域で標本の光学像が形成されている状態では、第2の波長帯域の合焦位置は標本の位置からずれている。図21(b)では、第2の波長帯域の合焦位置P450は標本Sの位置P(合焦位置P550)よりも下方向(結像光学系31から離れる方向)にずれている。この状態では、図21(b)のグラフに示すように、瞳面の中心では波面収差量は0であるが、瞳面の中心から離れた位置では波面収差が発生する。ここで、波面収差は参照波面に対する実際の波面のずれで、このずれは位相のずれになる。そのため、波面収差が発生している範囲内に、1次回折光の位置があると、1次回折光の位相は、本来持っている位相に波面収差量が加わったものになる。このように、電子画像を取得する前と電子画像を取得する時とで、光の波長帯域を異ならせることで、1次回折光の位相を変化させられる。図21(b)のグラフに示すように、瞳の中心からの距離が0.4の位置を位置Pとすると、位置Pにおける波面収差量は−λ/4になる。
 このようにすることで、0次回折光における波面収差量を0にしたままで、1次回折光における波面収差量を−λ/4にできる。上述のように、波面収差量に(2π/λ)を乗じた値は位相量であるので、非合焦時は、0次回折光については位相に変化は生じないが、1次回折光については位相に変化が生じる。具体的には、1次回折光では、もともとの位相の遅れπ/2に加えて、更に位相がπ/2遅れる。1次回折光の位相は、0次回折光の位相に対してπ遅れた状態になるので、ψ=0−(−π)=πとなる。この場合、2Acosψ≠0となるので、位相情報がコントラスト情報として得られる。その結果、図23に示すように、電子画像は、コントラストを明らかに持った画像になる。よって、この電子画像を、例えば、表示装置に表示すれば、観察者は標本S(標本Sの像)を明瞭に観察できる。
 次に、第1の波長帯域の中心波長λ1が550nm、第2の波長帯域の中心波長λ2が650nmの場合について説明する。第1の波長帯域の光で標本Sの位置と合焦位置を一致させた状態では、第1の波長帯域の合焦位置P550は標本Sの位置Pと一致している。これは、図21(a)と同じである。そのため、図25に示すように、電子画像はコントラストが無い画像になる。
 一方、第2の波長帯域λ2で標本の光学像が形成されている状態では、第2の波長帯域の合焦位置P650は標本Sの位置P(合焦位置P550)よりも下方向(結像光学系31から離れる方向)にずれている。この状態では、図24(b)のグラフに示すように、瞳面の中心では波面収差量は0であるが、瞳面の中心から離れた位置では波面収差が発生する。ここで、合焦位置P650は合焦位置P450と異なっている。
 この場合、瞳面における1次回折光の位置における波面収差量は、図24(b)と図21(b)とで異なる。図24(b)のグラフに示すように、瞳の中心からの距離が0.4の位置Pでは、波面収差量は約−1λ/10になっている。
 このように、電子画像を取得する前と電子画像を取得する時とで、光の波長帯域を異ならせることで、0次回折光における波面収差量を0にしたままで、1次回折光における波面収差量を−λ/10にできる。波面収差量は異なるが、これは図21(b)と同じような状態である。そのため、図26に示すように、電子画像は、コントラストを明らかに持った画像になる。よって、観察者は標本S(標本Sの像)を明瞭に観察できる。
 図21(b)では、1次回折光における波面収差量が−λ/4になっている。この場合、0次回折光の位相と1次回折光の位相は逆位相の関係になる。逆位相の関係では、0次回折光と1次回折光は弱めあうことになる。よって、電子画像では、背景に比べて標本Sが暗くなる。これは、位相差観察におけるダークコントラストに相当する。
 また、1次回折光における波面収差量がλ/4になる場合、0次回折光の位相と1次回折光の位相は同位相の関係になる。同位相の関係では、0次回折光と1次回折光は強めあうことになる。よって、電子画像では、背景に比べて標本Sが明るくなる。これは、位相差観察におけるブライトコントラストに相当する。
 また、回折光の回折角は、標本Sが持っている空間周波数によって異なる。例えば、標本Sを格子状の位相物体とした場合、格子の間隔が広いということは、標本Sが持っている空間周波数が低いということになる。一方、格子の間隔が狭いということは、標本Sが持っている空間周波数が高いということになる。ここで、格子の間隔が広いほど回折角は小さく、格子の間隔が狭いほど回折角は大きくなる。よって、標本Sが低い空間周波数を持つ場合回折角は小さく、標本Sが高い空間周波数を持つ場合回折角は大きくなる。
 細胞には、様々な空間周波数を持つ構造が含まれている。そのため、標本Sが細胞の場合、波面収差量が−λ/4となる位置を、どの空間周波数における1次回折光の位置と一致させるかで、標本の像の見え方が変わってくる。
 高い空間周波数における1次回折光の位置で波面収差量が−λ/4となるように、第2の波長帯域を設定すると、電子画像では、空間周波数の高い部分が明瞭になる。一方、低い空間周波数における1次回折光の位置で波面収差量が−λ/4となるように、第2の波長帯域を設定すると、電子画像では、空間周波数の低い部分が明瞭になる。
 例えば、図24(b)に示すように、瞳の中心からの距離が0.64の位置を位置P’とすると、位置P’における波面収差量は−λ/4になる。よって、1次回折光が位置P’を通過するような空間周波数を標本Sが持っていれば、その空間周波数に相当する部分を明瞭に観察できる。
 また、第2の波長帯域の合焦位置が標本Sの位置(第1の波長帯域の合焦位置)よりも上方向にずれるようにしても良い。例えば、第1の波長帯域の中心波長λ1を650nm、第2の波長帯域の中心波長λ2を550nmにしても良い。
 なお、本実施形態の観察方法では、第1の波長帯域と第2の波長帯域とでは、中心波長の差はそれほど大きくない。この場合、電子画像を取得する前と電子画像を取得する時とで光の波長帯域を異ならせても、結像光学系31に対する1次回折光の入射位置はほとんど変化しない。そのため、瞳面での1次回折光の位置も、ほとんど変化しないものとみなせる。よって、波長帯域を変えるだけで、1次回折光に追加される波面収差量を変化させられる。
 上述のように、取得ステップS10では、電子画像を取得する前と電子画像を取得する時とで、光の波長帯域が異なっている。そのため、2Acosψ≠0になる。この場合、像面における光の強度Iは以下のようになる。
 I=A +A +2Acosψ
 ここで、A +A は標本の像における直流成分(バイアス成分)、すなわち、電子画像の信号うちの直流成分(バイアス成分)を表している。このうち、0次回折光の振幅A は、非常に大きな値を持つ。そこで、減算ステップS20で、A の値を小さくする。このようにすることで、A +A の値に対して2Acosψの値を相対的に大きくできる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第9実施形態の標本観察方法によれば、明視野観察の状態でありながら、無色透明な標本を明瞭に観察できる。
 第10実施形態の標本観察方法は、減算ステップよりも後に増幅ステップを有し、増幅ステップでは、減算ステップ後の電子画像の信号を増幅するものである。
 第10実施形態の標本観察方法について、図12(a)を用いて説明する。図12(a)は、第10実施形態の標本観察方法のフローチャートである。
 第10実施形態の標本観察方法は、図12(a)に示すように、取得ステップS10と減算ステップS20に加え、更に、増幅ステップS30−2を有する。これにより、第10実施形態の標本観察方法では、より明瞭な電子画像が得られる。
 上述のように、A +A は標本の像の直流成分、すなわち、電子画像の信号うちの直流成分を表している。減算ステップS20では、A の値を小さくすることで、2Acosψの値をA +A の値に対して相対的に大きくしている。
 これに対して、第10実施形態の標本観察方法では、取得ステップS10と減算ステップS20の終了後に、増幅ステップS30−2が実行される。増幅ステップS30−2では、2Acosψの値を大きくしている(増幅している)。このようにすることで、A +A の値に対して2Acosψの値を相対的により大きくできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、増幅ステップS30−2を、第9実施形態の標本観察方法に用いても良い。この場合、増幅ステップS30−2は、比較ステップS30−1よりも前に実行される。
 以上のように、第10実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第11実施形態の標本観察方法は、電子画像の信号をフーリエ変換する変換ステップと、逆フーリエ変換を行う逆変換ステップと、を有し、変換ステップは、減算ステップよりも前に行われ、逆変換ステップは、少なくとも減算ステップよりも後に行われるものである。
 第11実施形態の標本観察方法について、図12(b)と図13を用いて説明する。図12(b)は、第11実施形態の標本観察方法のフローチャートである。図13は、各空間周波数における大きさを示す図であって、(a)は減算ステップ実行前の状態、(b)は減算ステップ実行後の状態を示す図である。
 第11実施形態の標本観察方法は、図12(b)に示すように、取得ステップS10と減算ステップS20に加え、更に、変換ステップS15−1と逆変換ステップS30−3とを有する。これにより、第11実施形態の標本観察方法では、より明瞭な電子画像が簡単に得られる。
 上述のように、減算ステップS20では、A の値を小さくすることで、A +A の値に対して2Acosψの値を相対的に大きくしている。ここで、周波数空間で減算ステップS20が実行されると、減算を効率的に行える。
 減算ステップS20における減算について、図13を用いて説明する。上述のように、細胞のような標本には、様々な空間周波数を持つ構造が含まれている。そこで、標本Sの像の明るさを空間周波数ごとに分離できれば、空間周波数ごとに減算が行える。
 そこで、第11実施形態の標本観察方法では、取得ステップS10の終了後に、変換ステップS15−1が実行される。変換ステップS15−1では、電子画像の信号をフーリエ変換する。その結果、図13(a)に示すように、空間周波数ごとに、その大きさ(縦軸、明るさに相当)が分離される。図13(a)では、横軸の数値は空間周波数を示しており、空間周波数が0では、その大きさは100で、空間周波数が1では、その大きさは30になっている。
 ここで、空間周波数の値(横軸の数値)は、回折光の次数と対応している。そのため、空間周波数0では、その大きさ(縦軸の数値)は0次回折光の明るさに対応する。同様に、空間周波数1では、その大きさは1次回折光の明るさに対応する。そこで、変換ステップS15−1の終了後に、減算ステップS20が実行される。この減算ステップS20では、空間周波数0での大きさを小さくしている。例えば、図13(b)に示すように、空間周波数0での大きさを、100から50に半減させている。これは、A の値を小さくすることに相当する。このようにすることで、0次光の明るさを小さくできる。
 続いて、逆変換ステップS30−3が実行される。逆変換ステップS30−3では、逆フーリエ変換を行う。これにより、電子画像の信号を得ることができる。なお、減算ステップS20によって、0次光の明るさ、すなわち、A の値が小さくなっている。そのため、A +A の値に対して2Acosψの値を相対的により大きくできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、変換ステップS15−1と逆変換ステップS30−3を、第10実施形態の標本観察方法に用いても良い。この場合、変換ステップS15−1は、減算ステップS20よりも前に実行される。また、逆変換ステップS30−3は、減算ステップS20よりも後に実行される。
 以上のように、第11実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第12実施形態の標本観察方法は、事前取得ステップと、規格化ステップと、を有し、事前取得ステップでは、標本が無い状態で電子画像を取得し、規格化ステップでは、電子画像で標本の電子画像を規格化し、減算ステップの前に、規格化ステップを行うものである。
 第12実施形態の標本観察方法について、図14を用いて説明する。図14は第12実施形態の標本観察方法のフローチャートである。
 第12実施形態の標本観察方法は、図14に示すように、取得ステップS10と減算ステップS20に加え、更に、事前取得ステップS00と規格化ステップS15−2とを有する。これにより、第12実施形態の標本観察方法では、より明瞭な電子画像が得られる。
 なお、図14では、減算ステップS20の後に、増幅ステップS30−2が備わっているが、この増幅ステップS30−2は必須ではない。
 標本Sの像の明るさは、照明光学系による影響や結像光学系による影響を受けることがある。例えば、照明光学系や結像光学系を光が通過することで、通過後の光の明るさにむらが生じる。この場合、照明光学系や結像光学系による明るさのむらのために、標本Sの像にも明るさにむらが生じる。この明るさのむらは電子画像の画質を低下させるので、除去することが好ましい。
 そこで、第12実施形態の標本観察方法では、取得ステップS10の実行に先立って、事前取得ステップS00が実行される。事前取得ステップS00では、標本Sが無い状態で電子画像Aの取得が行われる。このとき、電子画像Aは、明るさのむらのみの画像になる。
 続いて、取得ステップS10が実行され、標本Sの電子画像Bの取得が行われる。この電子画像Bは、標本Sの像に、照明光学系や結像光学系による明るさのむらが加わった画像になる。そこで、規格化ステップS15−2が実行される。規格化ステップS15−2では、電子画像Aで電子画像Bを規格化する。すなわち、以下の演算、
 電子画像B/電子画像A
を規格化ステップS15−2において行う。これにより、電子画像Bにおける明るさのむらが、電子画像Aにおける明るさのむらでキャンセルされる。そのため、規格化後の電子画像は、照明光学系や結像光学系による明るさのむらが低減された画像になる。
 規格化ステップS15−2の終了後、減算ステップS20が実行される。減算ステップS20では、規格化後の電子画像においてA の値を小さくし、これにより、A +A の値に対して2Acosψの値を相対的に大きくする。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 なお、事前取得ステップS00と規格化ステップS15−2を、第10実施形態の標本観察方法や第11実施形態の標本観察方法に用いても良い。この場合、事前取得ステップS00は、取得ステップS10よりも前に実行される。また、規格化ステップS15−2は、減算ステップS20よりも前に実行される。
 以上のように、第12実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第13実施形態の標本観察方法は、第1の波長帯域に対して第2の波長帯域を複数回変化させ、変化させた第2の波長帯域で、取得ステップと減算ステップが実行され、これにより、減算ステップを実行した後の電子画像を複数生成し、生成した複数の電子画像を加算するものである。
 第13実施形態の標本観察方法によれば、電子画像の生成の際に、低い周波数空間から高い空間周波数までの各々の周波数空間でコントラストが高くなっている画像が使われる。よって、生成された電子画像では、どの空間周波数においてもコントラストが高くなっている。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第13実施形態の標本観察方法によれば、明視野観察の状態でありながら、明瞭に無色透明な標本を観察できる。
 第14実施形態の標本観察方法は、加算の前に、複数の電子画像の各々について、電子画像のうちでコントラストが最も高い部分を抽出し、抽出した部分を使って加算を行うものである。
 第14実施形態の標本観察方法によれば、加算によって電子画像を生成する時に、各周波数空間でコントラストが最も高くなっている部分のみが使われている。よって、生成された電子画像では、どの空間周波数においてもコントラストが非常に高くなっている。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 以上のように、第14実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第15実施形態の標本観察方法では、第2の波長帯域の変化は、第2の所定の状態における波面収差量の符号が同じ状態で行われるものである。
 上述のように、1次回折光における波面収差量が−λ/4になると、電子画像はダークコントラストの画像になる。すなわち、電子画像では、背景に比べて標本Sが暗くなる。一方、1次回折光における波面収差量が+λ/4になると、電子画像はブライトコントラストの画像になる。すなわち、電子画像では、背景に比べて標本Sが明るくなる。
 そこで、加算によって電子画像を生成する時は、波面収差量の符号が同じ状態の画像を用いるのが良い。このようにすることで、生成した電子画像を、ダークコントラストのみに基づく画像、あるいは、ブライトコントラストのみに基づく画像にできる。その結果、標本S(標本Sの像)をより明瞭に観察できる。
 以上のように、第15実施形態の標本観察方法によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 本実施形態の標本観察装置について説明する。第4実施形態から第6実施形態までの標本観察装置は、光源と、照明光学系と、結像光学系と、撮像装置と、画像処理装置と、を有し、照明光学系は、光源からの照明光を標本に照射するように配置され、結像光学系は、標本からの光が入射するように配置されると共に、標本の光学像を形成し、撮像装置は光学像の位置に配置され、画像処理装置は、上述の第9実施形態から第15実施形態までの標本観察方法を行うことを特徴とする。
 第4実施形態の標本観察装置の構成を図27に示す。標本観察装置2は、正立型顕微鏡を用いた観察システムである。標本観察装置1と同じ部材については同じ番号を付け、説明は省略する。
 標本観察装置2では、照明部20は、光源21と照明光学系22とを有する。照明光学系22は、コンデンサレンズ23と、開口絞り24と、光学フィルタFLとを有する。なお、図27に示すように、照明光学系22は、レンズ25と、ミラー26と、レンズ27とを備えていても良い。図27では、コンデンサレンズ23と開口絞り24はステージ11に保持されている。照明光学系22は、光源21からステージ11までの間の光路中に配置されている。
 次に、標本観察装置2を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第9実施形態の標本観察方法を例に説明する。なお、光源21として、白色光源を用いる。
 まず、観察者は、照明光学系22と結像光学系31を、明視野観察の状態となるようにする。続いて、観察者は、ステージ11に標本Sを載置する。そして、観察者は、合焦位置からずれていると思われる位置まで、目測で標本を移動させる。これにより、明視野観察の状態で、なお且つ標本Sの位置と合焦位置とが異なった状態になる。続いて、画像処理装置40を作動させる。なお、これらの作業は、順不同で行って良い。
 画像処理装置40が作動することで、標本Sの像が撮像可能になるので、取得ステップS10が実行される。取得ステップS10が実行されることで、電子画像の取得が行われる。取得ステップS10で取得された電子画像は、画像処理装置40内の一時記憶部(不図示)に保存される。
 続いて、減算ステップS20が実行される。減算ステップS20では、A の値を小さくすることで、2Acosψの値がA +A の値に対して相対的に大きくなる。減算ステップS20の実行結果は、例えば、表示装置50に表示される。
 上述のように、標本Sの位置の設定は目測で行われている。この場合、標本Sの位置と合焦位置とが大きく異なっている可能性が高いので、標本Sの像は大きくぼけている。そのため、標本Sの像が撮像されても、観察者は表示装置50で電子画像を観察できない。
 そこで、観察者は焦準ノブを操作して、標本Sを合焦位置に向けて移動させる。標本Sの位置が顕微鏡対物レンズ35から大きく離れている場合、観察者は、標本Sが顕微鏡対物レンズ35に近づく方向にステージ11を移動させれば良い。一方、標本Sの位置が顕微鏡対物レンズ35に非常に近い場合、観察者は、標本Sが顕微鏡対物レンズ35から離れる方向にステージ11を移動させれば良い。
 標本Sを移動させている間、撮像は常に行われている。よって、取得ステップS10と減算ステップS20も、常に実行されている。そこで、観察者は、表示装置50で電子画像を観察しながら標本Sを光軸に沿って移動させ、標本Sの位置を合焦位置に一致させる。このとき、照明光学系22の光路中には光学フィルタは配置されていないので、標本Sは白色光(第1の波長帯域の光)で照明されている。このときの合焦位置は、緑色の光(波長が500nm~560nmの光)で合焦した時の位置とみなせる。
 続いて、照明光学系22の光路中に光学フィルタFLを挿入する。ここで、光学フィルタFLの波長帯域(透過率特性)を、中心波長が450nm、波長幅が±20nmとする。この場合、光学フィルタFLの波長帯域は、白色光の波長帯域のうちの一部と一致している。
 光学フィルタFLを光路中に挿入すると、第2の波長帯域の光で標本の光学像が形成された状態になる。そこで、第2の波長帯域の光で、電子画像の取得が行われる。これにより、電子画像を取得する前と電子画像を取得する時(瞬間)とで、光の波長帯域が異なる状態になる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第4実施形態の標本観察装置によれば、明視野観察の状態でありながら、無色透明な標本を観察できる。
 第5実施形態の標本観察装置の構成を図28に示す。標本観察装置2’は、倒立型顕微鏡を用いた観察システムである。標本観察装置1’と同じ部材については同じ番号を付け、説明は省略する。
 標本観察装置2’では、結像光学系31は、光学フィルタFL、FL’を有する。光学フィルタFLは結像光学系31の光路中に配置されている。光学フィルタFL’は結像光学系31の光路外に配置されている。光学フィルタFLと光学フィルタFL’は、交換可能になっている。
 次に、標本観察装置2’を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第9実施形態の標本観察方法を例に説明する。なお、光源21’として、白色光源を用いる。
 まず、観察者は、照明光学系22’と結像光学系31を、明視野観察の状態となるようにする。そして、観察者は、ステージ11に標本Sを載置する。次に、光学フィルタLFを結像光学系31の光路に挿入する。ここで、光学フィルタFLの波長帯域(透過率特性)を、中心波長が550nm、波長幅が±20nmとする。続いて、画像処理装置40を作動させる。なお、これらの作業は、順不同で行って良い。
 観察者は、観察開始の情報を画像処理装置40に入力する。ここで、画像処理装置40に、合焦位置の情報が予め記憶されているとする。画像処理装置40はレボルバ33(顕微鏡対物レンズ35)の現在の位置と合焦位置との情報に基づいて、移動量を算出する。算出した結果に基づいて、画像処理装置40はモータ12に駆動信号を送信する。送信された信号に基づいて、モータ12はレボルバ33を移動させ、標本Sの位置が合焦位置と一致した状態にする。このときの合焦位置は、波長帯域が550nm±20nmの光(第1の波長帯域の光)で合焦した時の位置とみなせる。
 続いて、結像光学系31の光路中から光学フィルタFLを取り出し、代わりに光学フィルタFL’を挿入する。ここで、光学フィルタFL’の波長帯域(透過率特性)を、中心波長が650nm、波長幅が±20nmとする。この場合、光学フィルタFL’の波長帯域は、光学フィルタFLの波長帯域と異なっている。
 光学フィルタFL’を光路中に挿入すると、第2の波長帯域の光で標本の光学像が形成された状態になる。そこで、第2の波長帯域の光で、電子画像の取得が行われる。これにより、電子画像を取得する前と電子画像を取得する時(瞬間)とで、光の波長帯域が異なる状態になる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 光学フィルタFLとして、波長可変干渉フィルタを用いても良い。波長可変干渉フィルタは、波長帯域(透過率特性)を変えられる光学フィルタである。波長可変干渉フィルタを用いれば、光学フィルタFLと光学フィルタFL’との交換が不要になる。
 なお、次のようにしても良い。白色光(第1の波長帯域の光)で標本を照明して、標本Sの位置と合焦位置とが一致した状態にする。そして、結像光学系31の光路中に光学フィルタFLを挿入する。光学フィルタFLを光路中に挿入すると、第2の波長帯域の光で標本の光学像が形成された状態になる。この場合、光学フィルタFLの波長帯域は、白色光の光学フィルタFL’の波長帯域と異なっている。よって、電子画像を取得する前と電子画像を取得する時(瞬間)とで、光の波長帯域が異なる状態になる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 また、次のようにしても良い。照明光学系22の光路中に光学フィルタFLを挿入して、標本Sの位置と合焦位置とが一致した状態にする。そして、照明光学系22の光路中から光学フィルタFLを取り出し、代わりに結像光学系31の光路中に光学フィルタFL’を挿入する。光学フィルタFL’を光路中に挿入すると、第2の波長帯域の光で標本の光学像が形成された状態になる。この場合、光学フィルタFLの波長帯域は、光学フィルタFL’の波長帯域と異なっている。よって、電子画像を取得する前と電子画像を取得する時(瞬間)とで、光の波長帯域が異なる状態になる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 以上のように、第5実施形態の標本観察装置によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 第6実施形態の標本観察装置の構成を図29に示す。標本観察装置301は、電子内視鏡を用いた観察システムである。図29(a)は、観察装置の概略構成を示す図、図29(b)は、光学系の構成を示す図である。標本観察装置300と同じ部材については同じ番号を付け、説明は省略する。
 標本観察装置301では、照明部は、光源と照明光学系とを有する。光源からの光は光ファイバ401から出射する。照明光学系は、レンズ402と、ミラー403と、レンズ404と、ハーフプリズム405と、対物レンズ406とを備える。観察部は、結像光学系と撮像装置とを有する。結像光学系は、対物レンズ406と、ハーフプリズム405と、結像レンズ407と、光学フィルタ409とを有する。撮像装置は撮像素子408を有する。この光学系では、標本Sは落射照明で照明される。
 標本観察装置301を用いて、実施形態の標本観察方法を実施する手順について説明する。ここでは、第11実施形態の標本観察方法を例に説明する。なお、光源として、白色光源を用いる。
 まず、観察者は、照明光学系と結像光学系を、明視野観察の状態となるようにする。続いて、観察者は、合焦位置と思われる位置まで、目測で挿入部141を移動させる。そして、画像処理装置200を作動させる。なお、これらの作業は、順不同で行って良い。
 画像処理装置200が作動することで、標本Sの像が撮像可能になるので、取得ステップS10が実行される。取得ステップS10が実行されることで、電子画像の取得が行われる。取得ステップS10で取得された電子画像は、画像処理装置200内の一時記憶部(不図示)に保存される。
 続いて、減算ステップS20が実行される。減算ステップS20では、A の値を小さくすることで、2Acosψの値がA +A の値に対して相対的に大きくなる。
 減算ステップS20の終了後、増幅ステップS30−2が実行される。増幅ステップS30−2では、2Acosψの値を大きくする(増幅する)。これにより、A +A の値に対して2Acosψの値が相対的により大きくなる。増幅ステップS30−2の実行結果は、例えば、表示装置204に表示される。
 挿入部141を移動させている間、撮像は常に行われている。よって、取得ステップS10、減算ステップS20及び増幅ステップS30−2も、常に実行されている。そこで、観察者は、表示装置204で電子画像を観察しながら挿入部141を移動させ、標本Sの位置を合焦位置に一致させる。このとき、照明光学系22の光路中には光学フィルタは配置されていないので、標本Sは白色光(第1の波長帯域の光)で照明されている。このときの合焦位置は、緑色の光(波長が500nm~560nmの光)で合焦した時の位置とみなせる。
 続いて、照明光学系22の光路中に光学フィルタFLを挿入する。ここで、光学フィルタFLの波長帯域(透過率特性)を、中心波長が650nm、波長幅が±20nmとする。この場合、光学フィルタFLの波長帯域は、白色光の波長帯域のうちの一部と一致している。
 光学フィルタFLを光路中に挿入すると、第2の波長帯域の光で標本の光学像が形成された状態になる。そこで、第2の波長帯域の光で、電子画像の取得が行われる。これにより、電子画像を取得する前と電子画像を取得する時(瞬間)とで、光の波長帯域が異なる状態になる。その結果、標本S(標本Sの像)を明瞭に観察できる。
 なお、対物レンズ406、結像レンズ407及び撮像素子408の少なくとも1つを、光軸に沿って移動させても良い。これらの移動には、例えば、マイクロアクチュエータ(不図示)やボイスコイルモータ(不図示)を用いれば良い。このようにすれば、合焦状態の調整を細かにできる。よって、挿入部141の移動は、ある程度のコントラストを持つ電子画像が取得できたところまでで済む。
 以上のように、第6実施形態の標本観察装置によれば、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 また、上述の第4実施形態から第6実施形態までの標本観察装置では、以下の条件式(5)を満足することが好ましい。
 10μm<d/NAob <1000μm   (5)
 ここで、
 dは、第1の波長帯域に対する第2の波長帯域における軸上色収差の量、
 NAobは、結像光学系の標本側の開口数、
である。
 条件式(5)を満足することで、明視野観察の状態でありながら、より明瞭に無色透明な標本を観察できる。
 条件式(5)の下限値を下回ると、第1の波長帯域における波面収差量と第2の波長帯域における波面収差量との差が小さくなりすぎる。この場合、回折光に加わる波面収差量が小さくなる。特に、1次回折光に加わる波面収差量がλ/4よりも小さくなる。そのため、コントラストの良い電子画像を得るのが難しくなる。
 条件式(5)の上限値を上回ると、第1の波長帯域における波面収差量と第2の波長帯域における波面収差量との差が大きくなりすぎる。この場合、回折光に加わる波面収差量が大きくなる。特に、1次回折光に加わる波面収差量がλ/4よりも大きくなる。また、収差量が大きくなりすぎるので、光学像が大きくぼやけてしまう。その結果、解像度の高い電子画像を得るのが難しくなる。
 また、上述の第4実施形態から第6実施形態までの標本観察装置では、結像光学系は対物レンズを有し、対物レンズにおける軸上色収差は、波長変化に対して単調に変化することが好ましい。
 このようにすることで、コントラストの良い電子画像が得られる。対物レンズにおける軸上色収差が波長変化に対して単調に変化すると、波長による波面収差のカーブの変化が分かりやすい。そのため、第2の波長帯域の選択において、コントラストと解像度が高くなる波長帯域を容易に選択できる。
 また、上述の第4実施形態から第6実施形態までの標本観察装置では、撮像装置は撮像素子を有し、撮像素子では、波長帯域が異なる微小な光学フィルタが画素ごとに配置されていることが好ましい。
 このようにすることで、コントラストの良い電子画像が容易に得られる。撮像素子には、光学フィルタが配置されている。この光学フィルタは、微小な光学フィルタを複数備えている。微小な光学フィルタには、例えば、赤色フィルタ、緑色フィルタ、青フィルタがある。そして、色フィルタの各々は、複数個配置されている。
 そこで、色フィルタごとに画像信号を取り出せば、容易に、第2の波長帯域の光で形成された光学像を撮像できる。すなわち、照明光学系の光路中や結像光学系の光路中に、光学フィルタを配置させる必要が無い。なお、撮像素子はモノクロの撮像素子であっても良い。
 なお、本発明は、その趣旨を逸脱しない範囲で様々な変形例をとることができる。
 以上のように、本発明は、明視野観察の状態でありながら、無色透明な標本、例えば、細胞を観察できる標本観察方法及び標本観察装置に適している。
 AX 光軸
 FL、FL’ 光学フィルタ
 HM ハーフミラー
 Lill 照明光
 L 光線(0次回折光)
 L 光線(1次回折光)
 L 0次回折光
 L−1 −1次回折光
 L+1 +1次回折光
 M ミラー
 OB、OB 対物レンズ
 P 標本Sの位置
 P 結像光学系の合焦位置
 S 標本
 X1、X2、X3、X4 区間
 1、1’、2、2’ 標本観察装置
 10 本体部
 11 ステージ
 12 モータ
 20、20’ 照明部
 21、21’ 光源
 22、22’ 照明光学系
 23 コンデンサレンズ
 24 開口絞り
 25、25’ レンズ
 26 ミラー
 27、27’ レンズ
 30 観察部
 31 結像光学系
 32 撮像装置
 33 レボルバ
 34 観察鏡筒
 35 顕微鏡対物レンズ
 36 撮像レンズ
 37 結像レンズ
 38 プリズム
 39 撮像素子
 40 画像処理装置
 50 表示装置
 100 電子内視鏡
 100a スコープ部
 100b 接続コード部
 140 操作部
 141 挿入部
 142 先端部
 150 ユニバーサルコード
 200 画像処理装置
 204 表示ユニット
 250 コネクタ
 300、301 標本観察装置
 401 光ファイバ
 402、404 レンズ
 403 ミラー
 405 ハーフプリズム
 406 対物レンズ
 407 結像レンズ
 408 撮像素子
 409 光学フィルタ

Claims (35)

  1.  標本の電子画像を取得する取得ステップと、
     前記電子画像の信号から直流成分を減算する減算ステップと、を有し、
     前記取得ステップは明視野観察の状態で行われ、
     前記減算ステップにおける前記電子画像は、第1の所定の状態で取得された画像であって、
     該第1の所定の状態では、少なくとも、前記標本の位置と結像光学系の合焦位置とが異なっていることを特徴とする標本観察方法。
  2.  前記減算ステップよりも後に比較ステップを有し、
     前記取得ステップを少なくとも3回行い、
     先に取得した電子画像と後に取得した電子画像とを、前記比較ステップで比較し、
     所定の条件を満足する電子画像が得られるまで、前記取得ステップから前記比較ステップまでを繰り返し行うことを特徴とする請求項1に記載の標本観察方法。
  3.  前記減算ステップよりも後に増幅ステップを有し、
     前記増幅ステップでは、前記減算ステップ後の電子画像の信号を増幅することを特徴とする請求項1または2に記載の標本観察方法。
  4.  前記電子画像の信号をフーリエ変換する変換ステップと、
     逆フーリエ変換を行う逆変換ステップと、を有し、
     前記変換ステップは、前記減算ステップよりも前に行われ、
     前記逆変換ステップは、少なくとも前記減算ステップよりも後に行われることを特徴とする請求項1から3のいずれか一項に記載の標本観察方法。
  5.  事前取得ステップと、
     規格化ステップと、を有し、
     前記事前取得ステップでは、前記標本が無い状態で電子画像を取得し、
     前記規格化ステップでは、該電子画像で前記標本の電子画像を規格化し、
     前記減算ステップの前に、前記規格化ステップを行うことを特徴とする請求項1から4のいずれか一項に記載の標本観察方法。
  6.  前記結像光学系の合焦位置に対して前記標本の位置を複数回変化させ、
     変化させた前記標本の位置で、前記取得ステップと前記減算ステップが行われ、
     これにより、前記減算ステップを実行した後の電子画像を複数生成し、
     生成した前記複数の電子画像を加算することを特徴とする請求項1から5のいずれか一項に記載の標本観察方法。
  7.  前記加算の前に、前記複数の電子画像の各々について、前記電子画像のうちでコントラストが最も高い部分を抽出し、
     前記抽出した部分を使って前記加算を行うことを特徴とする請求項6に記載の標本観察方法。
  8.  前記標本の位置の変化は、前記第1の所定の状態における波面収差量の符号が同じ状態で行われることを特徴とする請求項6または7に記載の標本観察方法。
  9.  光源と、照明光学系と、結像光学系と、撮像装置と、画像処理装置と、を有し、
     前記照明光学系は、前記光源からの照明光を標本に照射するように配置され、
     前記結像光学系は、前記標本からの光が入射するように配置されると共に、前記標本の光学像を形成し、
     前記撮像装置は前記光学像の位置に配置され、
     前記画像処理装置は、請求項1から8のいずれか一項に記載の標本観察方法を行うことを特徴とする標本観察装置。
  10.  表示装置を有し、
     前記表示装置は、前記画像処理装置からの出力信号を表示することを特徴とする請求項9に記載の標本観察装置。
  11.  以下の条件式(1)を満足することを特徴とする請求項9または10に記載の標本観察装置。
     0.01<NAill/NAob<1   (1)
     ここで、
     NAillは、前記照明光学系の前記標本側の開口数、
     NAobは、前記結像光学系の前記標本側の開口数、
    である。
  12.  以下の条件式(2)を満足することを特徴とする請求項9から11のいずれか一項に記載の標本観察装置。
     0.1μm<ΔZ×NAob <30μm   (2)
     ここで、
     ΔZは、前記結像光学系の合焦位置と前記標本の位置との差、
     NAobは、前記結像光学系の前記標本側の開口数、
    である。
  13.  以下の条件式(3)を満足することを特徴とする請求項9から12のいずれか一項に記載の標本観察装置。
     0.05μm<ΔZ×NAill<10μm   (3)
     ここで、
     ΔZは、前記結像光学系の合焦位置と前記標本の位置との差、
     NAillは、前記照明光学系の前記標本側の開口数、
    である。
  14.  前記照明光学系は、コンデンサレンズと開口絞りを有することを特徴とする請求項9から13のいずれか一項に記載の標本観察装置。
  15.  前記照明光学系は、ケーラー照明光学系であることを特徴とする請求項9から14のいずれか一項に記載の標本観察装置。
  16.  前記照明光学系は、テレセントリック光学系であることを特徴とする請求項9から15のいずれか一項に記載の標本観察装置。
  17.  波長選択手段を有することを特徴とする請求項9から16のいずれか一項に記載の標本観察装置。
  18.  前記照明光が単色光であることを特徴とする請求項9から17のいずれか一項に記載の標本観察装置。
  19.  前記結像光学系は、テレセントリック光学系であることを特徴とする請求項9から18のいずれか一項に記載の標本観察装置。
  20.  前記結像光学系は、開口絞りを有することを特徴とする請求項9から19のいずれか一項に記載の標本観察装置。
  21.  前記結像光学系は対物レンズを有し、
     前記開口絞りは前記対物レンズに設けられていることを特徴とする請求項20に記載の標本観察装置。
  22.  以下の条件式(4)を満足することを特徴とする請求項9から21のいずれか一項に記載の標本観察装置。
     0.5<λ/(P×NAim)<20   (4)
     ここで、
     λは、前記撮像装置における撮像素子に入射する光の波長、
     Pは、前記撮像装置における撮像素子の画素ピッチ、
     NAimは、前記結像光学系の前記撮像装置側の開口数、
    である。
  23.  駆動機構を有し、
     前記駆動機構は、前記保持部材、前記撮像装置及び前記結像光学系の少なくとも1つを、光軸に沿って移動させることを特徴とする請求項9から22のいずれか一項に記載の標本観察装置。
  24.  標本の電子画像を取得する取得ステップと、
     前記電子画像の信号から直流成分を減算する減算ステップと、を有し、
     前記取得ステップは明視野観察の状態で行われ、
     前記減算ステップにおける前記電子画像は、第2の所定の状態で取得された画像であって、
     前記第2の所定の状態になる前に、第1の波長帯域の光で前記標本の位置と結像光学系の合焦位置を一致させ、
     該第2の所定の状態では、少なくとも、第2の波長帯域の光で前記標本の光学像が形成されており、
     前記第2の波長帯域は前記第1の波長帯域のうちの一部と一致しているか、又は前記第1の波長帯域とは異なることを特徴とする標本観察方法。
  25.  前記減算ステップよりも後に増幅ステップを有し、
     前記増幅ステップでは、前記減算ステップ後の電子画像の信号を増幅することを特徴とする請求項24に記載の標本観察方法。
  26.  前記電子画像の信号をフーリエ変換する変換ステップと、
     逆フーリエ変換を行う逆変換ステップと、を有し、
     前記変換ステップは、前記減算ステップよりも前に行われ、
     前記逆変換ステップは、少なくとも前記減算ステップよりも後に行われることを特徴とする請求項24または25に記載の標本観察方法。
  27.  事前取得ステップと、
     規格化ステップと、を有し、
     前記事前取得ステップでは、前記標本が無い状態で電子画像を取得し、
     前記規格化ステップでは、該電子画像で前記標本の電子画像を規格化し、
     前記減算ステップの前に、前記規格化ステップを行うことを特徴とする請求項24から26のいずれか一項に記載の標本観察方法。
  28.  前記第1の波長帯域に対して前記第2の波長帯域を複数回変化させ、
     変化させた前記第2の波長帯域で、前記取得ステップと前記減算ステップを実行し、
     これにより、前記減算ステップを実行した後の電子画像を複数生成し、
     生成した前記複数の電子画像を加算することを特徴とする請求項24から27のいずれか一項に記載の標本観察方法。
  29.  前記加算の前に、前記複数の電子画像の各々について、前記電子画像のうちでコントラストが最も高い部分を抽出し、
     前記抽出した部分を使って前記加算を行うことを特徴とする請求項28に記載の標本観察方法。
  30.  前記第2の波長帯域の変化は、前記第2の所定の状態における波面収差量の符号が同じ状態で行われることを特徴とする請求項28または29に記載の標本観察方法。
  31.  光源と、照明光学系と、結像光学系と、撮像装置と、画像処理装置と、を有し、
     前記照明光学系は、前記光源からの照明光を標本に照射するように配置され、
     前記結像光学系は、前記標本からの光が入射するように配置されると共に、前記標本の光学像を形成し、
     前記撮像装置は前記光学像の位置に配置され、
     前記画像処理装置は、請求項24から30のいずれか一項に記載の標本観察方法を行うこと
    を特徴とする標本観察装置。
  32.  表示装置を有し、
     前記表示装置は、前記画像処理装置からの出力信号を表示することを特徴とする請求項31に記載の標本観察装置。
  33.  以下の条件式(5)を満足することを特徴とする請求項31または32に記載の標本観察装置。
     10μm<d/NAob <1000μm   (5)
     ここで、
     dは、前記第1の波長帯域に対する前記第2の波長帯域における軸上色収差の量、
     NAobは、前記結像光学系の前記標本側の開口数、
    である。
  34.  前記結像光学系は対物レンズを有し、
     該対物レンズにおける軸上色収差は、波長変化に対して単調に変化することを特徴とする請求項31から33のいずれか一項に記載の標本観察装置。
  35.  前記撮像装置は撮像素子を有し、
    前記撮像素子では、波長帯域が異なる微小な光学フィルタが画素ごとに配置されている
     ことを特徴とする請求項31から34のいずれか一項に記載の標本観察装置。
PCT/JP2013/078635 2013-02-28 2013-10-15 標本観察方法及び標本観察装置 WO2014132485A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13876585.4A EP2963475A4 (en) 2013-02-28 2013-10-15 SAMPLE MONITORING PROCEDURE AND SAMPLE MONITORING DEVICE
US14/835,844 US10241316B2 (en) 2013-02-28 2015-08-26 Sample observation method and sample observation device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013040143A JP6218394B2 (ja) 2013-02-28 2013-02-28 標本観察方法及び標本観察装置
JP2013-040143 2013-02-28
JP2013-040142 2013-02-28
JP2013040142A JP6385643B2 (ja) 2013-02-28 2013-02-28 標本観察方法及び標本観察装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/835,844 Continuation US10241316B2 (en) 2013-02-28 2015-08-26 Sample observation method and sample observation device

Publications (1)

Publication Number Publication Date
WO2014132485A1 true WO2014132485A1 (ja) 2014-09-04

Family

ID=51427778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/078635 WO2014132485A1 (ja) 2013-02-28 2013-10-15 標本観察方法及び標本観察装置

Country Status (3)

Country Link
US (1) US10241316B2 (ja)
EP (1) EP2963475A4 (ja)
WO (1) WO2014132485A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367447A (zh) * 2020-11-04 2021-02-12 清华大学深圳国际研究生院 编码光照实时对焦扫描成像装置和方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185619A1 (ja) 2015-05-20 2016-11-24 オリンパス株式会社 標本観察装置及び標本観察方法
DE102016115856B4 (de) * 2016-08-25 2020-01-02 Leica Microsystems Cms Gmbh Verfahren zur Bildgebung in einem Mikroskop mit schiefer Beleuchtung
AU2019297911A1 (en) 2018-07-06 2021-01-21 Nipro Corporation Observation device
CN115079372B (zh) * 2022-05-05 2024-09-17 深圳安侣医学科技有限公司 显微图像获取装置快速对焦方法和显微图像获取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122648A (ja) * 1994-10-18 1996-05-17 Olympus Optical Co Ltd 微分干渉顕微鏡
JP2004354650A (ja) * 2003-05-28 2004-12-16 Olympus Corp 顕微鏡観察方法及びそれに用いる顕微鏡
JP2005173288A (ja) 2003-12-12 2005-06-30 Olympus Corp 顕微鏡観察方法及びそれを用いるための顕微鏡
JP2009145754A (ja) * 2007-12-17 2009-07-02 Nikon Corp 焦点調節装置および顕微鏡装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL103463A (en) * 1992-10-18 1995-12-08 Grinvald Amiram Method and system for amplifying reflection
US5754299A (en) * 1995-01-13 1998-05-19 Nikon Corporation Inspection apparatus and method for optical system, exposure apparatus provided with the inspection apparatus, and alignment apparatus and optical system thereof applicable to the exposure apparatus
JP4253381B2 (ja) 1997-12-02 2009-04-08 オリンパス株式会社 顕微鏡用電子カメラ
US6947587B1 (en) * 1998-04-21 2005-09-20 Hitachi, Ltd. Defect inspection method and apparatus
US6898168B2 (en) * 2000-05-12 2005-05-24 Konica Corporation Optical pick-up apparatus
WO2005043522A1 (ja) * 2003-11-04 2005-05-12 Konica Minolta Opto, Inc. 光ピックアップ装置、及び光ピックアップ装置に用いる補正素子
US7564622B2 (en) 2003-12-12 2009-07-21 Olympus Corporation Methods for implement microscopy and microscopic measurement as well as microscope and apparatus for implementing them
JP4921978B2 (ja) 2004-11-09 2012-04-25 株式会社カネカ 細胞培養装置、画像処理装置及び細胞検出システム
JP4869694B2 (ja) 2005-12-02 2012-02-08 川崎重工業株式会社 位相物体検出装置及び位相物体検出方法
WO2007116711A1 (ja) * 2006-03-29 2007-10-18 Nikon Corporation 計測方法、計測装置及び処理装置、並びにパターン形成方法及びデバイス製造方法
JP4917404B2 (ja) 2006-10-18 2012-04-18 オリンパス株式会社 位相物体の可視化方法とその顕微鏡システム
GB0814297D0 (en) 2008-08-05 2008-09-10 Ge Healthcare Uk Ltd Microscopy
KR101823954B1 (ko) * 2008-11-13 2018-01-31 브루커 나노, 인코퍼레이션. 탐침형 원자 현미경 작동 방법 및 장치
JP5438315B2 (ja) 2008-12-24 2014-03-12 株式会社カネカ 細胞培養装置の細胞検出システム
JPWO2011077647A1 (ja) * 2009-12-24 2013-05-02 パナソニック株式会社 光学ヘッド、光ディスク装置、情報処理装置及び対物レンズ
US8425037B2 (en) * 2010-07-30 2013-04-23 Adventus Technologies, Inc. Intraoperative imaging system and apparatus
JP5814684B2 (ja) * 2010-09-03 2015-11-17 オリンパス株式会社 位相物体の可視化方法及び可視化装置
JP2012200567A (ja) * 2011-03-28 2012-10-22 Fujifilm Corp 放射線撮影システム及び放射線撮影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122648A (ja) * 1994-10-18 1996-05-17 Olympus Optical Co Ltd 微分干渉顕微鏡
JP2004354650A (ja) * 2003-05-28 2004-12-16 Olympus Corp 顕微鏡観察方法及びそれに用いる顕微鏡
JP2005173288A (ja) 2003-12-12 2005-06-30 Olympus Corp 顕微鏡観察方法及びそれを用いるための顕微鏡
JP2009145754A (ja) * 2007-12-17 2009-07-02 Nikon Corp 焦点調節装置および顕微鏡装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2963475A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367447A (zh) * 2020-11-04 2021-02-12 清华大学深圳国际研究生院 编码光照实时对焦扫描成像装置和方法

Also Published As

Publication number Publication date
EP2963475A4 (en) 2016-10-26
EP2963475A1 (en) 2016-01-06
US10241316B2 (en) 2019-03-26
US20160025959A1 (en) 2016-01-28

Similar Documents

Publication Publication Date Title
JP6264377B2 (ja) 構造化照明装置及び構造化照明顕微鏡装置
JP5814684B2 (ja) 位相物体の可視化方法及び可視化装置
EP2136233B1 (en) Microscope device
JP6444869B2 (ja) 誘導放出抑制顕微鏡検査
WO2014132485A1 (ja) 標本観察方法及び標本観察装置
US20160202460A1 (en) 3D Microscopy With Illumination Engineering
WO2014178294A1 (ja) 標本観察装置及び標本観察方法
JP2006154230A (ja) ズーム顕微鏡
JP6506908B2 (ja) 合焦方法、計測方法、合焦装置、及び計測装置
JPH10221607A (ja) 共焦点顕微鏡
JP2006301599A (ja) 微弱光撮像光学系、それを備えた顕微鏡装置、及びそれを備えた顕微鏡システム
US9729800B2 (en) Image generation system
JPWO2009066650A1 (ja) 変調コントラスト顕微鏡
US20120140057A1 (en) Microscope for Measuring Total Reflection Fluorescence
JP6385643B2 (ja) 標本観察方法及び標本観察装置
CN103168265A (zh) 成像系统和其关联的方法
JP2007041510A (ja) 観察装置、及びそれを備えた観察システム
WO2020241868A1 (ja) 光学機器の調整方法、調整支援方法、光学システム、光学機器
JP2005173288A (ja) 顕微鏡観察方法及びそれを用いるための顕微鏡
US20220244516A1 (en) Microscope device and data generation method using microscope
WO2016063429A1 (ja) 標本観察装置及び標本観察方法
WO2014064935A1 (ja) 撮像装置及び顕微鏡システム
US20060291048A1 (en) Multi-axis imaging system with single-axis relay
US20050088735A1 (en) Multi-axis imaging system with single-axis relay
JP6218394B2 (ja) 標本観察方法及び標本観察装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876585

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013876585

Country of ref document: EP