WO2019159627A1 - オートフォーカス装置ならびにそれを備える光学装置および顕微鏡 - Google Patents

オートフォーカス装置ならびにそれを備える光学装置および顕微鏡 Download PDF

Info

Publication number
WO2019159627A1
WO2019159627A1 PCT/JP2019/002216 JP2019002216W WO2019159627A1 WO 2019159627 A1 WO2019159627 A1 WO 2019159627A1 JP 2019002216 W JP2019002216 W JP 2019002216W WO 2019159627 A1 WO2019159627 A1 WO 2019159627A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical system
image
light source
autofocus
Prior art date
Application number
PCT/JP2019/002216
Other languages
English (en)
French (fr)
Inventor
真人 安井
通夫 廣島
昌宏 上田
Original Assignee
国立研究開発法人理化学研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人理化学研究所 filed Critical 国立研究開発法人理化学研究所
Priority to JP2020500356A priority Critical patent/JP7226825B2/ja
Priority to DE112019000783.1T priority patent/DE112019000783T5/de
Priority to CN201980013041.5A priority patent/CN111819485B/zh
Priority to US16/967,814 priority patent/US11567293B2/en
Publication of WO2019159627A1 publication Critical patent/WO2019159627A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present disclosure relates to an autofocus device, an optical device including the autofocus device, and a microscope.
  • NA numerical aperture
  • FIG. 30 is a diagram for explaining a conventional first method.
  • the first method is a method for viewing the contrast of an aperture image taken by a camera.
  • a diaphragm 502 is arranged at a position conjugate with the sample on the bottom surface of the glass container 501, and an image of the diaphragm 502 is formed at the position of the sample (bottom surface of the glass container).
  • the camera 503 captures an image of the aperture reflected from the glass surface.
  • a stage scan is performed to move the glass container or objective lens up and down, and the sample image is focused by focusing on the aperture image.
  • the problem with the first method is that a stage scan is required for focusing and it takes time. Depending on the stage scan speed, it takes about tens of seconds. In addition, there is a problem that the range in which the aperture image can be seen is narrow even if the speed is increased by attaching two cameras to a multifocal system and eliminating stage scanning.
  • FIG. 31 is a diagram for explaining a conventional second method.
  • the second method is a method of focusing by looking at the reflection position on the glass surface. Light from the LED 561 passes through the objective lens 523 and enters the sample 522 at an angle. Then, the position of the reflected light is acquired by the CCD camera 564. Since the second method can be controlled so that the position of the beam is at the center, it is possible to always maintain the focus.
  • the problem with the second method is that the accuracy of focusing is poor.
  • the phenomenon of inaccuracy is caused by distortion of the optical system.
  • the position of the incident light is shifted by X / (magnification). Since this deviation occurs due to various external factors such as heat and vibration, it is necessary to adjust the offset every time.
  • the range and accuracy of focusing depend on the angle at which the beam is incident on the glass surface S. For this reason, there is a pinch between the accuracy and the range.
  • JP2015-227940A Japanese Patent No. 5612259
  • An object of the present invention is to provide an autofocus device capable of autofocusing with high accuracy, a wide range, and high speed even in a microscope having a large numerical aperture, and an optical device and a microscope including the autofocus device.
  • the present disclosure relates to an autofocus device used in an optical device that includes a stage that supports a transparent member on which an observation object is placed, and a magnifying optical system that observes the observation object.
  • the autofocus device is a light source device that emits light to an observation object via a magnifying optical system, and a radiated light emitted from the light source device that is disposed at a position opposite to the observation object with respect to the magnifying optical system.
  • Light detection that receives the reflected light reflected by the reflecting surface from the light source device that reaches the reflecting surface of the transparent member via the shielding surface and the enlarging optical system via the enlarging optical system
  • the control device determines the position of the stage or the magnifying optical system based on the reflected light of the shielding object obtained by making the radiation light from the light source device limited by the shielding object incident on the observation object under a plurality of different conditions. Adjust.
  • the light source device is configured to be able to variably adjust the angular distribution of light emitted to the shield.
  • the autofocus device further includes an optical element that reflects part of the emitted light from the light source device limited by the shield.
  • the emitted light from the light source device reflected by the optical element enters the observation object.
  • the autofocus device further includes an optical element that shields, reduces, or reflects a part of the emitted light from the light source device limited by the shield. Radiated light from the light source device that has passed without being shielded, dimmed or reflected by the optical element is incident on the observation object.
  • control device determines a control target value from the position of the reflection image of the shielding object obtained under a plurality of different conditions, and adjusts the position of the stage or the magnifying optical system.
  • control device determines a control target value from the light intensity obtained by dividing and integrating a plurality of shielding object images obtained under a plurality of different conditions, and adjusts the position of the stage or the magnifying optical system.
  • the present disclosure relates to an autofocus device used in an optical device that includes a stage that supports a transparent member on which an observation object is placed and a magnification optical system that observes the observation object.
  • the autofocus device is a light source device that emits light to an observation object via a magnifying optical system, and a radiated light emitted from the light source device that is disposed at a position opposite to the observation object with respect to the magnifying optical system.
  • Shielding object to be limited, and imaging device that receives reflected light reflected by the reflecting surface from the light source device that reaches the reflecting surface of the transparent member via the shielding object and the magnifying optical system via the magnifying optical system
  • a control device for controlling the position of the stage or the magnifying optical system.
  • the light source device emits light at a non-zero angle with respect to the axis of the magnifying optical system.
  • the control device adjusts the position of the stage or the magnifying optical system so that the position of the image of the shield imaged by the imaging device matches the target position.
  • control device adjusts the position of the stage or the magnifying optical system so that the position of the opening of the shielding object in the image of the shielding object photographed by the imaging device matches the target position.
  • control device separates the inside and the outside of the opening in the image of the shielding object by performing image processing on the image obtained by the imaging device.
  • the light source device is configured such that the angle of light emitted with respect to the shield is variable.
  • the control device emits light at a first position that is a position of an image of the shielding object when the light source device emits light at a first angle and at a second angle different from the first angle to the light source device.
  • the position of the stage or the magnifying optical system is adjusted so that the difference from the second position, which is the position of the image of the shielding object in the case of this, becomes the target value.
  • the light source device is configured such that the angle of light emitted with respect to the shield is variable.
  • the control device coarsely adjusts the position of the stage or the magnifying optical system based on the first position that is the position of the image of the shielding object when the light source device emits light at the first angle, and the light source device receives the first light source device.
  • the position of the stage or the magnifying optical system is finely adjusted based on the second position that is the position of the image of the shielding object when light is emitted at a second angle that is larger than this angle.
  • the light source device is configured to be able to change the angle at which the light emitted from the light source device receives light emitted from the light source device and receives the light emitted from the light source device toward the shielding object.
  • an electro-optical element The control device changes the angle of the electric optical element depending on whether the angle of the light emitted from the light source device is the first angle or the second angle.
  • the magnifying optical system includes an objective lens, a half mirror, an optical path through which the half mirror transmits, an optical path through which the half mirror reflects, and an optical path through which the half mirror transmits. And a camera-side imaging lens disposed on the other of the optical paths reflected by the half mirror.
  • the light source device emits polarized light
  • the magnifying optical system is disposed between the objective lens, the quarter-wave plate, the polarization beam splitter, the quarter-wave plate and the polarization beam splitter. Imaging lens.
  • control device adjusts the position of the stage or the magnifying optical system based on the coordinates of the center of gravity of the image of the aperture in the image of the shielding object.
  • control device adjusts the position of the stage or the magnifying optical system based on the coordinates of the edge of the image of the opening in the image of the shielding object.
  • the present disclosure relates to an optical device including a stage, a magnifying optical system, and any one of the autofocus devices described above.
  • the present disclosure relates to a microscope including a stage, a magnifying optical system, and any one of the above autofocus devices.
  • the present invention it is possible to realize autofocus capable of autofocus with high accuracy, wide range, and high speed.
  • imaging with a microscope having a large numerical aperture can be easily automated.
  • FIG. 1 it is a figure for demonstrating the modification at the time of using a slit instead of an aperture_diaphragm
  • FIG. 3 is a flowchart for illustrating autofocus control in the first embodiment.
  • FIG. 10 is a diagram illustrating the principle of autofocus executed in the second embodiment. In Embodiment 2, it is a figure for demonstrating the modification at the time of using a slit instead of an aperture_diaphragm
  • restriction. 10 is a flowchart for illustrating autofocus control in the second embodiment. It is the image of the slit caught with the camera for AF.
  • 6 is a diagram illustrating a configuration of an optical system of a microscope according to a third embodiment. FIG. It is an image in case an incident angle is a positive angle. It is an image in case an incident angle is a negative angle.
  • FIG. 10 is a flowchart for illustrating autofocus control in the third embodiment.
  • FIG. 6 is a diagram illustrating a configuration of an optical system of a microscope according to a fourth embodiment.
  • FIG. 19 is a diagram showing a positional relationship between the shape of the rotary mirror RM1 and the light B in FIG. In the microscope 201 shown in FIG. 18, it is a figure which shows the state which the rotation mirror RM1 rotated 180 degrees.
  • FIG. 21 is a diagram showing a positional relationship between the state of the rotating mirror RM1 shown in FIG.
  • FIG. 10 is a diagram illustrating a configuration of an optical system of a microscope according to a fifth embodiment.
  • FIG. 23 is a diagram showing a state in which a rotary mask RM2 is rotated by 180 ° in the microscope 251 shown in FIG.
  • FIG. 25 is a diagram showing a positional relationship between the state of the rotary mask RM2 shown in FIG.
  • FIG. 10 is a diagram illustrating a configuration of an optical system of a microscope according to a sixth embodiment.
  • FIG. 27 is a diagram showing a positional relationship between the shape of the rotary mask RM3 and the light B in FIG.
  • the microscope 271 shown in FIG. 26 it is a figure which shows the state which the rotation mask RM3 rotated 180 degrees.
  • It is a figure which shows the positional relationship of the state of the rotation mask RM3 shown in FIG.
  • It is a figure for demonstrating the conventional 1st method.
  • It is a figure for demonstrating the conventional 2nd method.
  • FIG. 1 is a diagram illustrating a configuration of an optical system of a microscope according to the present embodiment.
  • Light from the AF laser 11 is reflected by the electric mirror M and enters the iris IR. Since the diaphragm IR and the electric mirror M are in a conjugate relationship, the incident angle ⁇ of light to the diaphragm IR can be controlled by the angle ⁇ of the electric mirror M.
  • the light from the iris IR passes through the imaging lens L2 and the objective lens OL, and is reflected by the surface of the glass 19 (glass surface S) on which the sample 20 is placed.
  • the reflected light is imaged by the autofocus camera (AF camera) 22 through the objective lens OL and the imaging lens L1, and an image of the iris IR is reflected on the AF camera 22.
  • AF camera autofocus camera
  • the feature of this embodiment is that the shaped light is irradiated at an angle with respect to the glass surface S on which the sample 20 is placed on the stage ST, and the position of the reflected image is observed.
  • the sample is irradiated with light vertically without an angle, and the reflection image is blurred.
  • the present embodiment is different in that light is incident at an angle ⁇ and the position of the reflected image is viewed.
  • the incident light is incident at an angle ⁇ , and the position of the image of the iris IR in the reflected image is measured, so that it can be determined in which direction and how far the focal point is from the glass surface S. This leads to faster focusing.
  • Patent Document 2 On the other hand, in the second method shown in Patent Document 2, light is incident without being shaped and the position of the center of gravity of the light is observed.
  • the method of the present embodiment is different in that incident light is shaped using an iris IR. Since the shape of the image is determined by the iris IR, the reflected image derived from the sample can be erased by image processing. This leads to higher accuracy of autofocus.
  • Patent Document 2 also differs in that the straightness of the light applied to the glass surface is low. If the straightness of the light is low, the image changes remarkably due to a change in focus, so it is easy to lose reflected light, leading to a reduction in range.
  • this method is different in that the incident angle can be adjusted. By adjusting the incident angle, the balance between range and accuracy can be adjusted.
  • the autofocus device according to the present embodiment is useful for easily realizing automation of a microscope.
  • a microscope 1 shown in FIG. 1 includes a stage ST, an autofocus optical system, and an observation optical system.
  • the microscope 1 is a light source including an AF laser 11, an electric mirror M, and a Kepler beam expander 13, an aperture IR, an imaging lens L2, a half mirror HM, and a dichroic mirror DM as an autofocus optical system. And an objective lens OL, an imaging lens L1, and an AF camera 22.
  • the microscope 1 further includes an excitation filter 23, an observation dichroic mirror 24, absorption filters 25 and 28, an imaging lens 26, and an observation camera 27 as an observation optical system.
  • the laser light reflected by the electric mirror M passes through the beam expander 13 and enters the aperture IR.
  • the incident angle ⁇ of the laser to the iris IR can be controlled by the angle ⁇ of the electric mirror M. Since the diaphragm IR and the glass surface S are in a conjugate position, a shadow of the diaphragm IR is imaged on the glass surface S. The image of the iris IR is reflected and projected onto the AF camera 22.
  • the observation optical system light having a wavelength that passes through the AF dichroic mirror DM and the absorption filter 28 can be used.
  • the sample 20 can be irradiated with light through the observation dichroic mirror 24. Then, fluorescence or reflected light can be observed with the observation camera 27.
  • the absorption filter 28 absorbs only the light from the AF light source and prevents the leaked light from the AF light source from entering the observation camera 27.
  • the microscope 1 further includes a control device 100 that controls the angle ⁇ of the electric mirror M, the position of the aperture IR in the D direction, and the position of the stage ST.
  • the control device 100 may control not only the position of the stage ST but also the position or both of the objective lens OL and other lenses (lens before the camera and before the aperture). In the following, for the sake of explanation, the control device 100 proceeds with a method of controlling the position of the stage ST.
  • FIG. 2 is a block diagram showing objects to be controlled by the control device.
  • the control device 100 adjusts the position of the aperture IR in the D direction by using the aperture position adjustment unit 101.
  • the control device 100 adjusts the angle ⁇ of the electric mirror M by the mirror angle adjustment unit 102.
  • the control device 100 drives the stage position adjusting unit 103 based on the position in the image of the aperture IR image captured by the AF camera 22 and controls the position of the stage ST in the Z direction.
  • FIG. 3 is a diagram showing the principle of autofocus executed in the first embodiment.
  • the laser light is incident on the sample 20 at an incident angle corresponding to the incident angle ⁇ to the diaphragm IR.
  • the AF camera 22 observes the image of the iris IR as in the camera image P1.
  • the position of the image of the iris IR also shifts left and right in the image.
  • the target position XT of the iris IR image corresponding to the in-focus position is determined in advance, and the difference dx between the position X1 of the iris IR image obtained from the camera image P1 and the target position XT is calculated.
  • the in-focus position is when the difference dx is zero. Since the direction and amount of movement of the stage ST on which the glass surface S is placed can be known from the difference dx, it is possible to always focus at high speed.
  • the accuracy is deteriorated. This is because the reflected image deteriorates the positioning accuracy of the image of the iris IR.
  • the image of the aperture portion of the aperture IR is an image depending on a sample such as a cell, and the reflected image of the aperture IR is not uniform. For this reason, when the position of the image of the iris IR is determined by the weighted center of gravity such as a divided photodiode, the focus is shifted depending on the image of the sample.
  • the image is separated by image processing (for example, binarization processing, contour extraction processing, etc.) so that the aperture is a white image and the shielding portion by the iris IR is a black image. It is preferable to do. This enables highly accurate autofocus independent of the sample.
  • FIG. 4 is a diagram for explaining a modification in the first embodiment in which a slit is used instead of a circular diaphragm.
  • the difference dx is calculated from the position of the weighted center of gravity of the image of the iris IR.
  • the X coordinate of the image is used as it is, or X1 is calculated by a simple calculation.
  • the difference dx can be calculated.
  • the shape of the diaphragm IR may be various shapes such as a star shape and a polygonal shape in addition to the circular shape in FIG. 3 and the slit shape in FIG.
  • FIG. 5 is a diagram showing the relationship between the position of the center of gravity of the aperture opening image and the position of the stage when the incident angle is ⁇ L.
  • FIG. 6 is a diagram showing the relationship between the position of the center of gravity of the aperture opening image and the position of the stage when the incident angle is ⁇ H (> ⁇ L).
  • the horizontal axis indicates the pixel position (px: pixel) indicating the center of gravity of the aperture IR aperture image
  • the vertical axis indicates the position in the Z direction ( ⁇ m) of the stage that moves the glass surface of the sample. ).
  • the incident angle ⁇ ⁇ H (when the incident angle ⁇ is large), the amount of movement of the beam increases and the accuracy increases (about 50 nm / px).
  • the range Z-direction range in which autofocus can be performed
  • the range Z-direction range in which autofocus is possible) becomes wide.
  • FIG. 7 is a schematic diagram of an optical system of the autofocus device according to the present embodiment.
  • FIG. 8 is a flowchart for explaining autofocus control in the first embodiment.
  • the focus position has a linear relationship with the position of the aperture IR in the optical axis direction.
  • the aperture IR is at the focal position of the imaging lens L2
  • the glass surface S is focused. Therefore, the position of the iris IR is uniquely determined as DT from the distance from the glass surface S.
  • Other parameters to be set in advance include electric mirror angles ⁇ L and ⁇ H corresponding to coarse and fine movement stage control, respectively, and convergence determination values ⁇ L and ⁇ H for determining the in-focus corresponding to each. These are basically constant values determined by the developer of the autofocus device regardless of the user.
  • step S1 the control device 100 sets the position D of the iris IR to the position DT.
  • step S2 the control device 100 determines to set the incident angle ⁇ to the iris IR to ⁇ L having a high accuracy.
  • step S4 the control device 100 acquires a reflected image by the AF camera 22, and calculates the position X1 of the center of gravity of the iris IR.
  • step S7 the control device 100 determines whether or not the difference dx is smaller than the determination convergence value ⁇ . If the difference dx ⁇ is not satisfied in step S7 (NO in S7), the processes of steps S3 to S6 are executed again.
  • the incident angle ⁇ is set to a non-zero angle, it is possible to immediately calculate the moving direction and moving amount of the stage from the position of the image of the iris IR. It becomes possible.
  • the accuracy and range of auto-focusing is adjusted by controlling the incident angle ⁇ of light on the sample 20 to ⁇ L and ⁇ H by the electric mirror M. it can.
  • the incident angle ⁇ to the diaphragm IR is large, the gravity center position of the image of the diaphragm IR on the glass surface S greatly moves when the glass surface S is moved in the vertical direction.
  • the image of the iris IR is easily deviated from the AF camera 22 and the range is narrowed, but the accuracy of the image is increased because the position variation of the image is increased.
  • the incident angle ⁇ to the iris IR is small, the accuracy is deteriorated, but the range is widened.
  • the incident angle ⁇ is reduced and auto-focusing is performed over a wide range, and then the incident angle ⁇ is increased and auto-focusing is performed with high accuracy. In this way, autofocus that achieves both a wide range and high accuracy is realized.
  • the outline of the procedure for using the autofocus device is as follows. First, the user decides where to focus from the glass surface S. Based on the position determined by the user, the position of the iris IR in the D direction is moved. Then, the angle ⁇ of the electric mirror M is set so as to give the incident angle ⁇ L, a reflection image of the aperture IR is taken by the AF camera 22, and the position X1 of the center of gravity is calculated. Then, after setting the angle ⁇ of the electric mirror M so as to give the incident angle ⁇ L, a reflected image is taken again, and the position X2 of the center of gravity is calculated.
  • FIG. 9 is a diagram showing the principle of autofocus executed in the second embodiment.
  • the laser beam B1 is incident on the sample 20 at an incident angle corresponding to the incident angle ⁇ to the diaphragm IR.
  • the AF camera 22 observes the image of the iris IR as in the camera image P1.
  • the position of the image of the iris IR also shifts left and right in the image.
  • the laser beam B2 is incident on the sample by changing the angle of the electric mirror M so that the incident angle to the iris IR is - ⁇ opposite to the incident angle ⁇ .
  • the image of the diaphragm IR similarly to the angle ⁇ , when the Z position of the glass surface S from the focal position changes, the image of the diaphragm IR also changes the position in the image.
  • the position of the image of the iris IR shifts in the opposite direction.
  • the in-focus position is when the difference dx in the position of the image of the iris IR at the incident angle ⁇ and the incident angle ⁇ is zero. Since the direction d and the amount of movement of the stage ST on which the glass surface S is placed are known from the difference dx between the positions of the images of the iris IR between the camera image P1 and the camera image P2, it is possible to always focus at high speed. .
  • the accuracy is deteriorated. This is because the reflected image deteriorates the positioning accuracy of the image of the iris IR.
  • an image of a sample such as a cell to be observed is visible at the opening of the iris IR. Therefore, the image of the aperture portion of the aperture IR is an image depending on a sample such as a cell, and the reflected image of the aperture IR is not uniform. For this reason, when the position of the image of the iris IR is determined by the weighted center of gravity such as a divided photodiode, the focus is shifted depending on the image of the sample. To solve this problem and improve autofocus accuracy, the image is separated by image processing (for example, binarization processing, contour extraction processing, etc.) so that the aperture is a white image and the shielding portion by the iris IR is a black image. It is preferable to do. This enables highly accurate autofocus independent of the sample.
  • image processing for example, binarization processing, contour extraction processing, etc.
  • a photographed image at an incident angle ⁇ and an incident angle ⁇ can be used as a method of matching the image of the iris IR with the target position XT.
  • the user does not need to set the target position XT of the image of the iris IR in advance.
  • the accuracy and range can be adjusted by changing the incident angle ⁇ to the iris IR during autofocus. Since the adjustment of the accuracy and the range has been described with reference to FIGS. 4 and 5, the description thereof will not be repeated here.
  • FIG. 10 is a diagram for explaining a modification in the second embodiment in which a slit is used instead of a diaphragm.
  • the difference dx is calculated from the position of the weighted center of gravity of the image of the iris IR.
  • the X coordinate of the image is used as it is, or X1 and X2 are calculated by simple calculation.
  • the difference dx can be calculated.
  • the shape of the iris IR may be various shapes such as a star shape and a polygonal shape in addition to the circular shape and the slit shape.
  • a sample is sequentially photographed by irradiating the sample with laser light from two directions of incident angles ⁇ and ⁇ to the aperture IR at each of an incident angle with a wide range and an incident angle with a narrow range. Then, the center of gravity of the image of the iris IR is obtained.
  • the stage ST position where the aperture IR and the AF camera are conjugate is not known. For this reason, it is necessary to set in advance where the center of gravity of the iris IR is located and whether the iris IR and the AF camera are conjugate.
  • the difference is zero, so it is not necessary to set the reference position in advance.
  • FIG. 11 is a flowchart for explaining autofocus control in the second embodiment.
  • the position DT of the iris IR is determined according to how far the glass surface S is focused, and corresponds to the stage control of coarse movement and fine movement, respectively.
  • the angles .theta.L and .theta.H of the electric mirrors to be determined are determined, and convergence determination values .epsilon.L and .epsilon.H for determining in-focus are determined in advance.
  • step S11 the control device 100 sets the position D of the iris IR to DT.
  • step S12 the control device 100 decides to set the incident angle ⁇ to the iris IR to ⁇ L having a high accuracy.
  • the convergence determination value ⁇ is ⁇ L.
  • step S14 the control device 100 acquires a reflected image by the AF camera 22, and calculates the position X1 of the center of gravity of the iris IR.
  • the control device 100 determines whether or not the difference dx is smaller than the determination convergence value ⁇ . If the difference dx ⁇ is not satisfied in step S19 (NO in S19), the processes in steps S13 to S18 are executed again.
  • the in-focus position of the iris IR can be known without setting the target position XT in advance.
  • the position of the stage ST where the aperture IR and the AF camera are conjugate is not known. Therefore, it is necessary to set in advance in which position on the AF camera the center of gravity of the iris IR is conjugate with the iris IR and the AF camera.
  • the position of the glass surface S conjugate with the aperture IR is a position where the difference becomes zero, so that it is not necessary to set the target position XT in advance.
  • the conventional autofocus method shown in FIG. 31 is performed by making light incident on the glass surface from one direction and detecting a change in the position of the return light.
  • the focus is shifted by “ ⁇ X / magnification”.
  • magnification is 100 times
  • the XY direction of the iris IR direction perpendicular to the axis of the magnifying optical system
  • the focus position is shifted by 1 ⁇ m in the optical axis direction.
  • the focus position is shifted by several hundred nm, the obtained image is greatly blurred. Therefore, in the conventional autofocus, it is necessary to adjust the offset every time, and automation during observation is difficult.
  • photographing is performed from two directions with respect to the diaphragm, and a difference between the two diaphragm positions is detected. Therefore, there is no problem even if the position of the iris IR is shifted in the XY direction.
  • the position of the stop IR is also shifted in the D direction (optical axis direction), but when it is shifted by ⁇ D in the D direction, the focus position becomes “ ⁇ D / magnification 2 ”.
  • the magnification is 100 times
  • the focus is set on the glass surface S.
  • the focus position can be shifted from the glass surface S by changing the position of the aperture IR in the D direction.
  • the distance from the glass surface S to the autofocus focal plane and the position of the iris IR in the D direction are linear. For this reason, it is possible to specify the position to be focused from the glass surface by the distance. It is also possible to control the position of the focal plane without changing the position of the stop.
  • the focus position changes linearly if the difference dx between the center of gravity of the apertures of the two images is controlled to a non-zero value.
  • the position of the aperture IR in the XY direction (direction orthogonal to the axis of the magnifying optical system)
  • the Z position of the stage is changed for focusing.
  • focusing may be performed by moving the objective lens or another lens (lens before the camera or the lens before the diaphragm).
  • the autofocus device of the present embodiment can be applied to a microscope incorporated in an industrial facility in addition to a research microscope.
  • FIG. 12 is an image of the slit captured by the AF camera.
  • This image is an image of one slit SL, but many vertical stripes are generated inside the slit SL due to interference.
  • the reflected image of the slit SL is more blurred as light is scattered from the slit SL at the left edge portion than at the right edge.
  • This phenomenon is the same not only for the slit SL but also for the image of the iris IR. This phenomenon makes it difficult to accurately detect the gravity center positions of the slit SL and the diaphragm IR by image processing.
  • the edge on the non-scattering side is determined in advance depending on whether the incident angle ⁇ is positive or negative. Therefore, in the embodiment, instead of calculating the center of gravity of the image, the edge position on one side of the slit image is detected to obtain information for autofocus.
  • FIG. 13 is a diagram illustrating a configuration of an optical system of the microscope according to the third embodiment.
  • a microscope 105 shown in FIG. 13 includes a stage ST, an autofocus optical system, and an observation optical system.
  • the microscope 105 is an optical system for autofocus, and includes a light source including an AF laser 11 and an electric mirror M, a slit SL, a polarization beam splitter BS, an imaging lens L11, a lens L12, and a quarter-wave plate QR.
  • the microscope 105 further includes an excitation filter 23, an observation dichroic mirror 24, an absorption filter 25, an imaging lens 26, and an observation camera 27 as an observation optical system.
  • information for aligning the position of the stage ST is obtained using the laser light reflected by the electric mirror M.
  • the sample 20 can be irradiated with light from a light source (not shown) through the observation dichroic mirror 24. Then, fluorescence or reflected light can be observed with the observation camera 27.
  • the microscope 105 further includes a control device 110 that controls the angle ⁇ of the electric mirror M, the D-direction position of the slit SL, and the position of the stage ST.
  • the control device 110 may control not only the position of the stage ST but one or a plurality of positions of the objective lens OL, the imaging lens L11, and the lens L12.
  • the light from the AF laser 11 is reflected by the electric mirror M and enters the slit SL.
  • the incident angle ⁇ of light to the slit SL can be controlled by the angle ⁇ of the electric mirror M.
  • the light from the slit SL is reflected by the polarizing beam splitter BS, passes through the imaging lens L11 and the quarter-wave plate QR, is reflected by the dichroic mirror DM, and passes through the objective lens OL, and the glass 19 on which the sample 20 is placed. To the glass surface S. In this way, the slit image is projected onto the glass surface S.
  • the laser light is reflected by the polarization beam splitter BS.
  • the laser light is polarized when it is emitted from the AF laser 11, and almost 100% of the light is reflected by the polarization beam splitter BS by aligning the direction of the AF laser 11.
  • the incident laser light and reflected light can be acquired by the AF camera 22 without loss.
  • the light that reaches the surface of the glass 19 is reflected by the surface of the glass 19.
  • This reflected light is reflected by the dichroic mirror DM after passing through the objective lens OL, passes through the quarter-wave plate QR, the imaging lens L11, the polarizing beam splitter BS, the filter F, and the lens L12, and is an autofocus camera. (AF camera) 22 forms an image. In this way, the AF camera 22 displays an image of the slit SL.
  • the imaging lenses L1 and L2 in FIG. 1 can be combined into one imaging lens L11, and the number of lenses can be reduced by one.
  • the quarter wavelength plate QR is transmitted to the AF camera 22 through the polarization beam splitter BS by the quarter wavelength plate QR. Without the wave plate QR, the return light from the imaging lens L11 enters the AF camera 22 and becomes noise. Further, if the quarter wavelength plate QR is not installed at a certain angle, the reflected light from the quarter wavelength plate QR enters the AF camera 22 and becomes noise.
  • the position of autofocus can be shifted from the glass surface by moving the imaging lens L11 or the lens L12 back and forth.
  • the lens L12 is installed outside the microscope so that the offset can be adjusted from the outside.
  • the configuration for controlling the imaging lens L11 inside the microscope is employed, the lens L12 is not necessary.
  • the dichroic mirror DM can separate the autofocus optical path and the observation optical path. Therefore, autofocus while observing with the microscope 105 is possible.
  • the filter F near the lens L12 is for removing light other than autofocus. Without this, the observation light enters the AF camera 22, which causes a problem in autofocus during observation.
  • the light shaped by the slit SL is irradiated at an angle to the glass surface S on which the sample 20 is placed on the stage ST, and the position of the reflected image is observed.
  • FIG. 12 illustrates that the edge disturbance is noticeable only on one edge, but it was found that the edge where the disturbance is remarkable is on a different side depending on whether the incident angle ⁇ is positive or negative. This is presumably because the light incident on the glass surface is scattered for some reason when reflected, and scattering occurs on the reflected light side. Therefore, the edge on the non-scattering side is determined in advance depending on whether the incident angle ⁇ is positive or negative.
  • FIG. 14 is an image when the incident angle is a positive angle.
  • the incident angle is a positive angle (+ ⁇ )
  • the left side is clearly seen when the edge is observed.
  • FIG. 15 is an image when the incident angle is a negative angle.
  • the incident angle is negative ( ⁇ )
  • the right side can be clearly seen when the edge is observed.
  • FIG. 16 is a diagram for explaining edge detection.
  • the image taken by the AF camera 22 is an image in which the left edge is disturbed
  • the luminance of the pixel is scanned from the right side of the image, and the position exceeding the threshold is set as the edge. If both edges are clearly visible, the center of gravity is sufficient, but one of the edges is disturbed, so this method is adopted.
  • the edge detection method is also useful when using objective lenses that are not submerged or submerged.
  • objective lenses that are not submerged or submerged.
  • light between the solution and the glass surface is reflected.
  • the light on the lower surface and the upper surface of the glass is reflected, and the reflected images overlap.
  • the image is averaged in the Y direction to make it one-dimensional.
  • one-dimensional data is scanned from the left side to search for a location that exceeds a specified threshold value.
  • a scan is performed from the right to search for a location exceeding the threshold (see FIG. 16). If the threshold is not exceeded, it is assumed that autofocus has failed. Since the image processing method is simple, it can be operated at high speed.
  • FIG. 17 is a flowchart for explaining the autofocus control in the third embodiment. Also in the third embodiment, as in the first and second embodiments, the position DT of the imaging lens L11 and the angle ⁇ of the electric mirror are determined according to how far the glass surface S is focused. A convergence determination value ⁇ for determining in-focus is determined in advance. Whether the program has completed autofocus can be known from the convergence judgment value, and automatic shooting is prevented from starting before autofocus.
  • step S101 the control device 110 sets the position D of the imaging lens L11 to DT and sets the incident angle ⁇ to the slit SL. Further, the convergence determination value is ⁇ .
  • step S102 the control device 110 sets the angle ⁇ of the electric mirror M to an angle that becomes the incident angle ⁇ .
  • the control device 110 acquires a reflected image by the AF camera 22, and detects the position EL of the left edge of the slit SL.
  • control device 110 changes the angle ⁇ of the electric mirror M so that the incident angle becomes ⁇ in step S104, acquires a reflected image again in step S105, and calculates the position ER of the right edge of the slit SL.
  • step S108 the control device 110 determines whether or not the difference dx is smaller than the determination convergence value ⁇ . As a result, the user and the main program can know whether or not the convergence value has been reached. Note that the position of the objective lens OL or the like may be adjusted instead of moving the stage ST.
  • control device 110 ends autofocus.
  • the autofocus device according to the third embodiment has the same effects as the autofocus device according to the second embodiment.
  • the autofocus device of the third embodiment can further increase the autofocus accuracy.
  • the sample is irradiated with laser light from two directions of incident angles ⁇ and ⁇ to the slit SL and sequentially photographed, and the edge of the image of the slit SL on the side corresponding to the positive / negative of the incident angle is obtained. Then, the difference between the edge positions is taken, and the vertical position of the glass surface S is controlled so that the difference is close to the actual slit width.
  • this method is used, accurate focusing can be performed even when one edge of the image of the aperture or slit SL is disturbed.
  • the incident angle ⁇ is variable.
  • the incident angle ⁇ is set to a fixed non-zero angle, and only a clear edge is targeted. You may control so that it may correspond with a position.
  • the edge used for focusing is the edge corresponding to the positive or negative of the incident angle ⁇ .
  • Embodiment 4 In Embodiments 1 to 3, the light from the AF light source is incident on the magnifying optical system at a non-zero fixed or variable incident angle ⁇ , so that the position of the aperture or slit focused on the AF camera is focused. The difference in position was used for focusing.
  • FIG. 18 is a diagram illustrating a configuration of an optical system of the microscope according to the fourth embodiment.
  • a microscope 201 shown in FIG. 18 includes a stage, an autofocus optical system, and an observation optical system. The details of the stage and the optical system for observation are the same as those in Embodiments 1 to 3, and are not shown here.
  • FIG. 18 shows only the optical system for autofocus.
  • the microscope 201 is a light source 211, a slit SL or a diaphragm IR, a rotating mirror RM1, an imaging lens L211, a dichroic mirror DM, an objective lens OL, a sensor 222, and a control device as an autofocus optical system. 210.
  • the sensor 222 may use the same AF camera as in the first to third embodiments, but may use a split type light receiving element in which the attendance surface is divided.
  • the control device 210 determines a control target value from the light intensity obtained by dividing and integrating a plurality of shielding object images obtained under a plurality of different conditions, and Adjust the position.
  • information for aligning the position of the stage ST is obtained using light from the light source reflected by the rotating mirror RM1.
  • FIG. 19 is a diagram showing a positional relationship between the shape of the rotary mirror RM1 and the light B in FIG.
  • the rotating mirror RM1 is configured to rotate about the rotation axis RA1.
  • the rotating mirror RM1 includes, for example, patterns RP1 and RP2 such as aluminum formed on a transparent disk glass by vapor deposition.
  • the pattern RP1 is configured to reflect light that has passed through the slit SL or the diaphragm IR in a different pattern
  • the pattern RP2 is configured to reflect in a pattern different from the pattern RP1.
  • the left half and the right half are reflected with respect to the optical axis ⁇ . If light near the center is passed, the range will be longer, but the accuracy will be lower. With this in mind, the reflection pattern is designed.
  • the light source 211 may not be a light source with high straightness like a laser.
  • an LED or a mercury lamp may be used. Therefore, the light from the light source 211 may enter the diaphragm IR or the slit SL from all directions.
  • the light B that has passed through the diaphragm IR hits the pattern RP1 of the rotating mirror RM1, and only half of the light B travels to the imaging lens L211.
  • the light transmitted through the imaging lens L211 is reflected by the dichroic mirror DM, passes through the objective lens OL, and is reflected by the glass surface.
  • the reflected light passes through the objective lens OL and the dichroic mirror DM, passes through the imaging lens, and reaches the sensor 222.
  • FIG. 20 is a diagram illustrating a state in which the rotating mirror RM1 is rotated 180 ° in the microscope 201 illustrated in FIG.
  • FIG. 21 is a diagram showing a positional relationship between the state of the rotary mirror RM1 shown in FIG.
  • the rotating mirror RM1 is rotated to alternately change the state of the microscope 201 to the state shown in FIG. 18 and the state shown in FIG. 20, and two images are acquired.
  • control device 210 causes light to enter two different positions across the optical axis of the objective lens OL, and obtains an image corresponding to each light.
  • autofocus with improved accuracy can be realized easily. This is because there is no problem even if the position of the aperture IR or the slit SL on the sensor is shifted due to distortion of the optical system.
  • Embodiment 5 In Embodiment 4, a part of the light after passing through the diaphragm or slit is reflected by the mirror and sent to the objective lens. However, similar focusing can be achieved by blocking a part with a mask instead of reflecting a part with a mirror.
  • FIG. 22 is a diagram illustrating a configuration of an optical system of the microscope according to the fifth embodiment.
  • a microscope 251 illustrated in FIG. 22 includes a stage, an autofocus optical system, and an observation optical system. Since the details of the stage and the optical system for observation are the same as those in Embodiments 1 to 3, illustration is omitted here, and FIG. 22 shows only the optical system for autofocus.
  • the microscope 251 is a light source 211, a slit SL or a diaphragm IR, a rotation mask RM2, a half mirror HM2, an imaging lens L211, a dichroic mirror DM, an objective lens OL, and a sensor as an autofocus optical system. 222 and the control device 210.
  • the senor 222 may use either an AF camera or a divided light receiving element.
  • information for aligning the position of the stage ST is obtained using light from the light source that has passed through the rotary mask RM2.
  • FIG. 23 is a diagram showing a positional relationship between the shape of the rotary mask RM2 and the light B in FIG.
  • rotation mask RM2 is configured to rotate about rotation axis RA2.
  • the rotary mask RM2 includes, for example, patterns RP1 and RP2 such as aluminum formed on a transparent disk glass by vapor deposition.
  • the patterns RP1 and RP2 are configured such that light that has passed through the slit SL or the diaphragm IR has different patterns. In FIG. 23, it is comprised so that half may be interrupted
  • the patterns RP1 and RP2 may reflect light toward the light source like a mirror as long as the light can be blocked.
  • the light source 211 does not have to be high in straightness like the laser as in the fourth embodiment. Therefore, the light from the light source 211 may enter the diaphragm IR or the slit SL from all directions.
  • the light B that has passed through the aperture IR hits the pattern RP2 of the rotary mask RM2, only half of the light B is blocked, and the other half is reflected by the half mirror HM2, and proceeds to the imaging lens L211.
  • the light transmitted through the imaging lens L211 is reflected by the dichroic mirror DM, passes through the objective lens OL, and is reflected by the glass surface.
  • the reflected light passes through the objective lens OL and the dichroic mirror DM, passes through the imaging lens L211 and reaches the sensor 222.
  • FIG. 24 is a diagram showing a state in which the rotary mask RM2 is rotated by 180 ° in the microscope 251 shown in FIG.
  • FIG. 25 is a diagram showing a positional relationship between the state of the rotary mask RM2 shown in FIG.
  • the rotary mask RM2 is rotated to alternately change the state of the microscope 251 to the state shown in FIG. 22 and the state shown in FIG. 24, and two images are acquired.
  • a similar image may be obtained by using, as a mask, an element that electrically controls light transmission, such as liquid crystal, instead of the rotating mask.
  • the mask pattern is a plurality of patterns in which the transmitted light is asymmetric with respect to the optical axis of the magnifying optical system, and the objective lens is irradiated with light and the reflected light is observed.
  • the microscope shown in the sixth embodiment is quite similar to the microscope of the fifth embodiment in that a mask is used, but two imaging lenses are required in a form in which a half mirror is inserted before the imaging lens.
  • FIG. 26 is a diagram illustrating a configuration of an optical system of the microscope according to the sixth embodiment.
  • a microscope 271 shown in FIG. 26 includes a stage, an autofocus optical system, and an observation optical system. The details of the stage and the optical system for observation are the same as in Embodiments 1 to 3, and are not shown here.
  • FIG. 26 shows only the optical system for autofocus.
  • the microscope 271 includes, as an autofocus optical system, a light source 211, a slit SL or a diaphragm IR, imaging lenses L211A and L211B, a rotation mask RM3, a half mirror HM3, a dichroic mirror DM, and an objective lens OL. , Sensor 222 and control device 210.
  • the senor 222 may use either an AF camera or a divided light receiving element.
  • information for aligning the position of the stage ST is obtained using light from the light source that has passed through the rotary mask RM3.
  • FIG. 27 is a diagram showing a positional relationship between the shape of the rotary mask RM3 and the light B in FIG.
  • rotation mask RM3 is configured to rotate about rotation axis RA3.
  • the rotary mask RM3 includes, for example, patterns RP1 and RP2 such as aluminum formed on a transparent disk glass by vapor deposition.
  • the pattern RP1 is configured with a pattern different from the axis of light that has passed through the slit SL or the diaphragm IR
  • the pattern RP2 is configured with a pattern different from the pattern RP1.
  • the patterns RP1 and RP2 may reflect light toward the light source like a mirror as long as the light can be blocked.
  • the light source 211 may not be a laser as long as it emits light of a certain degree of straightness such as an LED. Therefore, the light from the light source 211 may enter the diaphragm IR or the slit SL from all directions.
  • the light B that has passed through the diaphragm IR proceeds to the imaging lens L211.
  • the light transmitted through the imaging lens L211 hits the pattern RP2 of the rotary mask RM3 as shown in FIG. 26, and only half of the light B is blocked and the remaining half is reflected by the half mirror HM3.
  • the light reflected by the half mirror HM3 is reflected by the dichroic mirror DM, passes through the objective lens OL, and is reflected by the glass surface.
  • the reflected light passes through the objective lens OL and the dichroic mirror DM, passes through the imaging lens L211A, and reaches the sensor 222.
  • FIG. 28 is a diagram showing a state in which the rotary mask RM3 is rotated by 180 ° in the microscope 271 shown in FIG.
  • FIG. 29 is a diagram showing the positional relationship between the state of the rotary mask RM3 shown in FIG.
  • the rotary mask RM3 is rotated to alternately change the state of the microscope 271 to the state shown in FIG. 26 and the state shown in FIG. 28, and two images are acquired.
  • a similar image may be obtained by using, as a mask, an element that electrically controls light transmission, such as liquid crystal, instead of the rotating mask.
  • the mask pattern is a plurality of patterns in which the transmitted light is asymmetric with respect to the optical axis of the magnifying optical system, and the objective lens is irradiated with light and the reflected light is observed.
  • the present disclosure provides a stage (ST) that supports a transparent member (19) on which an observation object (20) is placed, and a magnification optical system (L1, L2, HM, DM, OL) that observes the observation object.
  • the present invention relates to an autofocus device used for an optical device having The autofocus device is disposed at a position opposite to the observation object with respect to the light source device (11, M, 13, 211) that emits light to the observation object via the magnification optical system, and the magnification optical system,
  • the shielding light (IR, SL) that restricts the radiated light emitted from the light source device, and the radiated light from the light source device that reaches the reflecting surface of the transparent member via the shielding material and the magnifying optical system is reflected by the reflecting surface.
  • a light detection device (22, 222) that receives the reflected light via the magnifying optical system and a control device (100, 110, 210) that controls the position of the stage or the magnifying optical system.
  • the control device emits the radiated light from the light source device limited by the shielding object under a plurality of different conditions.
  • the position of the stage or the magnifying optical system is adjusted based on the reflected light of the shielding object obtained by the incidence.
  • the light source device is configured to be able to variably adjust the angular distribution of the light emitted to the shield.
  • the autofocus device further includes an optical element (RM1) that reflects a part of the emitted light from the light source device limited by the shield.
  • RM1 optical element that reflects a part of the emitted light from the light source device limited by the shield.
  • the emitted light from the light source device reflected by the optical element enters the observation object.
  • the autofocus device further includes optical elements (RM2, RM3) that shield, reduce or reflect a part of the emitted light from the light source device limited by the shield.
  • optical elements RM2, RM3 that shield, reduce or reflect a part of the emitted light from the light source device limited by the shield.
  • control device (210) determines a control target value from the position of the reflected image of the shielding object obtained under a plurality of different conditions, and adjusts the position of the stage or the magnifying optical system.
  • control device (210) determines a control target value from the light intensity obtained by dividing and integrating the image of the shielding object obtained under a plurality of different conditions, and adjusts the position of the stage or the magnifying optical system.
  • the autofocus device includes a stage (ST) that supports the transparent member (19) on which the observation object (20) is placed, and a magnification optical system (L1, L2, HM) that observes the observation object. , DM, OL).
  • the autofocus device is disposed at a position opposite to the observation target with respect to the magnification optical system and a light source device (11, M, 13) that emits light to the observation target via the magnification optical system.
  • Shielding object (IR) that restricts the radiated light emitted from the reflector, and the reflected light reflected by the reflecting surface through the shielding object and the reflecting surface of the transparent member via the magnifying optical system and the magnifying optical system
  • An imaging device (22) received via the control device and a control device (100) for controlling the position of the stage or the magnifying optical system are provided.
  • the light source device emits light at a non-zero angle ( ⁇ ) with respect to the axis of the magnifying optical system.
  • the control device (100) sets the position of the stage or the magnifying optical system so that the position X1 of the image of the shield imaged by the imaging device (22) matches the target position XT. adjust.
  • control device (100) causes the position X1 or X2 of the opening of the shielding object in the image of the shielding object photographed by the imaging device (22) to coincide with the target position XT. Adjust the position of the stage or magnifying optical system.
  • control device (100) separates the inside and the outside of the opening in the image of the shielding object (IR) by performing image processing such as binarization processing on the image obtained by the imaging device (22). .
  • image processing such as binarization processing
  • the light source device is configured such that the angle ( ⁇ ) of light emitted with respect to the shielding object (IR) is variable.
  • the control device (100) includes a first position (X1) that is the position of the image of the shielding object when the light source device emits light at the first angle ( ⁇ ), and a first angle ( ⁇ ).
  • the difference (dx) from the second position (X1) that is the position of the image of the shielding object (IR) when light is emitted at a second angle ( ⁇ ) different from) is a target value (for example, zero) Adjust the position of the stage or the magnifying optical system so that In this way, it is possible to determine in-focus even if the target position on the captured image corresponding to the in-focus is not set in advance.
  • the light source device is configured such that the angle of light emitted with respect to the shield (IR) is variable.
  • the control device (100) determines the position of the stage or the magnifying optical system based on the first position that is the position of the image of the shielding object (IR) when the light source device emits light at the first angle ( ⁇ L). Coarse adjustment is made to the second position, which is the position of the image of the shield (IR) when the light source device emits light at a second angle ( ⁇ H) that is larger than the first angle ( ⁇ L). Based on this, the position of the stage or the magnifying optical system is finely adjusted. In this way, a wide range and high-precision autofocus can be realized.
  • the light source device can change the angle at which the light emitted from the light source device receives the light emitted from the light source device 11 and the light source 11 that emits light with high straightness and enters the shielding object.
  • the electro-optic element (M) configured in the above.
  • the control device (100) is a motor-driven optical element in which the angle ( ⁇ ) of the light emitted from the light source device is the first angle ( ⁇ or ⁇ L) and the second angle ( ⁇ or ⁇ H). The angle ( ⁇ ) of (M) is changed.
  • the magnifying optical system is a light source disposed in any one of an objective lens (OL), a half mirror (HM), an optical path transmitted through the half mirror (HM), and an optical path reflected by the half mirror (HM).
  • a side imaging lens (L2) and a camera side imaging lens (L1) disposed on the other of the optical path through which the half mirror (HM) transmits and the optical path through which the half mirror (HM) reflects.
  • the light source device emits polarized light
  • the magnifying optical system includes an objective lens (OL), a quarter wave plate (QR), a polarization beam splitter (BS), and a quarter wave plate ( QR) and an imaging lens (L11) disposed between the polarization beam splitter (BS).
  • OL objective lens
  • QR quarter wave plate
  • BS polarization beam splitter
  • QR quarter wave plate
  • L11 imaging lens
  • control device (100) adjusts the position of the stage (ST) or the magnifying optical system based on the coordinates of the center of gravity of the image of the opening in the image of the shielding object.
  • control device (110) adjusts the position of the stage (ST) or the magnifying optical system based on the coordinates of the edge of the image of the opening in the image of the shielding object. If the edge is used, it may be detected with higher accuracy than calculating the center of gravity.
  • the present disclosure relates to an optical device including a stage, a magnifying optical system, and any one of the autofocus devices described above.
  • the present disclosure relates to an optical device including a stage, a magnifying optical system, and any one of the above autofocus devices.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automatic Focus Adjustment (AREA)
  • Microscoopes, Condenser (AREA)
  • Studio Devices (AREA)

Abstract

オートフォーカス装置は、試料(20)を載せるガラス部材(19)を支持するステージ(ST)と、試料(20)を観察する拡大光学系(L2,HM,DM,OL)と、拡大光学系を介して試料(20)に光を放射する光源装置(11、M,13)と、拡大光学系の試料(20)とは反対の位置に配置され、光源装置から放射される放射光を制限する絞り(IR)と、絞り(IR)および拡大光学系を経由してガラス部材(19)に至った放射光が反射面(S)で反射した反射光を、拡大光学系を経由して受けるAF用カメラ(22)とを備える。光源装置は、拡大光学系の軸に対して、非ゼロの角度(φ)で光を放射する。制御装置(100)は、撮影された遮蔽物の像の位置が目標位置と一致するようにステージ(ST)の位置を調整する。このような構成とすることによって、高速なオートフォーカスを実現することができる。

Description

オートフォーカス装置ならびにそれを備える光学装置および顕微鏡
 本開示は、オートフォーカス装置ならびにそれを備える光学装置および顕微鏡に関する。
 一般に顕微鏡は開口数(NA:Numerical Aperture)で分解能が決まることが知られている。開口数が大きいと得られる画像の分解能がよくなるが、焦点深度が短くなり、その結果フォーカス合わせが難しくなる。
 超解像イメージングのように開口数が大きい顕微鏡の自動化は普及していない。なぜ自動化が普及しないかというと、高精度・広レンジ・高速度を兼ね備えたオートフォーカス技術がないからである。
 従来法のオートフォーカスの方法は数多くあるが、主に以下の2つの方法に分類される。これらのオートフォーカス技術はどれも精度・レンジ・速度のいずれかに問題がある。
 図30は、従来の第1方法を説明するための図である。第1の方法は、カメラで撮影された絞りの画像のコントラストを見る方法である。この方法では図30に示すように、ガラス容器501の底面にある試料と共役の位置に絞り502が配置されており、試料の位置(ガラス容器の底面)に絞り502の像が結像する。そして、ガラス面からの反射した絞りの像をカメラ503で撮影する。ガラス容器もしくは対物レンズを上下に動かすステージスキャンを行ない、絞りの像にピントを合わせることで、試料の像のフォーカス合わせを行なう。第1の手法を用いると、開口数が大きい顕微鏡でも高い精度でピントを自動で合わせることができる。
 第1の方法の問題点は、フォーカス合わせの際にステージスキャンが必要で、時間がかかることである。ステージスキャンの速度によるが、約数十秒ほどの時間がかかる。また、カメラを2台つけて多焦点系にしてステージスキャンをなくすことで速度を早めたとしても、絞りの像が見えるレンジが狭いという問題もある。
 図31は、従来の第2方法を説明するための図である。第2の方法は、ガラス面における反射位置を見て焦点を合わせる方法である。LED561からの光が対物レンズ523を通り、角度をつけて試料522へ入射する。そして、反射光の位置をCCDカメラ564により取得する。第2の手法は、ビームの位置が中心にくるように制御できるので、常時焦点を維持することが可能である。
 第2の方法の問題点は、フォーカス合わせの精度が悪い点にある。精度が悪くなる現象は、光学系の歪みに起因する。光学系のずれにより、ビームの位置がXずれると、入射光の位置はX/(倍率)ずれる。このずれは熱や振動など様々な外的要因により生じるため、毎回オフセットの調整が必要となる。また、フォーカス合わせのレンジと精度はビームがガラス面Sに入射する角度に依存する。そのため、精度とレンジのいずれを優先させるかの板挟みが生じる。
特開2015-227940号公報 特許第5621259号公報
 従来は、高精度・広レンジ・高速度を同時に兼ね備えたオートフォーカス技術を実現することは困難であった。これら3つの要素が高開口数の顕微鏡の自動化に必要な理由は以下のとおりである。第一に、開口数が大きな顕微鏡は焦点深度が短いため、高精度のオートフォーカスでないと像がボケてしまう。また、精度は長時間たっても維持してないと、毎回フォーカス合わせが必要となり自動化の妨げになる。第二に、ステージ移動の際に観察試料と対物レンズとの間にずれが生じる。このずれがオートフォーカスのレンジ内に入らないと、オートフォーカスができない。第三に、効率よくサンプルの撮影を行なうために、焦点を素早く合わせる技術が求められる。上記のように高精度・広レンジ・高速を兼ね備えたオートフォーカス技術は顕微鏡観察の自動化のために必須である。
 本発明の目的は、開口数が大きな顕微鏡においても高精度・広レンジ・高速にオートフォーカス可能なオートフォーカス装置ならびにそれを備える光学装置および顕微鏡を提供することである。
 本開示は、ある局面では、観察対象物を載せる透明部材を支持するステージと、観察対象物を観察する拡大光学系とを有する光学装置に用いられるオートフォーカス装置に関する。オートフォーカス装置は、拡大光学系を介して観察対象物に光を放射する光源装置と、拡大光学系に対して観察対象物とは反対の位置に配置され、光源装置から放射される放射光を制限する遮蔽物と、遮蔽物および拡大光学系を経由して透明部材の反射面に至った光源装置からの放射光が反射面で反射した反射光を、拡大光学系を経由して受ける光検出装置と、ステージまたは拡大光学系の位置を制御する制御装置とを備える。制御装置は、遮蔽物により制限された光源装置からの放射光を観察対象物に対して複数の異なる条件で入射させて得られた遮蔽物の反射光に基づいて、ステージまたは拡大光学系の位置を調整する。
 好ましくは、光源装置は、遮蔽物に対して出射する光の角度分布を可変に調整できるように構成される。
 好ましくは、オートフォーカス装置は、遮蔽物により制限された光源装置からの放射光の一部を反射する光学素子をさらに備える。光学素子で反射した光源装置からの放射光は、観察対象物に入射する。
 好ましくは、オートフォーカス装置は、遮蔽物により制限された光源装置からの放射光の一部を遮蔽、減光または反射する光学素子をさらに備える。光学素子で遮蔽、減光または反射されずに通過した光源装置からの放射光は、観察対象物に入射する。
 より好ましくは、制御装置は、複数の異なる条件で得られた遮蔽物の反射像の位置から制御目標値を決め、ステージまたは拡大光学系の位置を調整する。
 より好ましくは、制御装置は、複数の異なる条件で得られた遮蔽物の像を複数に区切り積算した光強度から制御目標値を決め、ステージまたは拡大光学系の位置を調整する。
 本開示は他の局面では、観察対象物を載せる透明部材を支持するステージと、観察対象物を観察する拡大光学系とを有する光学装置に用いられるオートフォーカス装置に関する。オートフォーカス装置は、拡大光学系を介して観察対象物に光を放射する光源装置と、拡大光学系に対して観察対象物とは反対の位置に配置され、光源装置から放射される放射光を制限する遮蔽物と、遮蔽物および拡大光学系を経由して透明部材の反射面に至った光源装置からの放射光が反射面で反射した反射光を、拡大光学系を経由して受ける撮像装置と、ステージまたは拡大光学系の位置を制御する制御装置とを備える。光源装置は、拡大光学系の軸に対して、非ゼロの角度で光を放射する。制御装置は、撮像装置で撮影された遮蔽物の像の位置が目標位置と一致するようにステージまたは拡大光学系の位置を調整する。
 好ましくは、制御装置は、撮像装置で撮影された遮蔽物の像における遮蔽物の開口部の位置が目標位置と一致するようにステージまたは拡大光学系の位置を調整する。
 好ましくは、制御装置は、撮像装置で得られた画像を画像処理することによって、遮蔽物の画像における開口部の内部と外部を分離する。
 好ましくは、光源装置は、遮蔽物に対して出射する光の角度を可変に構成される。制御装置は、光源装置に第1の角度で光を出射させた場合の遮蔽物の画像の位置である第1位置と、光源装置に第1の角度とは異なる第2の角度で光を出射させた場合の遮蔽物の画像の位置である第2位置との差が目標値になるように、ステージまたは拡大光学系の位置を調整する。
 好ましくは、光源装置は、遮蔽物に対して出射する光の角度を可変に構成される。制御装置は、光源装置に第1の角度で光を出射させた場合の遮蔽物の画像の位置である第1位置に基づいてステージまたは拡大光学系の位置を粗調整し、光源装置に第1の角度よりも大きさが大きい第2の角度で光を出射させた場合の遮蔽物の画像の位置である第2位置に基づいてステージまたは拡大光学系の位置を微調整する。
 より好ましくは、光源装置は、直進性の高い光を出射する光源と、光源が出射する光を受け、光源装置から出射する光が遮蔽物に向けて入射する角度を変えることが可能に構成された電動光学素子とを含む。制御装置は、光源装置から出射する光の角度が第1の角度である場合と第2の角度である場合とで電動光学素子の角度を変化させる。
 好ましくは、拡大光学系は、対物レンズと、ハーフミラーと、ハーフミラーが透過する光路、ハーフミラーが反射する光路のいずれか一方に配置された光源側結像レンズと、ハーフミラーが透過する光路、ハーフミラーが反射する光路のいずれか他方に配置されたカメラ側結像レンズとを含む。
 好ましくは、光源装置は、偏光を出射し、拡大光学系は、対物レンズと、4分の1波長板と、偏光ビームスプリッターと、4分の1波長板と偏光ビームスプリッターとの間に配置された結像レンズとを含む。
 好ましくは、制御装置は、ステージまたは拡大光学系の位置の調整を、遮蔽物の像のうちの開口の像の重心の座標に基づいて行なう。
 好ましくは、制御装置は、ステージまたは拡大光学系の位置の調整を、遮蔽物の像のうちの開口の像のエッジの座標に基づいて行なう。
 この開示は他の局面では、ステージと、拡大光学系と、上記いずれかのオートフォーカス装置を備える光学装置に関する。
 この開示はさらに他の局面では、ステージと、拡大光学系と、上記いずれかのオートフォーカス装置を備える顕微鏡に関する。
 本発明によれば、高精度・広レンジ・高速にオートフォーカス可能なオートフォーカスを実現できる。本発明を用いることで、開口数が大きな顕微鏡による撮像を容易に自動化することができる。
本実施の形態の顕微鏡の光学系の構成を示す図である。 制御装置が制御する対象を示すブロック図である。 実施の形態1で実行されるオートフォーカスの原理を示す図である。 実施の形態1において、絞りに変えてスリットを使用した場合の変形例を説明するための図である。 入射角度がφLである場合の絞りの開口部画像の重心位置とステージの位置との関係を示した図である。 入射角度がφH(>φL)である場合の絞りの開口部画像の重心位置とステージの位置との関係を示した図である。 本実施の形態のオートフォーカス装置の光学系の模式図である。 実施の形態1における、オートフォーカスの制御を説明するためのフローチャートである。 実施の形態2で実行されるオートフォーカスの原理を示す図である。 実施の形態2において、絞りに変えてスリットを使用した場合の変形例を説明するための図である。 実施の形態2における、オートフォーカスの制御を説明するためのフローチャートである。 AF用カメラで捉えたスリットの画像である。 実施の形態3の顕微鏡の光学系の構成を示す図である。 入射角度が正の角度である場合の画像である。 入射角度が負の角度である場合の画像である。 エッジの検出について説明するための図である。 実施の形態3における、オートフォーカスの制御を説明するためのフローチャートである。 実施の形態4の顕微鏡の光学系の構成を示す図である。 図18における回転ミラーRM1の形状と光Bとの位置関係を示した図である。 図18に示した顕微鏡201において、回転ミラーRM1が180°回転した状態を示す図である。 図20に示した回転ミラーRM1の状態と光Bとの位置関係を示す図である。 実施の形態5の顕微鏡の光学系の構成を示す図である。 図22における回転マスクRM2の形状と光Bとの位置関係を示した図である。 図22に示した顕微鏡251において、回転マスクRM2が180°回転した状態を示す図である。 図24に示した回転マスクRM2の状態と光Bとの位置関係を示す図である。 実施の形態6の顕微鏡の光学系の構成を示す図である。 図26における回転マスクRM3の形状と光Bとの位置関係を示した図である。 図26に示した顕微鏡271において、回転マスクRM3が180°回転した状態を示す図である。 図28に示した回転マスクRM3の状態と光Bとの位置関係を示す図である。 従来の第1方法を説明するための図である。 従来の第2方法を説明するための図である。
 以下、図面に基づいて本発明の実施の形態を説明する。なお、以下の図面において同一または相当する部分には同一の参照番号を付しその説明は繰返さない。
 [概要]
 本実施の形態は、「高精度・広レンジ・高速を兼ね備えたオートフォーカス装置」に関するものである。図1は、本実施の形態の顕微鏡の光学系の構成を示す図である。AF用レーザー11からの光が電動ミラーMで反射されて絞りIRへと入る。絞りIRと電動ミラーMは共役の関係になっているので、電動ミラーMの角度θにより、絞りIRへの光の入射角φを制御できる。絞りIRからの光は結像レンズL2と対物レンズOLを通して、試料20を載置したガラス19の表面(ガラス面S)に至り反射する。そして、反射光は対物レンズOLと結像レンズL1を通して、オートフォーカス用のカメラ(AF用カメラ)22で結像しAF用カメラ22には絞りIRの像が映る。
 本実施の形態の特徴は、整形した光を、試料20をステージSTに載置したガラス面Sに対して角度をつけて照射し、その反射像の位置を見ることである。
 これに対して、特許文献1に示した第1の方法では、角度をつけずに光を垂直に試料に照射し、反射像のボケを見ている。本実施の形態では、角度φをつけて光を入射し、反射像の位置を見ている点が異なる。本実施の形態では角度φをつけて入射し、反射像における絞りIRの像の位置を計測することで、焦点がガラス面Sからどの方向へどれくらいずれているかがわかる。このことがフォーカス合わせの高速化につながる。
 一方、特許文献2に示した第2の方法では、光を整形させずに入射させて、その光の重心位置を観察している。本実施の形態の手法では、絞りIRを使用して入射光を整形している点が異なる。絞りIRによって像の形状が決まるので、画像処理により試料に由来する反射像を消すことができる。このことがオートフォーカスの高精度化につながる。また、特許文献2はガラス面へ照射する光の直進性が低い点でも異なる。光の直進性が低いと、フォーカスの変化で像が著しく変化するため、反射光を失い易くなりレンジの低下を導く。さらに、本手法では、入射角度を調整できる点でも異なる。入射角度を調整することで、レンジと精度の兼ね合いを調整することができる。
 本実施の形態に係るオートフォーカス装置の使用手順の概要は以下のようになる。はじめに、ガラス面Sからどのくらいの距離離れた位置にフォーカスを合わせるかを使用者が決める。使用者の決定した位置に基づいて、絞りIRのD方向の位置を移動する。そして、入射角度φLを与えるように電動ミラーMの角度θを設定して絞りIRの反射像をAF用カメラ22で撮影し画像上の絞りIRの位置を求める。絞りIRの位置が目標位置と一致するようにZステージもしくは対物レンズOLや他のレンズ(カメラ前や絞りの前のレンズ)の位置もしくは両方を動かす。目標位置との差が指定した値以下になるまで、上記を繰り返す。入射角度φLでオートフォーカスが完了したら、入射角度φLよりも大きい入射角度φHで上記の手順と同じようにオートフォーカスを行なう。この方法により、従来法と比べて高精度・広レンジ・高速にオートフォーカスを行なうことができる。
 [実施の形態1]
 本実施の形態に係るオートフォーカス装置は、顕微鏡の自動化を容易に実現するために有用である。図1に示す顕微鏡1は、ステージSTと、オートフォーカス用の光学系と、観察用の光学系とを含んで構成される。
 顕微鏡1は、オートフォーカス用の光学系として、AF用レーザー11、電動ミラーMおよびケプラー式のビームエキスパンダー13からなる光源と、絞りIRと、結像レンズL2と、ハーフミラーHMと、ダイクロイックミラーDMと、対物レンズOLと、結像レンズL1と、AF用カメラ22とを備える。
 顕微鏡1は、さらに、観察用の光学系として、励起フィルタ23と、観察用ダイクロイックミラー24と、吸収フィルタ25,28と、結像レンズ26と、観察用カメラ27とを備える。
 オートフォーカス用の光学系では、電動ミラーMで反射されたレーザー光が、ビームエキスパンダー13を通過して絞りIRへと入射する。絞りIRへのレーザーの入射角度φは電動ミラーMの角度θにより制御できる。絞りIRとガラス面Sは共役の位置にあるので、ガラス面Sに絞りIRの影が結像される。絞りIRの像は反射し、AF用カメラ22に投影される。
 観察用光学系では、AF用のダイクロイックミラーDMおよび吸収フィルタ28を透過する波長の光を使用することができる。具体的には、観察用ダイクロイックミラー24を通して、光を試料20へ照射することができる。そして、観察用カメラ27で蛍光や反射光を観察することができる。吸収フィルタ28は、AF用の光源からの光のみを吸収し、観察用カメラ27にAF用の光源からの漏れた光が入射するのを防ぐ。
 顕微鏡1は、電動ミラーMの角度θと、絞りIRのD方向位置と、ステージSTの位置とを制御する制御装置100をさらに備える。制御装置100はステージSTの位置ではなく、対物レンズOLや他のレンズ(カメラ前や絞りの前のレンズ)の位置もしくは両方を制御してもよい。以下は説明のため制御装置100がステージSTの位置を制御する方式で話を進める。
 図2は、制御装置が制御する対象を示すブロック図である。制御装置100は、絞り位置調整部101によって絞りIRのD方向の位置を調整する。制御装置100は、ミラー角度調整部102によって電動ミラーMの角度θを調整する。制御装置100は、AF用カメラ22が撮像した絞りIRの像の画像中の位置に基づいてステージ位置調整部103を駆動し、ステージSTのZ方向の位置を制御する。
 図3は、実施の形態1で実行されるオートフォーカスの原理を示す図である。レーザー光は、絞りIRへの入射角度φに対応する入射角で、試料20へ入射している。このときAF用カメラ22ではカメラ画像P1のように絞りIRの像が観察される。焦点位置からのガラス面SのZ位置に応じて、絞りIRの像も画像中で位置が左右にシフトする。
 予め合焦位置に対応する絞りIRの像の目標位置XTを定めておき、カメラ画像P1から得られた絞りIRの像の位置X1と目標位置XTとの差dxを算出する。差dxがゼロのときが合焦位置となる。差dxから、ガラス面Sを乗せたステージSTを動かす方向と移動量がわかるので、高速に常時フォーカス合わせを行なうことが可能となる。
 なお、AF用カメラ22の代わりに分割フォトダイオードなどのセンサーを用いることができるが、精度は悪くなる。なぜなら、反射像により絞りIRの像の位置決め精度が悪化するからである。
 絞りIRの開口部分には、観察対象の細胞などの試料の像が見えている。したがって絞りIRの開口部分の映像は、細胞などの試料に依存した像となるので、絞りIRの反射像は一様ではない。そのため、分割フォトダイオードのような重み付き重心で絞りIRの像の位置を決めると、試料の像に依存してフォーカスがずれる。この問題を解決しオートフォーカスの精度を上げるには、開口部が白画像、絞りIRによる遮蔽部が黒画像となるように画像処理(例えば2値化処理や輪郭抽出処理等)により画像を分離することが好ましい。これによって、試料に依存しない高精度なオートフォーカスが可能となる。
 図4は、実施の形態1において、円形の絞りに変えてスリットを使用した場合の変形例を説明するための図である。図3の場合は絞りIRの画像の重み付き重心の位置から差dxを算出したが、スリットのような場合には、画像のX座標をそのまま使用するか、または簡単な演算によってX1を算出して差dxを算出することができる。なお、絞りIRの形状は図3の円形、図4のスリット状以外にも、星形、多角形等種々の形状であっても良い。
 本実施の形態では、入射角度φをゼロでない所定角度に固定して、オートフォーカスをすることが可能である。入射角度φを固定して、絞りIRの像の位置を測定する。そして、絞りIRの像の位置が目標位置へ移動するように、ステージSTを移動させてフォーカスを調整する。この方法では電動ミラーMの角度変化がないので、高速にオートフォーカスを行なうことができ、電動ミラーMの駆動部の摩耗を防ぐことができる。
 一方、オートフォーカスの際の絞りIRへの入射角度φを変えることで、精度とレンジを調節することができる。この関係を入射角度φが大きい場合と小さい場合で比較して説明する。図5は、入射角度がφLである場合の絞りの開口部画像の重心位置とステージの位置との関係を示した図である。図6は、入射角度がφH(>φL)である場合の絞りの開口部画像の重心位置とステージの位置との関係を示した図である。図5、図6において横軸は、絞りIRの開口部画像の重心位置を示す画素位置(px:ピクセル)を示し、縦軸は、試料のガラス面を移動させるステージのZ方向の位置(μm)を示す。
 入射角度φ=φHの場合(入射角度φが大きい場合)ビームの移動量が大きくなり、精度が高くなる(約50nm/px)。しかし、移動量が大きい分、レンジ(オートフォーカス可能なZ方向範囲)は狭くなる。一方、入射角度φ=φLの場合(入射角度が小さい場合)ビームの移動量が小さくなり、精度が粗くなる(約760nm/px)。しかし、レンジ(オートフォーカス可能なZ方向範囲)は広くなる。
 (オートフォーカスの手順)
 実施の形態1では、以下の方法により、オートフォーカスにおいて広レンジと高精度を両立させた。最初はレンジの広い入射角度(φ=φL)を用いてオートフォーカスを開始し、ある程度粗く焦点を合わせる。そして、レンジの狭い入射角度(φ=φH)を使用して、高精度にフォーカスを合わせる。これにより、広いレンジで高精度なオートフォーカスが可能となる。
 図7は、本実施の形態のオートフォーカス装置の光学系の模式図である。図8は、実施の形態1における、オートフォーカスの制御を説明するためのフローチャートである。
 オートフォーカス制御の前提として使用者が設定しておくことは、ガラス面Sからどの程度離れた位置に合焦させるかを決めることである。フォーカスの位置は絞りIRの光軸方向の位置と線形な関係にあり、結像レンズL2の焦点位置に絞りIRがあるとガラス面Sにフォーカスが合う。そのため、ガラス面Sからの距離より、絞りIRの位置がDTと一意に定まる。他の事前に設定するパラメータとしては、粗動および微動のステージ制御にそれぞれ対応する電動ミラーの角度θLおよびθHと、それぞれに対応した合焦と判定する際の収束判定値εLおよびεHがある。これらは、基本的に使用者によらずオートフォーカス装置の開発者が決める一定値となる。
 ステップS1において、制御装置100は、絞りIRの位置Dを位置DTに設定する。そして、ステップS2において、制御装置100は、絞りIRへの入射角度φを精度の粗いφLに設定することを決める。
 ステップS3において、制御装置100は、電動ミラーMの角度θを入射角度φ(=φL)となる角度に設定する。また、判定収束値をε(=εL)設定する。そして、ステップS4において、制御装置100は、AF用カメラ22によって反射像を取得し、絞りIRの重心の位置X1を計算する。
 次に、ステップS5において、制御装置100は、重心のX座標の差dx(=X1-XT)を算出し、ステップS6において差dxに対応する方向に対応する移動量だけステージSTをZ方向に動かす。制御装置100は、ステップS7において、差dxが判定収束値εより小さいか否かを判断する。ステップS7において差dx<εでなければ(S7でNO)、再びステップS3~S6の処理を実行する。
 ステップS7において差dx<εであれば(S7でYES)、ステップS8において、粗いフォーカス合わせを実行したか否か(入射角度φの設定がφLであるか否か)を判断する。ステップS8において粗いフォーカス合わせを実行していた場合(S8でYES)、制御装置100は、ステップS9において入射角度をφ=φH、判定収束値をε=εHに変更して、その後ステップS3~S7の処理を実行し高精度オートフォーカスを行なう。ステップS8において、粗いフォーカス合わせでなかった場合(φ≠φL)、高精度オートフォーカスが実行済みであるため(S8でNO)、制御装置100はオートフォーカスを終了する。
 本実施の形態によれば、入射角度φをゼロでない角度とすることによって、絞りIRの画像の位置からステージの移動方向と移動量を直ちに算出することが可能であるので、高速なオートフォーカスが可能となる。
 また、入射角度φを固定していてもオートフォーカスは可能であるが、電動ミラーMによって試料20への光の入射角度φをφLとφHに制御することで、オートフォーカスの精度とレンジを調整できる。絞りIRへの入射角度φが大きいと、ガラス面Sを上下方向に動かすとガラス面Sにおける絞りIRの像の重心位置が大きく動くようになる。その結果、AF用カメラ22から絞りIRの像が外れやすくなりレンジが狭くなるが、像の位置変動が大きくなるため精度は高くなる。逆に、絞りIRへの入射角度φが小さいと、精度は悪くなるが、レンジが広くなる。はじめに入射角度φを小さくし広レンジでオートフォーカスし、次に入射角度φを大きくし高精度でオートフォーカスをする。こうすることで、広いレンジと高精度を両立させたオートフォーカスが実現される。
 [実施の形態2]
 実施の形態1では、高速かつ高レンジでオートフォーカスが実現できるが、光学系のずれに弱いため精度は高くない。そのため、毎回観察前もしくは観察中にオフセット調整を行う必要がある。実施の形態2では、複数方向から光を入射させてオートフォーカスするため、光学系のずれに強く長時間経過しても安定したオートフォーカスが可能となる。
 本実施の形態に係るオートフォーカス装置の使用手順の概要は以下のようになる。はじめに、ガラス面Sからどの位置にフォーカスを合わせるかを使用者が決める。使用者の決定した位置に基づいて、絞りIRのD方向の位置を移動する。そして、入射角度φLを与えるように電動ミラーMの角度θを設定して絞りIRの反射像をAF用カメラ22で撮影し、重心の位置X1を計算する。そして、入射角度-φLを与えるように電動ミラーMの角度θを設定してから再度反射像を撮影し、重心の位置X2を計算する。重心の位置X1とX2の差dxをとり、差dxがゼロになるようにZステージを動かす。差dxが指定した値以下になるまで、上記を繰り返す。入射角度φLでオートフォーカスが完了したら、入射角度φLよりも大きい入射角度φHで上記の手順と同じようにオートフォーカスを行なう。この方法により、従来法と比べて高精度・広レンジ・高速にオートフォーカスを行なうことができることに加えて、予め絞りの目標位置を設定しておく必要がなくなる。
 図9は、実施の形態2で実行されるオートフォーカスの原理を示す図である。レーザー光B1は、絞りIRへの入射角度φに対応する入射角で、試料20へ入射している。このときAF用カメラ22ではカメラ画像P1のように絞りIRの像が観察される。焦点位置からのガラス面SのZ位置の変化に応じて、絞りIRの像も画像中で位置が左右にシフトする。
 電動ミラーMの角度を変えることにより絞りIRへの入射角度を入射角度φとは逆の-φにしてレーザー光B2を試料へ入射する。この際、絞りIRの像は角度φと同様に、焦点位置からのガラス面SのZ位置が変化すると絞りIRの像も画像中の位置を変える。しかし、角度φのときと異なり、絞りIRの像の位置は逆向きにシフトする。
 入射角度φと入射角度-φでの絞りIRの像の位置の差dxがゼロのときが合焦位置となる。カメラ画像P1とカメラ画像P2での絞りIRの像の位置の差dxから、ガラス面Sを乗せたステージSTを動かす方向と移動量がわかるので、高速に常時フォーカス合わせを行なうことが可能となる。
 なお、AF用カメラ22の代わりに分割フォトダイオードなどのセンサーを用いることができるが、精度は悪くなる。反射像により絞りIRの像の位置決め精度が悪化するからである。
 また、絞りIRの開口部分には、観察対象の細胞などの試料の像が見えている。したがって絞りIRの開口部分の映像は、細胞などの試料に依存した像となるので、絞りIRの反射像は一様ではない。そのため、分割フォトダイオードのような重み付き重心で絞りIRの像の位置を決めると、試料の像に依存してフォーカスがずれる。この問題を解決しオートフォーカスの精度を上げるには、開口部が白画像、絞りIRによる遮蔽部が黒画像となるように画像処理(例えば2値化処理や輪郭抽出処理等)により画像を分離することが好ましい。これによって、試料に依存しない高精度なオートフォーカスが可能となる。
 実施の形態2では、目標位置XTに絞りIRの画像を合わせる方法として入射角度φおよび入射角度-φでの撮影画像を用いることができる。このように入射角度φおよび入射角度-φでの撮影画像を用いることによって、使用者が絞りIRの像の目標位置XTを事前に設定する必要がなくなる。
 実施の形態2の場合においても、オートフォーカスの際の絞りIRへの入射角度φを変えることで、精度とレンジを調節することができる。精度とレンジの調節については、図4、図5で説明したのでここでは説明は繰り返さない。
 図10は、実施の形態2において、絞りに変えてスリットを使用した場合の変形例を説明するための図である。図9の場合は絞りIRの画像の重み付き重心の位置から差dxを算出したが、スリットのような場合には、画像のX座標をそのまま使用するか、または簡単な演算によってX1,X2を算出して差dxを算出することができる。なお、絞りIRの形状は円形、スリット状以外にも、星形、多角形等種々の形状であっても良い。
 (オートフォーカスの手順)
 実施の形態2でも実施の形態1と同様に、広レンジと高精度を両立することが可能となる。最初はレンジの広い入射角度(φ=φL)を用いてオートフォーカスを開始し、ある程度粗く焦点を合わせる。そして、レンジの狭い入射角度(φ=φH)を使用して、高精度にフォーカスを合わせる。
 実施の形態2では、さらに、レンジの広い入射角度とレンジの狭い入射角度の各々において、試料に対して、絞りIRへの入射角度φと-φの2つの方向からレーザー光を照射し順次撮影して、絞りIRの像の重心を求める。角度φのみからの反射光で焦点を合わせる場合、絞りIRとAF用カメラが共役となるステージST位置はわからない。そのため、事前に絞りIRの重心がどの位置にあれば、絞りIRとAF用カメラが共役かを設定する必要がある。一方、角度φと-φの位置の差分をとる方法では、絞りIRとAF用カメラが共役なとき、差分がゼロとなる位置であるため、参照位置を事前に設定する必要はなくなる。
 図11は、実施の形態2における、オートフォーカスの制御を説明するためのフローチャートである。実施の形態2においても、実施の形態1と同様に、ガラス面Sからどの程度離れた位置に合焦させるかに従って、絞りIRの位置DTを決定し、粗動および微動のステージ制御にそれぞれ対応する電動ミラーの角度θLおよびθHを決定し、合焦と判定する際の収束判定値εLおよびεHをそれぞれ予め決定しておく。
 ステップS11において、制御装置100は、絞りIRの位置DをDTに設定する。そして、ステップS12において、制御装置100は、絞りIRへの入射角度φを精度の粗いφLに設定することを決める。また、収束判定値εをεLとする。
 ステップS13において、制御装置100は、電動ミラーMの角度θを入射角度φ(=φL)となる角度に設定する。そして、ステップS14において、制御装置100は、AF用カメラ22によって反射像を取得し、絞りIRの重心の位置X1を計算する。
 その後、制御装置100は、ステップS15において入射角度-φ(=-φL)となるように電動ミラーMの角度θを変更し、ステップS16において再び反射像を取得し、絞りIRの重心の位置X2を計算する。
 次に、制御装置100は、ステップS17において重心のX座標の差dx(=X1-X2)を算出し、ステップS18において差dxに対応する方向に対応する移動量だけZ方向にステージSTを動かす。制御装置100は、ステップS19において、差dxが判定収束値εより小さいか否かを判断する。ステップS19において差dx<εでなければ(S19でNO)、再びステップS13~S18の処理を実行する。
 ステップS19において差dx<εであれば(S19でYES)、ステップS20において、粗いフォーカス合わせを実行したか否かを判断する。ステップS20において粗いフォーカス合わせを実行していた場合(S20でYES)、制御装置100は、ステップS21において入射角度をφ=φH、収束判定値をε=εHに変更して、その後ステップS13~S18の処理を実行し高精度オートフォーカスを行なう。ステップS20において、粗いフォーカス合わせでなかった場合(φ≠φL)、高精度オートフォーカスが実行済みであるため(S20でNO)、制御装置100はオートフォーカスを終了する。
 実施の形態2のオートフォーカス装置の利点の一つは、目標位置XTを予め設定していなくても絞りIRの合焦位置がわかることである。角度φのみからの反射光で焦点を合わせる場合、絞りIRとAF用カメラが共役となるステージSTの位置はわからない。そのため、事前に絞りIRの重心がAF用カメラ上のどの位置にあれば、絞りIRとAF用カメラが共役となるかを設定する必要がある。一方、角度φと-φの位置の差分をとる方法では、絞りIRとの共役なガラス面Sの位置は差分がゼロとなる位置であるため、目標位置XTを事前に設定する必要はなくなる。
 図31に示す従来のオートフォーカス方法は、ガラス面に一方向から光を入射させて、戻り光の位置の変化を検出して行なう。この方法だと、絞りやカメラの位置がΔXずれるとフォーカスは「ΔX/倍率」だけずれてしまう。例えば、倍率が100倍である場合に絞りIRのXY方向(拡大光学系の軸に直交する方向)がわずかに100μmずれたとき、1μmもフォーカス位置が光軸方向にずれてしまう。1分子イメージングの場合フォーカス位置が数百nmずれると得られる画像は大きくボケてしまう。そのため、従来のオートフォーカスでは、毎回オフセットを調整する必要があり、観察中の自動化が困難であった。
 実施の形態2に示した方法は、絞りに対して2つの方向から撮影し、両者の絞り位置の差を検出する。そのため、絞りIRの位置がXY方向にずれても問題はない。もちろん、絞りIRの位置はD方向(光軸方向)にもずれるが、D方向にΔDずれるとフォーカス位置は「ΔD/倍率」となる。例えば、倍率が100倍である場合に絞りIRのD方向の位置が100μmずれたとしても、フォーカス位置のずれは10nm(=100μm/100)で済む。これにより、観察ごとに毎回オフセット調整する必要がなく自動化が可能となった。
 なお、上記の実施の形態では、ガラス面Sに焦点を合わせる説明をしたが、絞りIRのD方向の位置を変えることにより、焦点を合わせる位置をガラス面Sからずらすことができる。ガラス面Sからオートフォーカス焦点面までの距離と絞りIRのD方向の位置は線形である。そのため、具体的にガラス面からのどの位置に焦点を合わせるかを距離で指定できる。絞りの位置を変えずに、焦点面の位置を制御することもできる。実施の形態1では、目標位置XTをずらせば線形的にフォーカスの位置が変化する。実施の形態2では、2画像の絞りの重心の差dxをゼロではない値に制御すれば線形的にフォーカスの位置が変化する。また、絞りIRのXY方向(拡大光学系の軸に直交する方向)の位置を変えることで、オートフォーカスの際に放射する光を試料20から避けることができる。
 また、本実施の形態では、フォーカス合わせのために、ステージのZ位置を変化させたが、対物レンズや他のレンズ(カメラ前や絞りの前のレンズ)を動かして焦点を合わせても良い。
 また、本実施の形態のオートフォーカス装置は、研究用の顕微鏡以外にも、工業用の設備に組み込まれた顕微鏡にも適用することができる。
 [実施の形態3]
 実施の形態1と2では、画像の重心を算出するのが困難な場合がある。
 図12は、AF用カメラで捉えたスリットの画像である。この画像は1本のスリットSLの画像であるが、スリットSLの内部には干渉による縦縞が多数生じている。図12に示すように、スリットSLの反射像は、右側エッジに比べて左側エッジ部分ではスリットSLから光が散乱してぼやけたようになっている。この現象は、スリットSL以外でも絞りIRの画像でも同じである。この現象により、スリットSLおよび絞りIRの重心位置を画像処理により正確に検出することは困難となる。
 ただし、この現象は、入射角度φを高くするほど顕著になる。また、片方エッジのみに顕著に見られることがわかった。ガラス面に入射した光が反射する際に何らかの理由で散乱し、反射光側に散乱が生じるからであると考えられる。したがって、散乱しない側のエッジは入射角度φが正か負かによって予め決まる。そこで、実施の形態では、画像の重心を算出する代わりにスリット画像の片側のエッジ位置を検出し、オートフォーカスのための情報を得る。
 図13は、実施の形態3の顕微鏡の光学系の構成を示す図である。図13に示す顕微鏡105は、ステージSTと、オートフォーカス用の光学系と、観察用の光学系とを含んで構成される。
 顕微鏡105は、オートフォーカス用の光学系として、AF用レーザー11、電動ミラーMからなる光源と、スリットSLと、偏光ビームスプリッターBSと、結像レンズL11、レンズL12と、1/4波長板QRと、ダイクロイックミラーDMと、対物レンズOLと、フィルタFと、AF用カメラ22とを備える。
 顕微鏡105は、さらに、観察用の光学系として、励起フィルタ23と、観察用ダイクロイックミラー24と、吸収フィルタ25と、結像レンズ26と、観察用カメラ27とを備える。
 オートフォーカス用の光学系では、電動ミラーMで反射されたレーザー光を用いてステージSTの位置を合わせるための情報を得る。
 観察用光学系では、AF用のダイクロイックミラーDMを透過する波長の光を使用することができる。具体的には、観察用ダイクロイックミラー24を通して、図示しない光源から光を試料20へ照射することができる。そして、観察用カメラ27で蛍光や反射光を観察することができる。
 顕微鏡105は、電動ミラーMの角度θと、スリットSLのD方向位置と、ステージSTの位置とを制御する制御装置110をさらに備える。制御装置110はステージSTの位置ではなく、対物レンズOL、結像レンズL11、レンズL12のいずれか1つまたは複数の位置を制御してもよい。
 AF用レーザー11からの光が電動ミラーMで反射されてスリットSLへと入る。電動ミラーMの角度θにより、スリットSLへの光の入射角φを制御できる。スリットSLからの光は偏光ビームスプリッターBSによって反射され、結像レンズL11、1/4波長板QRを通過した後に、ダイクロイックミラーDMで反射され、対物レンズOLを通して、試料20を載置したガラス19のガラス面Sに至る。このようにして、ガラス面Sにスリット像が投影される。
 図13の顕微鏡105では、図1の顕微鏡1と異なり、レーザー光は偏光ビームスプリッターBSにより反射される。レーザー光はAF用レーザー11から出射した時点で偏光しており、AF用レーザー11の向きを合わせることでほぼ100%の光が偏光ビームスプリッターBSにおいて反射される。偏光ビームスプリッターBSを使用することによって、入射させるレーザー光や反射光をロスなくAF用カメラ22において取得することができる。
 ガラス19の表面に至った光は、ガラス19の表面で反射する。この反射光は対物レンズOLを通過した後にダイクロイックミラーDMで反射され、1/4波長板QR、結像レンズL11、偏光ビームスプリッターBS、フィルタFおよびレンズL12を通過して、オートフォーカス用のカメラ(AF用カメラ)22で結像する。このようにして、AF用カメラ22はスリットSLの像が映る。
 図1の構成では、ダイクロイックミラーDMとハーフミラーHMの間にレンズを配置すると、配置したレンズからの反射光がAF用カメラ22へ入り込みノイズとなるため、2枚の結像レンズL1およびL2を使用していた。これに対し、図13の構成では、結像レンズL11の次に波長板QRがあり、結像レンズL11での反射光は偏光ビームスプリッターBSがあるのでAF用カメラ22へ入射しない。したがって、図1の結像レンズL1およびL2を一枚の結像レンズL11にまとめることができ、レンズを1枚減らすことができる。
 また、1/4波長板QRにより、1/4波長板QR以降の反射光だけが偏光ビームスプリッターBSを通してAF用カメラ22へと伝わる。波長板QRがないと結像レンズL11からの戻り光がAF用カメラ22へ入り、ノイズとなる。また、1/4波長板QRにある程度角度をつけて設置しないと、1/4波長板QRからの反射光がAF用カメラ22へ入り、ノイズとなる。
 結像レンズL11またはレンズL12を前後に動かすことにより、オートフォーカスの位置をガラス面からずらすことができる。なお、実際のオートフォーカスモジュールでは結像レンズL11が顕微鏡の内部に入るため、レンズL12を顕微鏡の外部に設置し外部からオフセットを調整できるようにしてある。ただし、顕微鏡の内部の結像レンズL11を制御する構成を採用すれば、レンズL12は必要ない。
 ダイクロイックミラーDMによってオートフォーカス光路と観察用の光路とを分けることができる。そのため、顕微鏡105でも観察しながらのオートフォーカスが可能である。なお、レンズL12近くのフィルタFはオートフォーカス以外の光を除くためにある。これがないと観察光がAF用カメラ22に入り込んでしまい、観察中にオートフォーカスに支障が生じる。
 実施の形態3においても、スリットSLで整形した光を、試料20をステージSTに載置したガラス面Sに対して角度をつけて照射し、その反射像の位置を見る。
 図12では、エッジの乱れは、片方エッジのみに顕著に見られることを説明したが、乱れが顕著になるエッジは、入射角度φの正負によって異なる側であることがわかった。これは、ガラス面に入射した光が反射する際に何らかの理由で散乱し、反射光側に散乱が生じるからであると考えられる。したがって、散乱しない側のエッジは入射角度φが正か負かによって予め決まる。
 図14は、入射角度が正の角度である場合の画像である。入射角度が正の角度(+φ)の場合は、エッジを観察すると左側が明瞭に見える。図15は、入射角度が負の角度である場合の画像である。入射角度が負の角度(-φ)の場合は、エッジを観察すると右側が明瞭に見える。
 図16は、エッジの検出について説明するための図である。例えば図16に示すようにAF用カメラ22で撮影した画像が左側のエッジが乱れた画像である場合、画像の右側から画素の輝度をスキャンして、しきい値を超える位置をエッジとする。両方のエッジが明瞭に見えれば重心でよいが、片方のエッジが乱れるのでこのような方法を採用する。
 エッジを検出する方法は、水浸や液浸でない対物レンズを使用する際にも役立つ。油浸対物レンズの場合、溶液とガラス面の間の光が反射する。一方、水浸や液浸でない対物レンズの場合、ガラスの下面と上面の光が反射し、反射像が重なる。片側のエッジを検出することで、ガラス上面だけを検出でき、ガラスの厚さによらないオートフォーカスが可能となる。
 エッジ検出の画像処理の方法は多くあるが一例を述べる。まず、画像をY方向に平均化して一次元にする。左のエッジを検出するには、1次元のデータを左側からスキャンして指定したしきい値を超える場所を探す。右のエッジを検出したい場合は、右からスキャンしてしきい値を超える場所を探す(図16参照)。もし、しきい値を超えない場合は、オートフォーカスは失敗したものとする。画像処理方法がシンプルなので、高速に演算することができる。
 他の方法としては、1次元のデータを微分して傾きが最大(左のエッジ)もしくは最小(右のエッジ)となるX方向の位置を検出する方法がある。この際、しきい値を事前に決めておき、すべての画素でしきい値を超えない場合はオートフォーカスが失敗したものとする。
 また、入射角度φの正負に対応して、明瞭に見えるエッジも左側と右側で入れ替わることを利用することで高精度なオートフォーカスが可能となる。
 図17は、実施の形態3における、オートフォーカスの制御を説明するためのフローチャートである。実施の形態3においても、実施の形態1、2と同様に、ガラス面Sからどの程度離れた位置に合焦させるかに従って、結像レンズL11の位置DTと電動ミラーの角度θを決定し、合焦と判定する際の収束判定値εを予め決定しておく。収束判定値によりプログラムがオートフォーカスを完了したかを知ることができ、オートフォーカス前に自動撮影を開始することを防ぐ。
 ステップS101において、制御装置110は、結像レンズL11の位置DをDTに設定し、スリットSLへの入射角度φを設定する。また、収束判定値をεとする。
 ステップS102において、制御装置110は、電動ミラーMの角度θを入射角度φとなる角度に設定する。そして、ステップS103において、制御装置110は、AF用カメラ22によって反射像を取得し、スリットSLの左側エッジの位置ELを検出する。
 その後、制御装置110は、ステップS104において入射角度-φとなるように電動ミラーMの角度θを変更し、ステップS105において再び反射像を取得し、スリットSLの右側エッジの位置ERを計算する。
 次に、制御装置110は、ステップS106においてエッジの座標の差dx(=ER-EL)にオフセット量を加えた量を算出し、ステップS107においてその量に対応する方向に対応する移動量だけZ方向にステージSTを動かす。制御装置110は、ステップS108において、差dxが判定収束値εより小さいか否かを判断する。これにより収束値に入ったどうかをユーザーやメインプログラムが知ることができる。なお、ステージSTを動かす代わりに、対物レンズOLなどの位置を調節しても良い。
 また、ステップS108においてメインプログラムから終了命令があれば(S108でYES)、制御装置110はオートフォーカスを終了する。
 実施の形態3のオートフォーカス装置は、実施の形態2のオートフォーカス装置と同様な効果を奏する。加えて、実施の形態3のオートフォーカス装置は、さらにオートフォーカスの精度を上げられる。試料に対して、スリットSLへの入射角度φと-φの2つの方向からレーザー光を照射し順次撮影して、入射角度の正負に対応する側のスリットSLの像のエッジをそれぞれ求める。そして、エッジ位置の差分をとり、差分が実際のスリット幅に近くなるようにガラス面Sの上下位置を制御する。この方法を使うと、絞りまたはスリットSLの画像の片側エッジが乱れる場合でも正確にフォーカス合わせを行なうことができる。
 なお、実施の形態3では、入射角度φが可変となる構成を採用しているが、実施の形態1と同様に、入射角度φを固定の非ゼロの角度とし、明瞭となるエッジのみを目標位置に一致させるように制御しても良い。この場合、フォーカス合わせに使用するエッジは、入射角度φの正負に対応する側のエッジとなる。
 [実施の形態4]
 実施の形態1~3では、非ゼロの固定または可変の入射角度φで、AF用光源からの光を拡大光学系に入射することによって、AF用カメラに結像する絞りまたはスリットの位置がフォーカス位置によって異なることをフォーカス合わせに利用した。
 しかし、非ゼロの角度で絞りまたはスリットに入射しなくても、絞りまたはスリットを通過後に光の一部を遮ることで同じ効果を得ることができる。実施の形態4では、絞りまたはスリット通過後に光の一部を遮る方法を採用した例を説明する。
 図18は、実施の形態4の顕微鏡の光学系の構成を示す図である。図18に示す顕微鏡201は、ステージと、オートフォーカス用の光学系と、観察用の光学系とを含んで構成される。ステージと、観察用の光学系の詳細については、実施の形態1~3と同様であるので、ここでは図示を省略し、図18にはオートフォーカス用の光学系のみを示す。
 顕微鏡201は、オートフォーカス用の光学系として、光源211と、スリットSLまたは絞りIRと、回転ミラーRM1と、結像レンズL211と、ダイクロイックミラーDMと、対物レンズOLと、センサー222と、制御装置210とを含む。
 センサー222は、実施の形態1~3と同様のAFカメラを使用しても良いが、受講面が分割された分割型の受光素子を使用しても良い。分割型の受光素子を使用する場合には、制御装置210は、複数の異なる条件で得られた遮蔽物の像を複数に区切り積算した光強度から制御目標値を決め、ステージまたは拡大光学系の位置を調整する。
 オートフォーカス用の光学系では、回転ミラーRM1で反射された光源からの光を用いてステージSTの位置を合わせるための情報を得る。
 図19は、図18における回転ミラーRM1の形状と光Bとの位置関係を示した図である。図18、図19を参照して、回転ミラーRM1は、回転軸RA1を中心に回転するように構成されている。回転ミラーRM1は、例えば、透明な円盤のガラスに蒸着によって形成されたアルミなどのパターンRP1、RP2を含む。パターンRP1は、スリットSLまたは絞りIRを通過した光を異なるパターンで反射するように構成され、パターンRP2は、パターンRP1とは異なるパターンで反射するように構成される。図18では簡単のため、光の軸φに対して、左半分と右半分が反射するようになっている。中心付近の光を通すとレンジが長くなるが、精度は低くなる。このことに留意して反射パターンを設計する。
 光源211は、レーザーのように直進性が高い光源でなくても良い。例えば、LEDや水銀ランプでもよい。したがって、光源211からの光は絞りIRまたはスリットSLに対して全方位から入射しても良い。
 絞りIRを通過した光Bは、図19の例では回転ミラーRM1のパターンRP1にあたり、光Bの半分だけが結像レンズL211へと進む。結像レンズL211を透過した光は、ダイクロイックミラーDMで反射し、対物レンズOLを通過した後に、ガラス面へあたり反射する。反射光は、対物レンズOL、ダイクロイックミラーDMを経て、結像レンズを通過しセンサー222へと到達する。
 図20は、図18に示した顕微鏡201において、回転ミラーRM1が180°回転した状態を示す図である。図21は、図20に示した回転ミラーRM1の状態と光Bとの位置関係を示す図である。
 図20、図21を参照して、回転ミラーRM1が180°回転すると、結像レンズL11に至る光は、図18の例と比べて逆半分になる。したがって、フォーカスが合っていない場合にはセンサー222に受光される位置が図18の場合とは逆方向にずれる。図18に示す状態で得られた画像と図20に示す状態で得られた画像が一致しなければフォーカスが合っていないと判定される。図18に示す状態で得られた画像と図20に示す状態で得られた画像が一致していればフォーカスが合っていると判定される。センサー222における光の位置の比較だけであれば、分割型の受光素子でも行なうことが可能である。
 実施の形態4では、回転ミラーRM1を回転させて顕微鏡201の状態を交互に図18に示す状態と図20に示す状態とし、2つの像を取得する。
 このように、制御装置210は、対物レンズOLの光軸を挟む2つの異なる位置に光を入射させ、各光に対応する画像を取得する。得られた複数の画像を比較することによって、容易に精度が向上したオートフォーカスが実現できる。この方式なら、光学系の歪みにより絞りIRまたはスリットSLのセンサー上での位置ずれが起きても、問題ないからである。
 [実施の形態5]
 実施の形態4では、絞りまたはスリットを通過した後の光の一部をミラーで反射させて対物レンズに送った。しかし、ミラーで一部を反射する代わりに、マスクで一部を遮っても同様なフォーカス合わせが実現できる。
 図22は、実施の形態5の顕微鏡の光学系の構成を示す図である。図22に示す顕微鏡251は、ステージと、オートフォーカス用の光学系と、観察用の光学系とを含んで構成される。ステージと、観察用の光学系の詳細については、実施の形態1~3と同様であるので、ここでは図示を省略し、図22にはオートフォーカス用の光学系のみを示す。
 顕微鏡251は、オートフォーカス用の光学系として、光源211と、スリットSLまたは絞りIRと、回転マスクRM2と、ハーフミラーHM2と、結像レンズL211と、ダイクロイックミラーDMと、対物レンズOLと、センサー222と、制御装置210とを含む。
 センサー222は、実施の形態4と同様、AFカメラ、分割された分割型の受光素子のいずれを使用しても良い。
 オートフォーカス用の光学系では、回転マスクRM2を透過した光源からの光を用いてステージSTの位置を合わせるための情報を得る。
 図23は、図22における回転マスクRM2の形状と光Bとの位置関係を示した図である。図22、図23を参照して、回転マスクRM2は、回転軸RA2を中心に回転するように構成されている。回転マスクRM2は、例えば、透明な円盤のガラスに蒸着によって形成されたアルミなどのパターンRP1、RP2を含む。パターンRP1とRP2は、スリットSLまたは絞りIRを通過した光が異なるパターンになるように構成される。図23では、軸に対して半分を遮断するように構成される。パターンRP1,RP2は、光を遮断することができれば、ミラーのように光源に向けて光を反射するものであっても良い。
 光源211は、実施の形態4と同様に、レーザーのように直進性が高くなくても良い。したがって、光源211からの光は絞りIRまたはスリットSLに対して全方位から入射しても良い。
 絞りIRを通過した光Bは、図22の場合は回転マスクRM2のパターンRP2にあたり、光Bの半分だけが遮られ残りの半分がハーフミラーHM2によって反射され結像レンズL211へと進む。結像レンズL211を透過した光は、ダイクロイックミラーDMで反射し、対物レンズOLを通過した後に、ガラス面へあたり反射する。この反射光は、対物レンズOL、ダイクロイックミラーDMを経て、結像レンズL211を通過しセンサー222へと到達する。
 図24は、図22に示した顕微鏡251において、回転マスクRM2が180°回転した状態を示す図である。図25は、図24に示した回転マスクRM2の状態と光Bとの位置関係を示す図である。
 図24、図25を参照して、回転マスクRM2が180°回転すると、結像レンズL11に至る光は、図22の例と比べて逆半分になる。したがって、フォーカスが合っていない場合にはセンサー222に受光される位置が図22の場合と逆方向にずれる。図22に示す状態で得られた画像と図24に示す状態で得られた画像が一致しなければフォーカスが合っていないと判定される。図22に示す状態で得られた画像と図24に示す状態で得られた画像が一致していればフォーカスが合っていると判定される。センサー222における光の位置の比較だけであれば、分割型の受光素子でも行なうことが可能である。
 実施の形態5では、回転マスクRM2を回転させて顕微鏡251の状態を交互に図22に示す状態と図24に示す状態とし、2つの像を取得する。なお、回転マスクに代えて、液晶のような電気的に光透過を操作するような素子をマスクとして用いて同様な画像を得ても良い。
 実施の形態5では、マスクのパターンを透過光が拡大光学系の光軸に対して各々非対称となるような複数のパターンとし、対物レンズへと光を照射し反射光を観察する。これにより実施の形態1~4と同様な精度のオートフォーカスを実現することができる。
 [実施の形態6]
 実施の形態6に示す顕微鏡は、実施の形態5の顕微鏡とマスクを使用する点でかなり似ているが、結像レンズ前にハーフミラーをいれた形式で結像レンズが2枚必要となる。
 図26は、実施の形態6の顕微鏡の光学系の構成を示す図である。図26に示す顕微鏡271は、ステージと、オートフォーカス用の光学系と、観察用の光学系とを含んで構成される。ステージと、観察用の光学系の詳細については、実施の形態1~3と同様であるので、ここでは図示を省略し、図26にはオートフォーカス用の光学系のみを示す。
 顕微鏡271は、オートフォーカス用の光学系として、光源211と、スリットSLまたは絞りIRと、結像レンズL211A,L211Bと、回転マスクRM3と、ハーフミラーHM3と、ダイクロイックミラーDMと、対物レンズOLと、センサー222と、制御装置210とを含む。
 センサー222は、実施の形態4と同様、AFカメラ、分割された分割型の受光素子のいずれを使用しても良い。
 オートフォーカス用の光学系では、回転マスクRM3を透過した光源からの光を用いてステージSTの位置を合わせるための情報を得る。
 図27は、図26における回転マスクRM3の形状と光Bとの位置関係を示した図である。図26、図27を参照して、回転マスクRM3は、回転軸RA3を中心に回転するように構成されている。回転マスクRM3は、例えば、透明な円盤のガラスに蒸着によって形成されたアルミなどのパターンRP1、RP2を含む。パターンRP1は、スリットSLまたは絞りIRを通過した光の軸と異なるパターンで構成され、パターンRP2は、パターンRP1とは異なるパターンで構成される。パターンRP1,RP2は、光を遮断することができれば、ミラーのように光源に向けて光を反射するものであっても良い。
 光源211は、実施の形態4、実施の形態5と同様に、LEDのようなある程度の直進性の光を発するものであれば、レーザーでなくても良い。したがって、光源211からの光は絞りIRまたはスリットSLに対して全方位から入射しても良い。
 絞りIRを通過した光Bは、結像レンズL211へと進む。結像レンズL211を透過した光は、図26に示すように回転マスクRM3のパターンRP2にあたり、光Bの半分だけが遮られ残りの半分がハーフミラーHM3によって反射される。ハーフミラーHM3によって反射された光は、ダイクロイックミラーDMで反射し、対物レンズOLを通過した後に、ガラス面へあたり反射する。この反射光は、対物レンズOL、ダイクロイックミラーDMを経て、結像レンズL211Aを通過しセンサー222へと到達する。
 図28は、図26に示した顕微鏡271において、回転マスクRM3が180°回転した状態を示す図である。図29は、図28に示した回転マスクRM3の状態と光Bとの位置関係を示す図である。
 図28、図29を参照して、回転マスクRM3が180°回転すると、結像レンズL11Aに至る光は、図26の例と比べて逆半分になる。したがって、フォーカスが合っていない場合にはセンサー222に受光される位置が図26の場合と逆方向にずれる。図26に示す状態で得られた画像と図28に示す状態で得られた画像が一致しなければフォーカスが合っていないと判定される。図26に示す状態で得られた画像と図28に示す状態で得られた画像が一致していればフォーカスが合っていると判定される。センサー222における光の位置の比較だけであれば、分割型の受光素子でも行なうことが可能である。
 実施の形態6では、回転マスクRM3を回転させて顕微鏡271の状態を交互に図26に示す状態と図28に示す状態とし、2つの像を取得する。なお、回転マスクに代えて、液晶のような電気的に光透過を操作するような素子をマスクとして用いて同様な画像を得ても良い。
 実施の形態6では、マスクのパターンを透過光が拡大光学系の光軸に対して各々非対称となるような複数のパターンとし、対物レンズへと光を照射し反射光を観察する。これにより実施の形態1~5と同様な精度のオートフォーカスを実現することができる。
 (まとめ)
 最後に、上記の実施の形態1~6について、再び図面を参照して総括する。
 本開示は、ある局面では、観察対象物(20)を載せる透明部材(19)を支持するステージ(ST)と、観察対象物を観察する拡大光学系(L1,L2,HM,DM,OL)とを有する光学装置に用いられるオートフォーカス装置に関する。オートフォーカス装置は、拡大光学系を介して観察対象物に光を放射する光源装置(11,M,13,211)と、拡大光学系に対して観察対象物とは反対の位置に配置され、光源装置から放射される放射光を制限する遮蔽物(IR,SL)と、遮蔽物および拡大光学系を経由して透明部材の反射面に至った光源装置からの放射光が反射面で反射した反射光を、拡大光学系を経由して受ける光検出装置(22,222)と、ステージまたは拡大光学系の位置を制御する制御装置(100,110,210)とを備える。図3、図4、図9、図10、図18~図29で示すように、制御装置は、遮蔽物により制限された光源装置からの放射光を観察対象物に対して複数の異なる条件で入射させて得られた遮蔽物の反射光に基づいて、ステージまたは拡大光学系の位置を調整する。
 好ましくは、図3、図4、図9、図10で示すように、光源装置は、遮蔽物に対して出射する光の角度分布を可変に調整できるように構成される。
 好ましくは、図18~図21で示すように、オートフォーカス装置は、遮蔽物により制限された光源装置からの放射光の一部を反射する光学素子(RM1)をさらに備える。光学素子で反射した光源装置からの放射光は、観察対象物に入射する。
 好ましくは、図22~図29で示すように、オートフォーカス装置は、遮蔽物により制限された光源装置からの放射光の一部を遮蔽、減光または反射する光学素子(RM2,RM3)をさらに備える。光学素子で遮蔽、減光または反射されずに通過した光源装置からの放射光は、観察対象物に入射する。
 より好ましくは、制御装置(210)は、複数の異なる条件で得られた遮蔽物の反射像の位置から制御目標値を決め、ステージまたは拡大光学系の位置を調整する。
 より好ましくは、制御装置(210)は、複数の異なる条件で得られた遮蔽物の像を複数に区切り積算した光強度から制御目標値を決め、ステージまたは拡大光学系の位置を調整する。
 本開示の他の局面では、オートフォーカス装置は、観察対象物(20)を載せる透明部材(19)を支持するステージ(ST)と、観察対象物を観察する拡大光学系(L1,L2,HM,DM,OL)とを有する光学装置に用いられる。オートフォーカス装置は、拡大光学系を介して観察対象物に光を放射する光源装置(11、M,13)と、拡大光学系に対して観察対象物とは反対の位置に配置され、光源装置から放射される放射光を制限する遮蔽物(IR)と、遮蔽物および拡大光学系を経由して透明部材の反射面に至った放射光が反射面で反射した反射光を、拡大光学系を経由して受ける撮像装置(22)と、ステージまたは拡大光学系の位置を制御する制御装置(100)とを備える。光源装置は、拡大光学系の軸に対して、非ゼロの角度(φ)で光を放射する。図3、図4で示すように、制御装置(100)は、撮像装置(22)で撮影された遮蔽物の像の位置X1が目標位置XTと一致するようにステージまたは拡大光学系の位置を調整する。
 このように、入射角度φをゼロでない角度とすることによって、絞りIRの画像の位置からステージの移動方向と移動量を直ちに算出することが可能であるので、高速なオートフォーカスが可能となる。
 好ましくは、図3に示すように、制御装置(100)は、撮像装置(22)で撮影された遮蔽物の像における遮蔽物の開口部の位置X1またはX2が目標位置XTと一致するようにステージまたは拡大光学系の位置を調整する。
 好ましくは、制御装置(100)は、撮像装置(22)で得られた画像を2値化処理などの画像処理することによって、遮蔽物(IR)の画像における開口部の内部と外部を分離する。これにより、開口部の内部に映った観察対象の像の影響を受けずに正確なオートフォーカスが可能となる。
 好ましくは、光源装置は、遮蔽物(IR)に対して出射する光の角度(φ)を可変に構成される。制御装置(100)は、光源装置に第1の角度(φ)で光を出射させた場合の遮蔽物の画像の位置である第1位置(X1)と、光源装置に第1の角度(φ)とは異なる第2の角度(-φ)で光を出射させた場合の遮蔽物(IR)の画像の位置である第2位置(X1)との差(dx)が目標値(例えばゼロ)になるように、ステージまたは拡大光学系の位置を調整する。このようにすることによって合焦点に対応する撮像画像上の目標位置を予め設定しておかなくても合焦の判断をすることができる。
 好ましくは、光源装置は、遮蔽物(IR)に対して出射する光の角度を可変に構成される。制御装置(100)は、光源装置に第1の角度(φL)で光を出射させた場合の遮蔽物(IR)の画像の位置である第1位置に基づいてステージまたは拡大光学系の位置を粗調整し、光源装置に第1の角度(φL)よりも大きさが大きい第2の角度(φH)で光を出射させた場合の遮蔽物(IR)の画像の位置である第2位置に基づいてステージまたは拡大光学系の位置を微調整する。このようにすれば、広レンジかつ高精度なオートフォーカスが実現できる。
 より好ましくは、光源装置は、直進性の高い光を出射する光源(11)と、光源が出射する光を受け、光源装置から出射する光が遮蔽物に向けて入射する角度を変えることが可能に構成された電動光学素子(M)とを含む。制御装置(100)は、光源装置から出射する光の角度(φ)が第1の角度(φまたはφL)である場合と第2の角度(-φまたはφH)である場合とで電動光学素子(M)の角度(θ)を変化させる。
 好ましくは、拡大光学系は、対物レンズ(OL)と、ハーフミラー(HM)と、ハーフミラー(HM)が透過する光路、ハーフミラー(HM)が反射する光路のいずれか一方に配置された光源側結像レンズ(L2)と、ハーフミラー(HM)が透過する光路、ハーフミラー(HM)が反射する光路のいずれか他方に配置されたカメラ側結像レンズ(L1)とを含む。
 好ましくは、光源装置は、偏光を出射し、拡大光学系は、対物レンズ(OL)と、4分の1波長板(QR)と、偏光ビームスプリッター(BS)と、4分の1波長板(QR)と偏光ビームスプリッター(BS)との間に配置された結像レンズ(L11)とを含む。このような構成とすることによって、光源装置からの光量のロスが少なくなる。また、結像レンズの枚数を少なくすることができる。
 好ましくは、制御装置(100)は、ステージ(ST)または拡大光学系の位置の調整を、遮蔽物の像のうちの開口の像の重心の座標に基づいて行なう。
 好ましくは、制御装置(110)は、ステージ(ST)または拡大光学系の位置の調整を、遮蔽物の像のうちの開口の像のエッジの座標に基づいて行なう。エッジを使用すると、重心を算出するよりも精度良く検出できる場合がある。
 この開示は他の局面では、ステージと、拡大光学系と、上記いずれかのオートフォーカス装置を備える光学装置に関する。
 この開示はさらに他の局面では、ステージと、拡大光学系と、上記いずれかのオートフォーカス装置を備える光学装置に関する。
 今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明でなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1,105,201,251,271 顕微鏡、11 AF用レーザー、13 ビームエキスパンダー、19 ガラス、20 試料、22 AF用カメラ、23 励起フィルタ、24 観察用ダイクロイックミラー、25,28 吸収フィルタ、26,L1,L2,L11,L11A,L211,L211A,L211B 結像レンズ、27 観察用カメラ、100,110,210 制御装置、101 位置調整部、102 ミラー角度調整部、103 ステージ位置調整部、211 光源、222 センサー、OL 対物レンズ、B1,B2 レーザー光、BS 偏光ビームスプリッター、DM ダイクロイックミラー、HM ハーフミラー、F フィルタ、M 電動ミラー、QR 波長板、RM1 回転ミラー、RM3 回転マスク、RP1,RP2 パターン、S ガラス面、SL スリット、ST ステージ。

Claims (18)

  1.  観察対象物を載せる透明部材を支持するステージと、前記観察対象物を観察する拡大光学系とを有する光学装置に用いられるオートフォーカス装置であって、
     前記拡大光学系を介して前記観察対象物に光を放射する光源装置と、
     前記拡大光学系に対して前記観察対象物とは反対の位置に配置され、前記光源装置から放射される放射光を制限する遮蔽物と、
     前記遮蔽物および前記拡大光学系を経由して前記透明部材の反射面に至った前記光源装置からの放射光が前記反射面で反射した反射光を、前記拡大光学系を経由して受ける光検出装置と、
     前記ステージまたは前記拡大光学系の位置を制御する制御装置とを備え、
     前記制御装置は、前記遮蔽物により制限された前記光源装置からの放射光を前記観察対象物に対して複数の異なる条件で入射させて得られた前記遮蔽物の反射光に基づいて、前記ステージまたは前記拡大光学系の位置を調整する、オートフォーカス装置。
  2.  前記光源装置は、前記遮蔽物に対して出射する光の角度分布を可変に調整できるように構成される、請求項1に記載のオートフォーカス装置。
  3.  前記遮蔽物により制限された前記光源装置からの放射光の一部を反射する光学素子をさらに備え、
     前記光学素子で反射した前記光源装置からの放射光は、前記観察対象物に入射する、請求項1に記載のオートフォーカス装置。
  4.  前記遮蔽物により制限された前記光源装置からの放射光の一部を遮蔽、減光または反射する光学素子をさらに備え、
     前記光学素子で遮蔽、減光または反射されずに通過した前記光源装置からの放射光は、前記観察対象物に入射する、請求項1に記載のオートフォーカス装置。
  5.  前記制御装置は、前記複数の異なる条件で得られた前記遮蔽物の反射像の位置から制御目標値を決め、前記ステージまたは前記拡大光学系の位置を調整する、請求項2から4のいずれか1項に記載のオートフォーカス装置。
  6.  前記制御装置は、前記複数の異なる条件で得られた前記遮蔽物の像を複数に区切り積算した光強度から制御目標値を決め、前記ステージまたは前記拡大光学系の位置を調整する、請求項2から4のいずれか1項に記載のオートフォーカス装置。
  7.  観察対象物を載せる透明部材を支持するステージと、前記観察対象物を観察する拡大光学系とを有する光学装置に用いられるオートフォーカス装置であって、
     前記拡大光学系を介して前記観察対象物に光を放射する光源装置と、
     前記拡大光学系に対して前記観察対象物とは反対の位置に配置され、前記光源装置から放射される放射光を制限する遮蔽物と、
     前記遮蔽物および前記拡大光学系を経由して前記透明部材の反射面に至った前記光源装置からの放射光が前記反射面で反射した反射光を、前記拡大光学系を経由して受ける撮像装置と、
     前記ステージまたは前記拡大光学系の位置を制御する制御装置とを備え、
     前記光源装置は、前記拡大光学系の軸に対して、非ゼロの角度で光を放射し、
     前記制御装置は、前記撮像装置で撮影された前記遮蔽物の像の位置が目標位置と一致するように前記ステージまたは前記拡大光学系の位置を調整する、オートフォーカス装置。
  8.  前記制御装置は、前記撮像装置で撮影された前記遮蔽物の像における前記遮蔽物の開口部の位置が前記目標位置と一致するように前記ステージまたは前記拡大光学系の位置を調整する、請求項7に記載のオートフォーカス装置。
  9.  前記制御装置は、前記撮像装置で得られた画像を画像処理することによって、前記遮蔽物の画像における開口部の内部と外部を分離する、請求項7または8に記載のオートフォーカス装置。
  10.  前記光源装置は、前記遮蔽物に対して出射する光の角度を可変に構成され、
     前記制御装置は、前記光源装置に第1の角度で光を出射させた場合の前記遮蔽物の画像の位置である第1位置と、前記光源装置に前記第1の角度とは異なる第2の角度で光を出射させた場合の前記遮蔽物の画像の位置である第2位置との差が目標値になるように、前記ステージまたは前記拡大光学系の位置を調整する、請求項7から9のいずれか1項に記載のオートフォーカス装置。
  11.  前記光源装置は、前記遮蔽物に対して出射する光の角度を可変に構成され、
     前記制御装置は、前記光源装置に第1の角度で光を出射させた場合の前記遮蔽物の画像の位置である第1位置に基づいて前記ステージまたは前記拡大光学系の位置を粗調整し、前記光源装置に前記第1の角度よりも大きさが大きい第2の角度で光を出射させた場合の前記遮蔽物の画像の位置である第2位置に基づいて前記ステージまたは前記拡大光学系の位置を微調整する、請求項7から9のいずれか1項に記載のオートフォーカス装置。
  12.  前記光源装置は、
     直進性の高い光を出射する光源と、
     前記光源が出射する光を受け、前記光源装置から出射する光が前記遮蔽物に向けて入射する角度を変えることが可能に構成された電動光学素子とを含み、
     前記制御装置は、前記光源装置から出射する光の角度が前記第1の角度である場合と前記第2の角度である場合とで前記電動光学素子の角度を変化させる、請求項10または11に記載のオートフォーカス装置。
  13.  前記拡大光学系は、
     対物レンズと、
     ハーフミラーと、
     前記ハーフミラーが透過する光路、前記ハーフミラーが反射する光路のいずれか一方に配置された光源側結像レンズと、
     前記ハーフミラーが透過する光路、前記ハーフミラーが反射する光路のいずれか他方に配置されたカメラ側結像レンズとを含む、請求項7から12のいずれか1項に記載のオートフォーカス装置。
  14.  前記光源装置は、偏光を出射し、
     前記拡大光学系は、
     対物レンズと、
     4分の1波長板と、
     偏光ビームスプリッターと、
     前記4分の1波長板と前記偏光ビームスプリッターとの間に配置された結像レンズとを含む、請求項7から12のいずれか1項に記載のオートフォーカス装置。
  15.  前記制御装置は、前記ステージまたは前記拡大光学系の位置の調整を、前記遮蔽物の像のうちの開口の像の重心の座標に基づいて行なう、請求項7から12のいずれか1項に記載のオートフォーカス装置。
  16.  前記制御装置は、前記ステージまたは前記拡大光学系の位置の調整を、前記遮蔽物の像のうちの開口の像のエッジの座標に基づいて行なう、請求項7から14のいずれか1項に記載のオートフォーカス装置。
  17.  前記ステージと、
     前記拡大光学系と、
     請求項1から16のいずれか1項に記載のオートフォーカス装置と
    を備える光学装置。
  18.  前記ステージと、
     前記拡大光学系と、
     請求項1から16のいずれか1項に記載のオートフォーカス装置と
    を備える顕微鏡。
PCT/JP2019/002216 2018-02-14 2019-01-24 オートフォーカス装置ならびにそれを備える光学装置および顕微鏡 WO2019159627A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020500356A JP7226825B2 (ja) 2018-02-14 2019-01-24 オートフォーカス装置ならびにそれを備える光学装置および顕微鏡
DE112019000783.1T DE112019000783T5 (de) 2018-02-14 2019-01-24 Autofokusvorrichtung und optische Apparatur und Mikroskop mit derselben
CN201980013041.5A CN111819485B (zh) 2018-02-14 2019-01-24 自动对焦装置和具备其的光学装置以及显微镜
US16/967,814 US11567293B2 (en) 2018-02-14 2019-01-24 Autofocus device, and optical apparatus and microscope including the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018024408 2018-02-14
JP2018-024408 2018-02-14

Publications (1)

Publication Number Publication Date
WO2019159627A1 true WO2019159627A1 (ja) 2019-08-22

Family

ID=67619284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002216 WO2019159627A1 (ja) 2018-02-14 2019-01-24 オートフォーカス装置ならびにそれを備える光学装置および顕微鏡

Country Status (5)

Country Link
US (1) US11567293B2 (ja)
JP (1) JP7226825B2 (ja)
CN (1) CN111819485B (ja)
DE (1) DE112019000783T5 (ja)
WO (1) WO2019159627A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7036396B1 (ja) 2021-12-30 2022-03-15 株式会社 Zido オートフォーカス装置
TWI811758B (zh) * 2020-08-07 2023-08-11 美商奈米創尼克影像公司 用於自動對焦顯微鏡系統之深度學習模組、自動對焦一顯微鏡系統之方法及非暫時性電腦可讀媒體

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113267884B (zh) * 2021-05-24 2022-06-28 凌云光技术股份有限公司 一种多层自动对焦的方法及系统
KR20230139684A (ko) * 2022-03-28 2023-10-05 주식회사 스타노스 광학현미경을 위한 자동 초점 장치 및 자동 초점 유지 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1089953A (ja) * 1996-09-12 1998-04-10 Olympus Optical Co Ltd 焦点検出装置
JP2003029130A (ja) * 2001-07-11 2003-01-29 Sony Corp 光学式顕微鏡
JP2004004634A (ja) * 2002-04-02 2004-01-08 Nikon Corp 焦点位置検出装置およびそれを備えた蛍光顕微鏡
US20110188053A1 (en) * 2010-02-01 2011-08-04 Illumina, Inc. Focusing methods and optical systems and assemblies using the same
JP2015227940A (ja) * 2014-05-30 2015-12-17 国立研究開発法人理化学研究所 光学顕微鏡システムおよびスクリーニング装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999012068A1 (fr) 1997-08-29 1999-03-11 Olympus Optical Co., Ltd. Dispositif d'eclairage a emission pour microscopes
JP3260712B2 (ja) * 1998-11-30 2002-02-25 日本電気株式会社 フォトマスク修正装置及び方法
US20030184856A1 (en) * 2002-04-02 2003-10-02 Nikon Corporation Focus point detection device and microscope using the same
CN1296742C (zh) * 2004-02-13 2007-01-24 中国科学院力学研究所 一种光学成像系统的角度自动调焦系统及方法
JP5621259B2 (ja) 2007-09-03 2014-11-12 株式会社ニコン 顕微鏡装置
JP5189472B2 (ja) * 2008-12-03 2013-04-24 株式会社ミツトヨ レーザ加工装置及びレーザ加工装置における光路調整方法
CN103292690B (zh) * 2013-05-29 2016-01-20 浙江大学 一种基于光场选择的合成孔径显微装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1089953A (ja) * 1996-09-12 1998-04-10 Olympus Optical Co Ltd 焦点検出装置
JP2003029130A (ja) * 2001-07-11 2003-01-29 Sony Corp 光学式顕微鏡
JP2004004634A (ja) * 2002-04-02 2004-01-08 Nikon Corp 焦点位置検出装置およびそれを備えた蛍光顕微鏡
US20110188053A1 (en) * 2010-02-01 2011-08-04 Illumina, Inc. Focusing methods and optical systems and assemblies using the same
JP2015227940A (ja) * 2014-05-30 2015-12-17 国立研究開発法人理化学研究所 光学顕微鏡システムおよびスクリーニング装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI811758B (zh) * 2020-08-07 2023-08-11 美商奈米創尼克影像公司 用於自動對焦顯微鏡系統之深度學習模組、自動對焦一顯微鏡系統之方法及非暫時性電腦可讀媒體
JP7036396B1 (ja) 2021-12-30 2022-03-15 株式会社 Zido オートフォーカス装置
WO2023127261A1 (ja) * 2021-12-30 2023-07-06 株式会社Zido オートフォーカス装置
JP2023099250A (ja) * 2021-12-30 2023-07-12 株式会社 Zido オートフォーカス装置

Also Published As

Publication number Publication date
US11567293B2 (en) 2023-01-31
US20210041659A1 (en) 2021-02-11
DE112019000783T5 (de) 2020-11-05
JPWO2019159627A1 (ja) 2021-02-25
CN111819485A (zh) 2020-10-23
CN111819485B (zh) 2022-07-29
JP7226825B2 (ja) 2023-02-21

Similar Documents

Publication Publication Date Title
WO2019159627A1 (ja) オートフォーカス装置ならびにそれを備える光学装置および顕微鏡
JP7153552B2 (ja) 合焦状態参照サブシステムを含む可変焦点距離レンズシステム
JP5580206B2 (ja) レーザ光機械加工
KR102458592B1 (ko) 자동 현미경 초점을 위한 시스템, 장치 및 방법
JP6414050B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20110157349A1 (en) Stage control device, stage control method, stage control program, and microscope
KR20060004963A (ko) 샘플의 이미징동안 초점위치를 결정하는 방법 및 어레이
CN109995996B (zh) 包括聚焦状态参考子系统的可变焦距透镜系统
CN106226895B (zh) 一种带反馈的旋转全内反射显微方法及装置
JPWO2019159627A5 (ja)
CN106575030A (zh) 具有分束器组件的显微镜
CN100365455C (zh) 一种光纤准直器封装方法
EP3112918B1 (en) Observation device
JP4668381B2 (ja) 自動合焦システムのための合焦用フィラメント
JP2010008458A (ja) 光学式測定装置および投影板に形成されたパターン
KR100781095B1 (ko) 라인센서를 갖는 자동초점모듈을 포함하는 압흔 검사용미분간섭 현미경
JP7036396B1 (ja) オートフォーカス装置
KR20200019386A (ko) 레이저 가공 장치
JP5881445B2 (ja) 顕微鏡
EP4089461A1 (en) Light sheet microscope having streamlined field of view changes
JP2002277729A (ja) 顕微鏡用オートフォーカス装置および方法
JPS5837043Y2 (ja) 顕微鏡におけるピント合わせ装置
WO2018207255A1 (ja) 合焦機能を備えた標本観察装置
JP2003315666A (ja) 投影光学装置における合焦機能
JP2021128321A (ja) 被写界深度拡張フイルター及び製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19754003

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020500356

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19754003

Country of ref document: EP

Kind code of ref document: A1