WO2020066250A1 - フォーカス位置評価装置、方法及びプログラム、並びに判別器 - Google Patents

フォーカス位置評価装置、方法及びプログラム、並びに判別器 Download PDF

Info

Publication number
WO2020066250A1
WO2020066250A1 PCT/JP2019/028971 JP2019028971W WO2020066250A1 WO 2020066250 A1 WO2020066250 A1 WO 2020066250A1 JP 2019028971 W JP2019028971 W JP 2019028971W WO 2020066250 A1 WO2020066250 A1 WO 2020066250A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus position
image
marker
optical system
focus
Prior art date
Application number
PCT/JP2019/028971
Other languages
English (en)
French (fr)
Inventor
室岡 孝
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2020066250A1 publication Critical patent/WO2020066250A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the technology of the present disclosure relates to a focus position evaluation device, a method, and a program.
  • pluripotent stem cells such as ES (Embryonic Stem) cells and iPS (Induced Pluripotent Stem) cells and cells induced to differentiate are photographed with a microscope or the like, and the characteristics of the images are captured to determine the differentiation state of the cells.
  • Pluripotent stem cells such as ES cells and iPS cells have the ability to differentiate into cells of various tissues, and are attracting attention as cells that can be applied in regenerative medicine, drug development, disease elucidation, etc. I have.
  • Patent Document 2 discloses a method in which a sample containing beads is flowed into a microarray in which a large number of wells are formed in a flow path, and the beads are stored in each well as a storage material. It is disclosed to observe with a microscope.
  • the present invention has been made in view of the above circumstances, and has as its object to improve the accuracy of focus position evaluation.
  • a focus position evaluation device of the present disclosure is a focus position evaluation device in a photographing device that photographs an observation target formed by a photographing optical system,
  • a marker image detecting unit that detects a marker image from a captured image obtained by capturing an image with a capturing device with a marker colored in a spherical shape and absorbing light transmitted through the capturing optical system as an observation target,
  • a focus position evaluation unit that evaluates a focus position of the imaging optical system based on the marker image.
  • the marker may have a light absorption of 10% or more.
  • the color may be black.
  • the marker may be colored with a pigment or a coloring material having a characteristic of absorbing a wavelength band of transmitted light of the imaging optical system.
  • the diameter of the marker is preferably 0.5 ⁇ m or more and 10 ⁇ m or less, more preferably 1.0 ⁇ m or more and 2.2 ⁇ m or less.
  • the marker may be formed of any of polystyrene resin, glass, and silica.
  • the captured image includes a marker, is obtained by imaging the container housing the observation target by the imaging device, and is based on the focus position evaluated by the focus position evaluation unit. And a control unit that controls the imaging device to focus the image of the observation target in the container.
  • the “container” may have any form as long as it can accommodate an observation target.
  • a container having a form having a bottom and a continuous wall at the bottom such as a petri dish, a dish, a flask or a well plate, can be used as the container.
  • a microchannel device or the like in which a fine channel is formed in a plate-like member can be used as a container.
  • a plate-shaped material such as a slide glass can be used as the container.
  • a captured image is obtained by scanning an observation region in a container in which an observation target is accommodated, and capturing each observation region in the container,
  • the control unit can perform control for focusing the image of the observation target in the container on the imaging device based on the focus position in each observation region.
  • the focus position control method of the present disclosure is a focus position evaluation method in a photographing apparatus that photographs an observation target formed by a photographing optical system, Detecting a marker image from a captured image obtained by capturing an image with a capturing device with a marker colored in a spherical shape and absorbing light transmitted through the capturing optical system as an observation target, The focus position of the photographing optical system is evaluated based on the marker image.
  • the focus position evaluation method according to the present disclosure may be provided as a program for causing a computer to execute the method.
  • Another focus position evaluation apparatus is a focus position evaluation apparatus in a photographing apparatus that photographs an observation target formed by a photographing optical system, and a memory that stores an instruction to be executed by a computer,
  • a processor configured to execute the stored instructions, the processor comprising: Detecting a marker image from a captured image obtained by capturing an image with a capturing device with a marker colored in a spherical shape and absorbing light transmitted through the capturing optical system as an observation target, A process for evaluating a focus position of the photographing optical system is executed based on the marker image.
  • FIG. 1 is a block diagram illustrating a schematic configuration of a microscope device in a microscope imaging system to which a focus position evaluation device according to an embodiment of the first embodiment is applied.
  • Schematic diagram showing the configuration of the imaging optical system Perspective view showing the configuration of the stage
  • Schematic diagram showing the configuration of the focal length changing optical system 1 is a block diagram illustrating a schematic configuration of a microscope observation system using a focus position evaluation device according to a first embodiment of the present disclosure.
  • Diagram illustrating observation of fine beads using a microscope device FIG. 4 is a view for explaining image capturing of a marker for acquiring a teacher marker image used for learning of a classifier.
  • FIG. 7 is a diagram showing a result of determining a focus position.
  • Diagram showing the scanning position of the observation area in the culture vessel 4 is a flowchart illustrating processing performed in the first embodiment. Flowchart showing processing performed in the second embodiment Diagram for explaining auto focus control
  • FIG. 1 is a block diagram illustrating a schematic configuration of a microscope device in a microscope imaging system to which a focus position evaluation device according to a first embodiment of the present invention is applied.
  • the microscope device 10 captures a phase difference image of a cultured cell to be observed.
  • the microscope apparatus 10 includes a white light source 11 that emits white light, a condenser lens 12, a slit plate 13, an imaging optical system 14, an operation unit 15, and an imaging unit 16.
  • the microscope device 10 includes a focal length changing optical system 70.
  • the imaging optical system 14 corresponds to an imaging optical system according to the present disclosure
  • the microscope device 10 corresponds to an imaging device according to the present disclosure.
  • the operation unit 15 includes a first operation unit 15A, a second operation unit 15B, a third operation unit 15C, a fourth operation unit 15D, a fifth operation unit 15E, a sixth operation unit 15F, and a seventh operation unit.
  • An operation unit 15G is provided. The operations of the first to seventh operation units 15A to 15G will be described later.
  • the slit plate 13 is provided with a ring-shaped slit that transmits white light with respect to a light-shielding plate that shields white light emitted from the white light source 11, and the white light passes through the slit to form a ring. Illumination light L is formed.
  • the imaging optical system 14 forms a phase difference image for each observation region obtained by dividing the range of the culture container 50 on the imaging unit 16.
  • FIG. 2 is a diagram illustrating a detailed configuration of the imaging optical system 14.
  • the imaging optical system 14 includes a phase difference lens 14a and an imaging lens 14d.
  • the phase difference lens 14a includes an objective lens 14b and a phase plate 14c.
  • the phase plate 14c is formed by forming a phase ring on a transparent plate transparent to the wavelength of the illumination light L.
  • the size of the slit of the slit plate 13 is conjugate with the phase ring of the phase plate 14c.
  • the phase ring is formed by forming a phase film that shifts the phase of incident light by ⁇ wavelength and a neutral density filter that diminishes incident light in a ring shape.
  • Direct light incident on the phase ring has a phase shifted by ⁇ wavelength and its brightness is weakened by passing through the phase ring.
  • most of the diffracted light diffracted by the observation target passes through the transparent plate of the phase plate 14c, and its phase and brightness do not change.
  • the phase difference lens 14a having the objective lens 14b is moved in the optical axis direction of the objective lens 14b by the fifth operation unit 15E of the operation unit 15 shown in FIG.
  • the optical axis direction of the objective lens 14b and the Z direction are the same direction.
  • the autofocus control is performed by moving the objective lens 14b in the Z direction, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • the magnification of the phase difference lens 14a may be changed.
  • the phase difference lens 14a or the imaging optical system 14 having different magnifications may be configured to be exchangeable.
  • the replacement of the phase difference lens 14a or the imaging optical system 14 may be performed automatically or manually by a user.
  • the objective lens 14b is a liquid lens whose focal length can be changed.
  • the lens is not limited to the liquid lens, and an arbitrary lens such as a liquid crystal lens and a shape deformable lens can be used.
  • the applied voltage is changed by the sixth operating unit 15F in the operating unit 15 shown in FIG. 1, and the focal length is changed. Thereby, the focal length of the imaging optical system 14 is changed.
  • Autofocus control is also performed by changing the focal length of the objective lens 14b, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • the phase difference image having passed through the phase difference lens 14a enters the imaging lens 14d, and forms an image on the imaging unit 16.
  • the imaging lens 14d is a liquid lens whose focal length can be changed.
  • the lens is not limited to the liquid lens, and an arbitrary lens such as a liquid crystal lens and a shape deformable lens can be used.
  • the applied voltage is changed by the first operating unit 15A in the operating unit 15 shown in FIG. 1, and the focal length is changed. Thereby, the focal length of the imaging optical system 14 is changed.
  • the autofocus control is performed by changing the focal length of the imaging lens 14d, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • the imaging lens 14d is moved in the optical axis direction of the imaging lens 14d by the second operation unit 15B in the operation unit 15 shown in FIG.
  • the optical axis direction of the imaging lens 14d and the Z direction are the same direction.
  • the autofocus control is performed by moving the imaging lens 14d in the Z direction, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • the imaging unit 16 acquires the phase difference image formed by the imaging lens 14d.
  • the imaging unit 16 includes an image sensor such as a charge-coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal-oxide semiconductor
  • an image sensor provided with an RGB (Red Green Blue) color filter may be used, or a monochrome image sensor may be used.
  • the imaging unit 16 is moved in the Z direction by a third operation unit 15C in the operation unit 15 shown in FIG.
  • the direction perpendicular to the imaging surface of the imaging unit 16 and the Z direction are the same direction.
  • the autofocus control is performed by moving the imaging unit 16 in the Z direction, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • a stage 51 is provided between the slit plate 13 and the imaging optical system 14. On the stage 51, a culture container 50 that accommodates cells to be observed is installed.
  • the culture container 50 corresponds to the container of the present invention.
  • a petri dish, a dish, a flask, a well plate, or the like can be used.
  • a slide glass, a microchannel device in which a fine channel is processed, or the like can be used as the container.
  • the cells contained in the culture container 50 include pluripotent stem cells such as iPS cells and ES cells, nerves differentiated from stem cells, skin, cardiac muscle and liver cells, and skin, retina, There are cells of the heart muscle, blood cells, nerves and organs.
  • the stage 51 is moved in an X direction and a Y direction orthogonal to each other by a horizontal driving unit 17 (see FIG. 5) described later.
  • the X direction and the Y direction are directions orthogonal to the Z direction, and directions orthogonal to each other in a horizontal plane.
  • the X direction is the main scanning direction
  • the Y direction is the sub scanning direction.
  • FIG. 3 is a diagram illustrating an example of the stage 51. At the center of the stage 51, a rectangular opening 51a is formed. The culture vessel 50 is set on the member forming the opening 51a, and the phase difference image of the cells in the culture vessel 50 passes through the opening 51a.
  • the stage 51 is moved in the Z direction by the fourth operating unit 15D, whereby the culture vessel 50 is moved in the Z direction.
  • the fourth operation unit 15D includes an actuator such as a piezoelectric element, for example.
  • the direction perpendicular to the surface of the stage 51 on which the culture vessel 50 is installed is the same as the Z direction.
  • the autofocus control is also performed by moving the stage 51 in the Z direction, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • the first operation unit 15A and the sixth operation unit 15F include, for example, a voltage variable circuit.
  • the first operation unit 15A changes the voltage applied to the imaging lens 14d based on a control signal output from a focus position evaluation device 30 described later.
  • the sixth operation unit 15F changes a voltage applied to the objective lens 14b based on a control signal output from a focus position evaluation device 30 described later.
  • the second operation unit 15B, the third operation unit 15C, the fourth operation unit 15D, and the fifth operation unit 15E include an actuator such as a piezoelectric element, for example. Drive based on the output control signal.
  • the operation unit 15 is configured to pass the phase difference image having passed through the phase difference lens 14a and the imaging lens 14d as it is.
  • the configurations of the second operating unit 15B, the third operating unit 15C, the fourth operating unit 15D, and the fifth operating unit 15E are not limited to the piezoelectric elements, but may include the imaging lens 14d, the imaging unit 16, the stage 51, and the like. What is necessary is just to be able to move the objective lens 14b (the phase difference lens 14a) in the Z direction, and other known configurations can be used.
  • FIG. 4 is a schematic diagram showing the configuration of the focal length changing optical system.
  • the focal length changing optical system 70 includes a circular first wedge prism 71 and a circular second wedge prism 72.
  • the seventh operation unit 15G moves the first wedge prism 71 and the second wedge prism 72 in synchronization with each other in opposite directions. Thereby, the focal position of the imaging optical system 14 is changed. Changing the focal position is synonymous with increasing or decreasing the focal length. Therefore, when the focal position of the imaging optical system 14 is changed, the focal length of the imaging optical system 14 is changed.
  • changing the focal length of the imaging optical system 14 includes changing the focal length of the imaging lens 14d by the first operation unit 15A, and changing the focal length of the imaging lens 14d by the sixth operation unit 15F. Not only changing the focal length of the imaging optical system 14 but also changing the focal length of the imaging optical system 14 by the seventh operating unit 15G.
  • the first and second wedge prisms 71 and 72 are prisms in which two surfaces that can be a light incident surface and a light exit surface are not parallel, that is, the other surface is inclined with respect to one surface.
  • a surface arranged perpendicular to the optical axis is referred to as a right-angled surface
  • a surface arranged inclined with respect to the optical axis is referred to as a wedge surface.
  • the wedge prisms 71 and 72 are prisms that deflect light that is incident perpendicularly to a right angle plane.
  • the seventh operation unit 15G includes an actuator such as a piezoelectric element, and sets the first wedge prism 71 and the second wedge prism 72 at right angles based on a control signal output from a focus position evaluation device 30 described later.
  • the planes are kept in parallel and moved synchronously in opposite directions. That is, when the first wedge prism 71 is moved rightward in FIG. 4, the second wedge prism 72 is moved leftward. Conversely, when moving the first wedge prism 71 to the left in FIG. 4, the second wedge prism 72 is moved to the right.
  • the optical path length of the light emitted from the imaging optical system 14 is changed, whereby the focal position of the imaging optical system 14 is changed. Can be changed to change the focal length. Thereby, the autofocus control is performed, and the contrast of the phase difference image acquired by the imaging unit 16 is adjusted.
  • FIG. 5 is a block diagram illustrating a configuration of the microscope observation system according to the first embodiment. Note that, regarding the microscope device 10, a block diagram of a partial configuration controlled by each unit of the microscope control device 20 is shown.
  • the microscope control device 20 controls the entire microscope device 10 and includes the focus position evaluation device 30, the scan control unit 21, and the display control unit 22 according to the first embodiment.
  • the focus position evaluation device 30 includes a marker image detection unit 31, a discriminator 32, a focus position evaluation unit 33, an operation control unit 34, and a learning unit 35 of the discriminator 32.
  • the operation control unit 34 corresponds to the control unit of the present disclosure.
  • the microscope control device 20 includes a computer having a CPU (Central Processing Unit) as a central processing unit, a semiconductor memory, a hard disk drive, and the like. And a microscope control program are installed. Then, by executing the focus position evaluation program and the microscope control program by the CPU, the marker image detection unit 31, the discriminator 32, the focus position evaluation unit 33, the operation control unit 34, the learning unit 35 shown in FIG.
  • the control unit 21 and the display control unit 22 function.
  • the CPU executes the function of each unit by the focus position evaluation program and the microscope control program.
  • a general-purpose processor that executes software to function as various processing units includes: In addition to the CPU, a programmable logic device (PLD) that can change the circuit configuration after manufacturing such as an FPGA (Field Programmable Gate Array) can be used. Further, the processing of each unit may be performed by a dedicated electric circuit or the like, which is a processor having a circuit configuration specifically designed to execute a specific processing such as an ASIC (Application Specific Integrated Circuit).
  • PLD programmable logic device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be configured by one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). It may be configured. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by computers such as a client and a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor functions as a plurality of processing units.
  • SoC System On Chip: SoC
  • SoC System On Chip
  • circuitry an electric circuit in which circuit elements such as semiconductor elements are combined.
  • a marker is included in the culture container 50 in order to evaluate a focus position for performing autofocus control.
  • the marker is a spherical bead and is a fine bead colored with a color that absorbs light transmitted through the imaging optical system 14. Since the white light source 11 of this embodiment irradiates the culture vessel 50 with white light, the fine beads of this embodiment are colored black.
  • white light means light in which light in various wavelength ranges is uniformly mixed.
  • a light source that emits light in a wavelength range other than white light is used instead of the white light source 11, for example, fine beads colored to absorb the wavelength range are used.
  • the fine beads are, for example, made of a polystyrene resin sphere having a diameter of 1.0 ⁇ m. Such fine beads can be put into the culture vessel 50 and used as a marker.
  • FIG. 6 is a view for explaining observation of fine beads by the microscope device 10.
  • the fine beads are aligned with the center position of the fine beads set on the bottom upper surface of the culture vessel 50, that is, the observation target installation plane P ⁇ b> 1. If the fine beads are transparent, the fine beads themselves function as a lens if they are transparent.
  • the thickness d of the bottom of the culture container is sufficiently large, light is imaged between the observation target installation surface P1 and the lower surface P2 of the bottom of the culture vessel 50.
  • the cells when observing cells to be observed at the focus position determined using the fine beads, the cells may be blurred, and it is desired to increase the accuracy of the evaluation of the focus position.
  • the function of the fine beads as a lens is reduced by coloring the fine beads in black, and the value of the distance ⁇ Z between the position where light is actually imaged and the center position of the fine beads is reduced. Make it smaller. As a result, it is possible to improve the accuracy in evaluating the focus position using the fine beads as described later. Therefore, when the cells are photographed at the focus position determined using the fine beads, blurring of the cells on the image can be reduced.
  • the above-described fine beads are used as markers.
  • the fine beads can reduce the lens function by, for example, setting the light absorption to 10% or more.
  • the fine beads may be colored with a pigment or a coloring material having a characteristic of absorbing a wavelength band of light transmitted through the imaging optical system 14.
  • the wavelength band of light used in a normal biological microscope apparatus is generally 380 to 780 nm, which is a visible range. When a camera having a wide spectral sensitivity range is used, the light has a wavelength band of 300 to 1100 nm.
  • OPLAS BLACK 838 of OPLAS (registered trademark) COLORS can be used.
  • the dye for example, NUBIAN (registered trademark) 6807-25 and NUBIAN (registered trademark) 6807-40 of NUBIAN (registered trademark) BLACK, and NUBIAN (registered trademark) 7807-25 and NUBIAN (registered trademark) 7807-40 Can be used.
  • the fine beads are not limited to those made of polystyrene resin, and may be formed of either glass or silica.
  • the diameter of the fine beads is not limited to 1 ⁇ m, and may be 0.5 ⁇ m or more and 10 ⁇ m or less, more preferably 1.0 ⁇ m or more and 2.2 ⁇ m or less. Since the larger the diameter of the fine beads, the larger the bead image, the diameter of the fine beads is desirably as small as possible within the observable range of the microscope device 10.
  • fine beads are used as markers, but the present disclosure is not limited thereto, and for example, magnetic beads may be used.
  • fluorescent beads or beads made of polystyrene are used as fine beads used for evaluating a focus position in a microscope apparatus.
  • magnetic beads are used as microbeads used for separating cells, proteins and nucleic acids. Magnetic beads are mainly used for adsorbing proteins to beads and separating proteins together with beads using a powerful magnetic force device.
  • the magnetic beads have a structure that is dispersed or embedded in a polymer such as polystyrene in order to prevent aggregation of the magnetic beads.
  • Magnetic beads sold for use in living organisms are more expensive than polystyrene microbeads as a material for absorbing light, and are therefore difficult to use.
  • the magnetic beads have an agglomerate structure of magnetic material particles that are not smooth circles but have uneven circles. Therefore, when determining the focus position quantitatively, it becomes noise when image recognition is performed, degrading accuracy. May be caused. For this reason, as the marker, the above-described fine beads are more preferable than the magnetic beads.
  • an image (hereinafter referred to as a photographed image G0) for evaluating the focus position is acquired by the photographing unit 16 before the acquisition of the phase difference image for the evaluation of the focus position.
  • the marker image detecting unit 31 detects a marker image from the photographed image G0 for focus position evaluation, which is acquired by the photographing unit 16.
  • the captured image G0 is a phase difference image
  • the above-described marker is represented by a contrast different from that of the background image in the phase difference image. Therefore, the marker image detecting unit 31 detects the marker image from the captured image G0 by performing the threshold processing.
  • the discriminator 32 learns using a plurality of teacher marker images photographed at different focus positions, that is, learning using feature amounts relating to a plurality of teacher marker images photographed at different focus positions. To determine the focus position of the input marker image.
  • FIG. 7 is a diagram for explaining image capturing of a marker for acquiring a teacher marker image used for learning of the discriminator 32.
  • the photographing of one marker M will be described.
  • the marker M is photographed at a plurality of focus positions. That is, first, the imaging optical system 14 is adjusted, focus control is performed so as to focus on the position P0 of the marker M, and an image focused on the marker M is obtained. Further, focus control is performed so as to focus on the positions P1 and P2 in front of the marker M, and an image defocused in the plus direction is obtained.
  • focus control is performed so as to focus on the positions P3 and P4 behind the marker M, and an image defocused in the minus direction is obtained.
  • the marker M is photographed at five focus positions P0 to P4.
  • the present invention is not limited to this, and photographing of the marker M may be performed at more or less focus positions. It may be performed.
  • FIG. 8 is a diagram showing an example of a teacher marker image.
  • FIG. 8 shows teacher marker images T0, T1, and T2 generated from images obtained by focusing on the positions P0, P1, and P2. Note that a large number (for example, 1000) of teacher marker images are prepared at each focus position.
  • the learning unit 35 associates the defocus amount with the teacher marker image.
  • the teacher marker image acquired at the focus position P0 is associated with 0 as the focus position
  • the teacher marker image acquired at the focus position P1 is associated with +6 ⁇ m as the focus position
  • the marker image is associated with +12 ⁇ m as the focus position.
  • the teacher marker image acquired at the focus position P3 is associated with -6 ⁇ m as the focus position
  • the teacher marker image acquired at the focus position P4 is associated with -12 ⁇ m as the focus position.
  • the learning unit 35 learns the discriminator 32 so as to determine the focus position of the input marker image using the teacher marker image.
  • the determiner 32 determines the focus position of the marker image.
  • the discriminator 32 calculates the probability of being at a plurality of focus positions for the marker image to be discriminated, and discriminates the focus position having the highest probability among these as the focus position of the input marker image. I do.
  • the learning unit 35 acquires a feature amount in a region of a predetermined size (for example, 3 ⁇ 3 or the like) from the teacher marker image, inputs the acquired feature amount to the discriminator 32, and inputs the acquired feature amount. Learning of the discriminator 32, that is, machine learning, is performed so as to output a discrimination result of a focus position corresponding to the teacher marker image.
  • the discriminator 32 includes a support vector machine (SVM (Support Vector Machine)), a deep neural network (DNN (Deep Neural Network)), a convolutional neural network (CNN (Convolutional Neural Network)), and a recurrent neural network (RNN ( Recurrent Neural Network)).
  • SVM Support Vector Machine
  • DNN Deep Neural Network
  • CNN convolutional neural network
  • RNN recurrent Neural Network
  • a co-occurrence matrix related to the teacher marker image may be used as the feature amount of the teacher marker image.
  • the co-occurrence matrix is a matrix indicating the distribution of signal values of pixels in an image, and expresses the frequency of signal values of pixels adjacent to a pixel having a certain signal value as a matrix.
  • the focus position of the marker image is 0, that is, when the marker image is in focus, since the contrast of the marker image is high, the pixel adjacent to the pixel of high luminance (ie, low density) has low luminance (ie, High concentration). For this reason, when the focus position of the marker image is 0, the frequency of adjacent pixels having a high signal value becomes high for pixels of high luminance.
  • the marker image when the marker image is blurred, the pixels adjacent to the high-luminance pixels do not have such low luminance. For this reason, when the marker image is blurred, since the contrast of the marker image is low, the frequency of adjacent pixels having a signal value of similar luminance increases with high luminance pixels. For this reason, the co-occurrence matrix for the teacher marker image becomes a characteristic matrix according to the degree of blurring of the marker image. Therefore, by using the co-occurrence matrix as the feature amount, the discriminator 32 can be learned so that the focus position can be accurately discriminated.
  • FIG. 9 is a diagram showing the result of determining the focus position.
  • the marker images are indicated by white circles.
  • the discriminator 32 discriminates a focus position for each of the plurality of marker images included in the captured image G0 as shown in FIG.
  • a numerical value ( ⁇ m) representing a focus position for each marker image is shown near each marker image for explanation.
  • the focus position evaluation unit 33 evaluates the statistical values of the focus positions of the plurality of marker images determined by the discriminator 32 as the focus position of the captured image G0, and determines the focus position for one captured image G0.
  • the statistical value an average value, a median value, a mode value, and the like of the focus positions of a plurality of marker images can be used. For example, assuming that the statistical value is the mode, the statistical value of the focus position is determined to be 7 ⁇ m for the captured image G0 whose focus position has been determined as shown in FIG.
  • the operation control unit 34 operates the operation unit 15 based on the focus position determined by the focus position evaluation unit 33 as described above to perform autofocus control. Specifically, a control signal is output to each of the first to seventh operation units 15A to 15G based on the focus position.
  • a control signal is output to each of the first to seventh operation units 15A to 15G based on the focus position.
  • the focal length of the imaging lens 14d is changed by the first operating unit 15A, and the focal length of the imaging optical system 14 is changed.
  • the imaging lens 14d is moved in the optical axis direction by the second operation unit 15B.
  • the imaging section 16 is moved in the optical axis direction by the third operation section 15C.
  • the stage 51 is moved in the optical axis direction by the fourth operation unit 15D.
  • the objective lens 14b is moved in the optical axis direction by the fifth operation unit 15E.
  • the focal length of the objective lens 14b is changed by the sixth operating unit 15F, and the focal length of the imaging optical system 14 is changed. Further, the focal position of the imaging optical system 14 is changed by the seventh operating unit 15G, and the focal length of the imaging optical system 14 is changed. Autofocus control is performed by these seven operations.
  • the scanning control unit 21 controls the driving of the horizontal direction driving unit 17, thereby moving the stage 51 in the X direction and the Y direction, and moving the culture container 50 in the X direction and the Y direction.
  • the horizontal driving unit 17 is configured by an actuator such as a piezoelectric element.
  • FIG. 10 is a diagram in which the scanning position by the observation area in the culture container 50 is indicated by a solid line J.
  • a well plate having six wells W is used as the culture vessel 50.
  • the observation area of the imaging optical system 14 moves along the solid line J from the scanning start point S to the scanning end point E. That is, the observation area R is moved in the positive X direction (right direction in FIG. 10), then in the Y direction (downward in FIG. 10), and in the opposite negative direction (left direction in FIG. 10). Be moved. Next, the observation area R moves again in the Y direction and moves again in the forward direction. As described above, the culture vessel 50 is two-dimensionally scanned by repeatedly performing the reciprocating movement in the X direction and the movement in the Y direction of the observation region R.
  • the stage 51 is once stopped in each observation region R.
  • a photographing image G0 for focus position evaluation is acquired by the photographing unit 16, the focus position is determined, autofocus control based on the focus position is performed, the observation region R is photographed, and the phase difference image is obtained. Is obtained.
  • the stage 51 moves, and the autofocus control is performed in the next observation region R to obtain the phase difference image.
  • a plurality of phase difference images representing the entire culture vessel 50 are obtained, and the plurality of phase difference images are combined to generate a combined phase difference image.
  • the operation control unit 34 performs autofocus control by driving and controlling the operation unit 15 based on the focus position determined in the observation area R.
  • the operation control unit 34 includes a focus position, a voltage applied to the imaging lens 14d for changing the focal length of the imaging lens 14d, an amount of movement of the imaging lens 14d in the optical axis direction, and shooting.
  • the relationship between the moving distance of the focal length changing optical system 70 and the focal length changing optical system 70 is stored in advance as a table. This table is called a first table.
  • the operation control unit 34 refers to the first table based on the determined focus position, and applies a voltage applied to the imaging lens 14d for changing the focal length of the imaging lens 14d,
  • the amount of movement in the optical axis direction, the amount of movement of the imaging section 16 in the optical axis direction, the amount of movement of the stage 51 in the optical axis direction, the amount of movement of the objective lens 14b in the optical axis direction, and the focal length of the objective lens 14b are changed.
  • the voltage applied to the objective lens 14b and the amount of movement of the focal length changing optical system 70 are obtained.
  • the voltage applied to the imaging lens 14d for changing the focal length of the imaging lens 14d, the amount of movement of the imaging lens 14d in the optical axis direction, and the movement of the imaging unit 16 in the optical axis direction Amount, the amount of movement of the stage 51 in the optical axis direction, the amount of movement of the objective lens 14b in the optical axis direction, the voltage applied to the objective lens 14b for changing the focal length of the objective lens 14b, and the The movement amount is called a focus control amount.
  • the operation control unit 34 outputs a control signal corresponding to the focus control amount to the first operation unit 15A to the seventh operation unit 15G in order to control the operation unit 15.
  • the operation control unit 34 refers to the first table based on the defocus amount, acquires the focus control amount, and outputs the acquired focus control amount to the first operation unit 15A to the seventh operation unit 15G.
  • the operation unit 15, that is, the first operation unit 15A to the seventh operation unit 15G are driven based on the input control signal. Thereby, focus control according to the focus position of the observation area R is performed.
  • the display control unit 22 generates one composite phase difference image by combining the phase difference images of each observation region R captured by the microscope device 10 and displays the composite phase difference image. It is displayed on the device 23.
  • the display device 23 displays the combined phase difference image generated by the display control unit 22 as described above, and includes, for example, a liquid crystal display or the like. Further, the display device 23 may be configured by a touch panel, and may also be used as the input device 24.
  • the input device 24 includes a mouse, a keyboard, and the like, and receives various setting inputs by the user.
  • the input device 24 of the present embodiment receives setting inputs such as an instruction to change the magnification of the phase difference lens 14a and an instruction to change the moving speed of the stage 51.
  • the culture container 50 containing the cells to be observed is set on the stage 51 (step ST10).
  • the stage 51 is moved to set the observation area R of the imaging optical system 14 to the position of the scanning start point S shown in FIG. 10, and scanning by the observation area R is started (step ST12).
  • the captured image G0 for focus position evaluation is obtained, the marker image is detected, the focus position is evaluated, the focus position is determined, and the focus position is determined.
  • a control amount is calculated, and autofocus control is performed to obtain a phase difference image.
  • These operations are performed while moving in the observation area R, obtaining a captured image G0 for the observation area R at a certain position, detecting a marker image, determining a focus position, determining a focus position, calculating a focus control amount, After the auto focus control and the acquisition of the phase difference image have been performed, in the next observation region R, the captured image G0 is acquired, the marker image is detected, the focus position is determined, the focus position is determined, the focus control amount is calculated, Auto focus control and acquisition of a phase difference image are performed.
  • the photographing image G0 for focus position evaluation is acquired by the photographing unit 16 (step ST14), and the marker image detecting unit 31 detects a marker image from the photographed image G0 (step ST16).
  • the discriminator 32 determines the focus position of the marker image included in the captured image G0 (step ST18), and the focus position evaluation unit 33 determines the focus position in the observation area R (step ST20).
  • the operation control unit 34 calculates a focus control amount based on the determined focus position (step ST22), and performs autofocus control based on the focus control amount (step ST24).
  • the operation control unit 34 drives and controls the operation unit 15 based on the movement amount stored in advance, changes the focal length of the imaging lens 14d, and moves the imaging lens 14d, the imaging unit 16 and the objective lens 14b to Z. Move in the direction. Then, after the autofocus control, the imaging unit 16 captures an image of the observation region R and acquires a phase difference image of the observation region R (step ST26). The acquired phase difference image is output from the imaging unit 16 to the display control unit 22 and stored.
  • step ST28; NO If not all scans have been completed (step ST28; NO), the observation area R moves in the X direction or Y direction, and the above-described acquisition of the photographed image G0 and the marker
  • the detection of the image, the determination of the focus position, the determination of the focus position, the calculation of the focus control amount, the autofocus control, and the acquisition of the phase difference image are repeatedly performed (steps ST14 to ST26). Then, when the observation region R reaches the position of the scanning end point E shown in FIG. 10, all scanning ends (step ST28; YES).
  • the display control unit 22 combines the phase difference images of the observation regions R to generate a combined phase difference image (step ST30), and displays the generated combined phase difference image on the display device 23. (Step ST32).
  • the function of the fine beads as a lens is reduced, and the distance ⁇ Z between the position where light is actually imaged and the center position of the fine beads is reduced. To a smaller value.
  • the accuracy in evaluating the focus position using the fine beads can be improved. Therefore, when the cells are photographed at the focus position determined using the fine beads, blurring of the cells on the image can be reduced.
  • a captured image G0 for focus position evaluation including a marker to be evaluated for a focus position is obtained, a marker image is detected from the captured image G0, and a plurality of images captured at different focus positions are obtained.
  • the learning is performed using the feature amount regarding the teacher marker image, and the focus position is determined by the determiner 32 that determines the focus position of the input marker image. Therefore, the amount of defocus can be determined at high speed with a small amount of calculation.
  • the discriminator determines the focus position of each of the plurality of marker images included in the captured image G0, and determines the statistical value of the plurality of focus positions as the focus position of the observation region R where the captured image G0 is acquired. 32, the focus position can be determined with high accuracy.
  • the focus position can be determined at high speed, so that the autofocus control can be performed at high speed.
  • the focus position evaluation device 30 is applied to a microscope imaging system.
  • image detection, focus position determination, focus position determination, focus control amount calculation, autofocus control, and acquisition of a phase difference image are performed, the present invention is not limited thereto.
  • the present invention is not limited thereto.
  • the phase difference image is obtained by observing cells contained in the same type of culture container 50 as the culture container 50 for which the focus position has been determined. Is performed.
  • this will be described as a second embodiment.
  • FIG. 12 is a flowchart showing a process performed in the second embodiment for determining a defocus amount before acquiring a phase difference image.
  • the culture container 50 containing the microbeads as markers is set on the stage 51 (step ST40).
  • the stage 51 is moved to set the observation area R of the imaging optical system 14 to the position of the scanning start point S shown in FIG. 7, and scanning by the observation area R is started (step ST42).
  • a photographed image G0 for focus position evaluation is acquired by the photographing unit 16 (step ST44), and the marker image detecting unit 31 detects a marker image from the photographed image G0 (step ST46).
  • the discriminator 32 determines the focus position of the marker image included in the captured image G0 (step ST48), and the focus position evaluation unit 33 determines the focus position in the observation area R (step ST50).
  • the operation control unit 34 calculates a focus control amount based on the determined focus position (step ST52), and stores the focus control amount in association with the position on the XY coordinates of the detection position of the culture vessel 50. (Step ST54).
  • step ST56 If not all scans have been completed (step ST56; NO), the observation area R moves in the X direction or the Y direction, and the acquisition of the captured image G0 and the marker The detection of the image, the determination of the focus position, the determination of the focus position, the calculation of the focus control amount, and the storage of the focus control amount are repeatedly performed (steps ST44 to ST54). Then, when the observation region R reaches the position of the scanning end point E shown in FIG. 10, all scanning ends (step ST56; YES).
  • the scanning of the culture vessel 50 is performed in the same manner as when determining the focus position, and when acquiring the phase difference image in each observation region R.
  • the operation control unit 34 uses the focus control amount stored in association with the XY coordinates of the culture vessel 50 corresponding to the observation area R to perform autofocus control.
  • acquisition of a phase difference image is performed while performing focus control in each observation region R.
  • the observation region R can be continuously operated on the culture container 50, so that a phase difference image can be obtained at a higher speed.
  • the operation control unit 34 stores the focus control amount in each observation region R, but may store the determined focus position. In this case, when acquiring a phase difference image in each observation region R, a focus control amount is calculated based on the stored focus position, and photographing of the observation region R and acquisition of the phase difference image are performed.
  • the “notifying unit” is a “notifying unit” that is a display that visually displays a message or the like, a sound reproducing device that displays an audible sound when a sound is output, or a permanently-visible sound that is recorded on a recording medium such as paper. It means a printer to be displayed, communication means such as e-mail and telephone, an indicator light, and the like, and may be a combination of at least two or more of the display, the audio reproducing device, the printer, the communication means, and the indicator light.
  • both the image defocused in the plus direction and the image defocused in the minus direction are used as the teacher marker images used when the discriminator 32 learns.
  • the image defocused in the plus direction and the image defocused in the minus direction are similar, even if the discriminator 32 that has learned using such a teacher marker image is used, the focus position can be reduced. It may be difficult to determine whether is a plus side focus position or a minus side focus position.
  • FIG. 13 is a diagram for explaining the auto focus control.
  • FIG. 13 illustrates autofocus control when the imaging lens 14d is moved in the Z direction.
  • the focus position when the imaging lens 14d is at the position P10 is determined to be + ⁇ .
  • the imaging target is moved by moving the imaging lens 14d away from the observation target, for example, to a position P11.
  • the imaging lens 14d is actually focused closer to the observation target and the focus position is - ⁇ , if the imaging lens 14d is moved to the position P11, the focus is further reduced.
  • the operation control unit 34 moves the imaging lens 14d in a direction approaching the observation target, for example, from the position P11 to the position P12.
  • the focus control amount is determined so as to move.
  • the autofocus control when performing auto focus control by judging the contrast of an image as in the related art, it is necessary to repeat acquisition of the captured image G0 and determination of the focus control amount until focusing on the observation target.
  • the accurate focus control amount can be determined only by performing the operation of determining the focus position again. Therefore, in the present embodiment, the autofocus control can be performed at high speed even if the focus control amount is incorrectly determined to be positive or negative.
  • the discriminator 32 may be used as a learning marker image. For example, when learning of the discriminator 32 is performed using only the image defocused in the plus direction as the teacher marker image, the determined focus position has a positive value. In this case, when the actual focus position is minus, as shown in FIG. 13 above, if the imaging lens 14d is moved to the position P11 as in the case where the focus position is plus, the focus is further reduced.
  • the imaging lens 14d when the imaging lens 14d is moved to the position P11, the captured image G0 for focus position evaluation is acquired again, and the focus position is determined. If the determined focus position is not 0, it is determined that the focus position is actually negative, and the operation control unit 34 adjusts the focus control amount so as to move the imaging lens 14d from the position P11 to the position P12. decide.
  • the operation control unit 34 adjusts the focus control amount so as to move the imaging lens 14d from the position P11 to the position P12. decide.
  • an accurate focus control amount can be determined only by performing the operation of determining the focus position again. Therefore, even if learning of the discriminator 32 is performed using only one of the image defocused in the plus direction and the image defocused in the minus direction as the teacher marker image, the autofocus control can be performed at high speed. It can be carried out.
  • a marker image with a known focus position is used as a teacher marker image for learning the discriminator 32, but the present invention is not limited to this.
  • a marker image whose focus position is unknown may be used as a teacher marker image.
  • the learning unit 35 learns the discriminator 32 so as to determine that the focus position is unknown.
  • a marker image whose focus position is unknown a marker image whose focus position has been erroneously determined as a result of input to the discriminator 32 can be used. For this reason, the learning unit 35 first performs learning so that the discriminator 32 does not determine that the focus position is unknown.
  • the marker image in which the focus position is erroneously determined is determined to be a marker image whose focus position is unknown.
  • the discriminator 32 learns again using such a marker image so as to discriminate that the focus position is unknown.
  • the discriminator 32 capable of discriminating that the focus position is unknown. Therefore, it is possible to reduce the possibility that an erroneous focus position determination result is obtained.
  • the operating unit 15 performs the autofocus control using the first to seventh operating units 15A to 15G, but any one of the first to seventh operating units 15A to 15G. Autofocus control may be performed using only one or a plurality of these. Further, only one of the first to seventh operation units 15A to 15G or a plurality of them may be provided.
  • the focal length changing optical system 70 is disposed between the imaging optical system 14 and the photographing unit 16, but is disposed between the imaging optical system 14 and the stage 51. You may.
  • the culture vessel 50 is moved in the optical axis direction by moving the stage 51 in the optical axis direction by the fourth operation unit 15D.
  • a mechanism for moving the culture vessel 50 in the optical axis direction may be provided, and only the culture vessel 50 may be moved in the optical axis direction.
  • the focus position evaluation unit 33 evaluates and determines the focus position based on the focus position determined by the discriminator 32, but the technology of the present disclosure is not limited to this.
  • the focus position evaluation device may not include the discriminator 32 and the learning unit 35.
  • the marker image detection unit 31 detects and stores a reference marker image from a captured image obtained by capturing in advance for each different focus position. Then, the focus position evaluation unit 33 calculates correlation values for all combinations of the marker image detected by the marker image detection unit 31 in the captured observation image and the reference marker image for each different focus position.
  • the focus position evaluation unit 33 determines that the combination of the marker image having the correlation value and the reference marker image is a combination to be associated, and The focus position where the marker image is obtained is determined as the focus position of the observation image.
  • the correlation value may be calculated using a zero-mean normalized cross-correlation (ZNCC).
  • ZNCC zero-mean normalized cross-correlation
  • the present invention is not limited to this, and another calculation method may be used.
  • the focus position evaluation apparatus is applied to a phase contrast microscope.
  • the present disclosure is not limited to the phase contrast microscope, and may be applied to other microscopes such as a differential interference microscope and a bright field microscope. May be applied.
  • Microscope device (imaging device) 11 White light source 12 Condenser lens 13 Slit plate 14. Imaging optical system (photographing optical system) 14a Phase difference lens 14b Objective lens 14c Phase plate 14d imaging lens 15 Working part 15A first operation unit 15B 2nd operation part 15C 3rd operation part 15D fourth operation unit 15E Fifth operation unit 15F 6th operation part 15G 7th operation part 16 Shooting unit 17 Horizontal drive 20 Microscope control device 21 Scanning control unit 22 Display control unit 23 Display device 24 Input device 30 Focus position evaluation device 31 Marker image detector 32, 32A classifier 33 Focus Position Evaluator 34 Operation control unit 35 Learning Department 50 culture vessel 51 stages 51a opening 70 Focal length changing optical system 71 First wedge prism 72 Second wedge prism J Scan position by observation area S scanning start point E Scan end point M marker, fine beads L Illumination light R observation area W Well

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

フォーカス位置評価装置、方法及びプログラム、並びに判別器において、フォーカス位置の評価の精度を向上させることができるようにする。フォーカス位置評価装置は、マーカ像検出部とフォーカス位置評価部を含む。マーカ像検出部は、球形で、かつ撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出する。フォーカス位置評価部は、マーカ像に基づいて、撮影光学系のフォーカス位置を評価する。

Description

フォーカス位置評価装置、方法及びプログラム、並びに判別器

 本開示の技術は、フォーカス位置評価装置、方法、及びプログラムに関する。

 従来、ES(Embryonic Stem)細胞及びiPS(Induced Pluripotent Stem)細胞等の多能性幹細胞や分化誘導された細胞等を顕微鏡等で撮影し、その画像の特徴を捉えることで細胞の分化状態などを判定する方法が提案されている。そして、ES細胞及びiPS細胞等の多能性幹細胞は、種々の組織の細胞に分化する能力を備えており、再生医療、薬の開発、病気の解明などにおいて応用が可能な細胞として注目されている。細胞を顕微鏡で撮影する際には、高倍率な広視野画像を取得するため、例えばウェルプレート等の培養容器の範囲内を結像光学系によって走査し、観察位置毎の画像を撮影した後、その観察位置毎の画像を結合する、いわゆるタイリング撮影を行うことが提案されている。

 しかしながら、培養容器として例えば複数のウェルを有するウェルプレートを使用する場合、各ウェルの底部の厚さは、製造上の誤差等に起因してウェル毎に異なる。そのため、ウェルプレート全体を結像光学系によって走査することによりタイリング撮影を行う場合には、観察対象を明瞭に撮影するために各観察位置についてフォーカス位置を調整するオートフォーカス制御を行なう必要がある。そこで、例えば特許文献1において、透過光に対して位相変化及び振幅変化の少なくとも一方を与えるマークを有する透光性部材により、撮影対象となる試料を固定し、試料の像とマークの像とが混在した撮像画像を取得し、この撮影画像について算出した評価値と、予め取得した試料の像を含まない基準画像について算出した評価値とに基づいて、フォーカス位置を評価する方法が提案されている。

 また、特許文献2には、ウェルが流路内に多数形成されたマイクロアレイに対し、流路にビーズを含む試料を流して各ウェルにビーズを収容物として収容させる方法において、収容されたビーズを顕微鏡で観察することが開示されている。

特開2013-254108号公報 国際公開第2017/043530号

 顕微鏡を使用してフォーカス位置を評価する際に、例えばマークとして球形の透明なビーズを使用する場合、フォーカス位置としてビーズの中心位置を取得したいが、ビーズ像のフォーカス位置はビーズの中心位置からずれてしまう。これは、ビーズ自体がレンズとして機能してしまうことにより、ビーズの中心位置ではなく、ビーズの中心位置から離れた位置において光が結像されてしまうためである。このため、透明なビーズ像を使用して決定されたフォーカス位置において観察対象である細胞を観察すると、精度よくフォーカス位置を評価出来ず、細胞がボケてしまう場合があり、フォーカス位置の評価の精度を高くすることが望まれている。

 本発明は上記事情に鑑みなされたものであり、フォーカス位置の評価の精度を向上させることを目的とする。

 本開示のフォーカス位置評価装置は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、

 球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出するマーカ像検出部と、

 マーカ像に基づいて、撮影光学系のフォーカス位置を評価するフォーカス位置評価部と、 を含む。

 また、本開示のフォーカス位置評価装置においては、マーカは、光の吸収率が10%以上であってもよい。

 また、本開示のフォーカス位置評価装置においては、色は、黒色であってもよい。

 また、本開示のフォーカス位置評価装置においては、マーカは、撮影光学系の透過光の波長帯域を吸収する特性を有する顔料又は色材で着色されていてもよい。

 また、本開示のフォーカス位置評価装置においては、マーカの直径が、0.5μm以上10μm以下であることが好ましく、1.0μm以上2.2μm以下であることがさらに好ましい。

 また、本開示のフォーカス位置評価装置においては、マーカは、ポリスチレン樹脂、ガラス、及びシリカの何れかで形成されていてもよい。

 また、本開示のフォーカス位置評価装置においては、撮影画像は、マーカを含み、観察対象が収容された容器を撮影装置により撮影することによって取得され、フォーカス位置評価部により評価されたフォーカス位置に基づいて、容器内の観察対象の像を撮影装置に合焦させる制御を行う制御部とをさらに含んでいてもよい。

 なお、本開示において「容器」とは、観察対象を収容することができればどのような形態を有するものであってもよい。例えば、シャーレ、ディッシュ、フラスコ又はウェルプレート等のように、底部及び底部に連続する壁部を有する形態を有するものを容器として用いることができる。また、板状の部材に微細な流路が形成されたマイクロ流路デバイス等を容器として用いることもできる。さらに、スライドガラスのように、板状の形態を有するものも容器として用いることができる。

 また、本開示のフォーカス位置評価装置においては、撮影画像は、観察対象が収容された容器内において観察領域を走査し、容器内の各観察領域の撮影を行うことにより取得され、

 制御部は、各観察領域において、フォーカス位置に基づいて、容器内の観察対象の像を撮影装置に合焦させる制御を行うことができる。

 また、本開示のフォーカス位置制御方法は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価方法であって、

 球形で、かつ撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、

マーカ像に基づいて、撮影光学系のフォーカス位置を評価する。

 なお、本開示によるフォーカス位置評価方法をコンピュータに実行させるためのプログラムとして提供してもよい。

 本開示による他のフォーカス位置評価装置は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、コンピュータに実行させるための命令を記憶するメモリと、

 記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、

 球形で、かつ撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、

 マーカ像に基づいて、撮影光学系のフォーカス位置を評価する処理を実行する。

 本開示の一実施形態によれば、フォーカス位置の評価の精度を向上させることができる。

第1の実施形態の実施形態のフォーカス位置評価装置を適用した顕微鏡撮影システムにおける顕微鏡装置の概略構成を示すブロック図 結像光学系の構成を示す模式図 ステージの構成を示す斜視図 焦点距離変更光学系の構成を示す模式図 本開示のフォーカス位置評価装置の第1の実施形態を用いた顕微鏡観察システムの概略構成を示すブロック図 顕微鏡装置による微細ビーズの観察を説明する図 判別器の学習に用いる教師用マーカ像を取得するためのマーカの撮影を説明するための図 教師用マーカ像の例を示す図 フォーカス位置の判別結果を示す図 培養容器内における観察域の走査位置を示す図 第1の実施形態において行われる処理を示すフローチャート 第2の実施形態において行われる処理を示すフローチャート オートフォーカス制御を説明するための図

 以下、本発明の実施形態によるフォーカス位置評価装置、方法及びプログラムの一実施形態を適用した顕微鏡撮影システムについて、図面を参照しながら詳細に説明する。図1は、本発明の第1の実施形態によるフォーカス位置評価装置を適用した顕微鏡撮影システムにおける顕微鏡装置の概略構成を示すブロック図である。

 顕微鏡装置10は、観察対象である培養された細胞の位相差画像を撮影する。具体的には、顕微鏡装置10は、図1に示すように、白色光を出射する白色光源11、コンデンサレンズ12、スリット板13、結像光学系14、動作部15、及び撮影部16を備える。

また、顕微鏡装置10は、焦点距離変更光学系70を備える。なお、結像光学系14は、本開示の撮影光学系に、顕微鏡装置10は本開示の撮影装置にそれぞれ相当する。

 動作部15は、第1の動作部15A、第2の動作部15B、第3の動作部15C、第4の動作部15D、第5の動作部15E、第6の動作部15F及び第7の動作部15Gを備える。第1~第7の動作部15A~15Gの動作は後述する。

 スリット板13は、白色光源11から出射された白色光を遮光する遮光板に対して白色光を透過するリング形状のスリットが設けられたものであり、白色光がスリットを通過することによってリング状の照明光Lが形成される。

 結像光学系14は、培養容器50の範囲内を分割した観察域毎の位相差像を撮影部16に結像する。図2は、結像光学系14の詳細な構成を示す図である。図2に示すように、結像光学系14は、位相差レンズ14a及び結像レンズ14dを備える。また、位相差レンズ14aは、対物レンズ14b及び位相板14cを備える。位相板14cは、照明光Lの波長に対して透明な透明板に対して位相リングを形成したものである。なお、上述したスリット板13のスリットの大きさは、位相板14cの位相リングと共役な関係にある。

 位相リングは、入射された光の位相を1/4波長ずらす位相膜と、入射された光を減光する減光フィルタとがリング状に形成されたものである。位相リングに入射された直接光は、位相リングを通過することによって位相が1/4波長ずれ、かつその明るさが弱められる。一方、観察対象によって回折された回折光は大部分が位相板14cの透明板を通過し、その位相及び明るさは変化しない。

 対物レンズ14bを有する位相差レンズ14aは、図1に示す動作部15の第5の動作部15Eによって、対物レンズ14bの光軸方向に移動される。本実施形態においては、対物レンズ14bの光軸方向とZ方向(鉛直方向)とは同じ方向である。対物レンズ14bのZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 また、位相差レンズ14aの倍率を変更可能な構成としてもよい。具体的には、異なる倍率を有する位相差レンズ14a又は結像光学系14を交換可能に構成するようにしてもよい。位相差レンズ14a又は結像光学系14の交換は、自動的に行うようにしてもよいし、ユーザが手動で行うようにしてもよい。

 また、対物レンズ14bは、焦点距離を変更可能な液体レンズからなる。なお、焦点距離を変更可能であれば、液体レンズに限定されるものではなく、液晶レンズ及び形状変形レンズ等、任意のレンズを用いることができる。対物レンズ14bは、図1に示す動作部15における第6の動作部15Fによって、印加される電圧が変更されて、焦点距離が変更される。これにより、結像光学系14の焦点距離が変更される。対物レンズ14bの焦点距離の変更によってもオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 結像レンズ14dは、位相差レンズ14aを通過した位相差像が入射され、これを撮影部16に結像する。本実施形態において、結像レンズ14dは、焦点距離を変更可能な液体レンズからなる。なお、焦点距離を変更可能であれば、液体レンズに限定されるものではなく、液晶レンズ及び形状変形レンズ等、任意のレンズを用いることができる。結像レンズ14dは、図1に示す動作部15における第1の動作部15Aによって、印加する電圧が変更されて、焦点距離が変更される。これにより、結像光学系14の焦点距離が変更される。結像レンズ14dの焦点距離の変更によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 また、結像レンズ14dは、図1に示す動作部15における第2の動作部15Bによって結像レンズ14dの光軸方向に移動される。なお、本実施形態においては、結像レンズ14dの光軸方向とZ方向(鉛直方向)とは同じ方向である。結像レンズ14dのZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 撮影部16は、結像レンズ14dによって結像された位相差画像を取得する。撮影部16は、CCD(Charge-Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の撮像素子を備える。撮像素子は、RGB(Red Green Blue)のカラーフィルタが設けられた撮像素子を用いてもよいし、モノクロの撮像素子を用いるようにしてもよい。

 また、撮影部16は、図1に示す動作部15における第3の動作部15CによってZ方向に移動される。なお、本実施形態においては、撮影部16の撮像面に垂直な方向とZ方向とは同じ方向である。撮影部16のZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 スリット板13と結像光学系14との間には、ステージ51が設けられている。ステージ51上には、観察対象である細胞が収容される培養容器50が設置される。

 培養容器50は本発明の容器に対応する。培養容器50としては、シャーレ、ディッシュ、フラスコ又はウェルプレート等を用いることができる。また、これらの他、容器としては、スライドガラス又は微細な流路が加工されてなるマイクロ流路デバイス等を用いることができる。また、培養容器50に収容される細胞としては、iPS細胞及びES細胞といった多能性幹細胞、幹細胞から分化誘導された神経、皮膚、心筋及び肝臓の細胞、並びに人体から取り出された皮膚、網膜、心筋、血球、神経及び臓器の細胞等がある。

 ステージ51は、後述する水平方向駆動部17(図5参照)によって互いに直交するX方向及びY方向に移動するものである。X方向及びY方向は、Z方向に直交する方向であり、水平面内において互いに直交する方向である。本実施形態においては、X方向を主走査方向とし、Y方向を副走査方向とする。

 図3は、ステージ51の一例を示す図である。ステージ51の中央には、矩形の開口51aが形成されている。この開口51aを形成する部材の上に培養容器50が設置され、培養容器50内の細胞の位相差画像が開口51aを通過するように構成されている。

 また、ステージ51は、第4の動作部15DによってZ方向に移動され、これにより、培養容器50がZ方向に移動される。第4の動作部15Dは、例えば圧電素子等のアクチュエータを備える。本実施形態においては、ステージ51における培養容器50が設置される面に垂直な方向とZ方向とは同じ方向である。ステージ51のZ方向への移動によってもオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 第1の動作部15A及び第6の動作部15Fは、例えば電圧可変回路を備えたものである。第1の動作部15Aは、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、結像レンズ14dに印加する電圧を変更する。第6の動作部15Fは、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、対物レンズ14bに印加する電圧を変更する。

 第2の動作部15B、第3の動作部15C、第4の動作部15D及び第5の動作部15Eは、例えば圧電素子等のアクチュエータを備えたものであり、後述するフォーカス位置評価装置30から出力された制御信号に基づいて駆動する。なお、動作部15は、位相差レンズ14a及び結像レンズ14dを通過した位相差像をそのまま通過させる構成となっている。また、第2の動作部15B、第3の動作部15C、第4の動作部15D及び第5の動作部15Eの構成は圧電素子に限らず、結像レンズ14d、撮影部16、ステージ51及び対物レンズ14b(位相差レンズ14a)をZ方向に移動可能なものであればよく、その他の公知な構成を用いることができる。

 図4は焦点距離変更光学系の構成を示す概略図である。図4に示すように、焦点距離変更光学系70は、円形の第1のウェッジプリズム71及び円形の第2のウェッジプリズム72を備える。第7の動作部15Gは、第1のウェッジプリズム71及び第2のウェッジプリズム72を、互いに反対方向に同期させて移動させる。これにより、結像光学系14の焦点位置が変更される。焦点位置が変更されることは、焦点距離が長くなったり短くなったりすることと同義である。このため、結像光学系14の焦点位置が変更されることにより、結像光学系の14の焦点距離が変更される。本実施形態においては、結像光学系14の焦点距離を変更することは、第1の動作部15Aにより結像レンズ14dの焦点距離を変更すること、及び第6の動作部15Fにより対物レンズ14bの焦点距離を変更することのみならず、第7の動作部15Gにより結像光学系14の焦点位置を変更することにより、結像光学系14の焦点距離を変更することも含む。

 第1及び第2のウェッジプリズム71,72は、光の入射面及び出射面となり得る2つの面が平行でない、すなわち一方の面に対して他方の面が傾斜しているプリズムである。

なお、以降の説明においては、光軸に対して垂直に配置される面を直角面、光軸に対して傾斜して配置される面をウェッジ面と称する。ウェッジプリズム71,72は、直角面に垂直に入射した光を偏向させるプリズムである。第7の動作部15Gは、例えば圧電素子等のアクチュエータを備え、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、第1のウェッジプリズム71及び第2のウェッジプリズム72を、直角面を平行に維持しつつ、互いに反対方向に同期させて移動させる。すなわち、第1のウェッジプリズム71を図4における右方向に移動させる場合には、第2のウェッジプリズム72を左方向に移動させる。逆に、第1のウェッジプリズム71を図4における左方向に移動させる場合には、第2のウェッジプリズム72を右方向に移動させる。このように、第1及び第2のウェッジプリズム71,72を移動させることにより、結像光学系14から出射された光の光路長が変更され、これにより、結像光学系14の焦点位置を変更して焦点距離を変更することができる。これにより、オートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。

 次に、顕微鏡装置10を制御する顕微鏡制御装置20の構成について説明する。図5は、第1の実施形態の顕微鏡観察システムの構成を示すブロック図である。なお、顕微鏡装置10については、顕微鏡制御装置20の各部により制御される一部の構成のブロック図を示している。

 顕微鏡制御装置20は、顕微鏡装置10全体を制御するものであり、第1の実施形態によるフォーカス位置評価装置30、走査制御部21及び表示制御部22を備える。また、フォーカス位置評価装置30は、マーカ像検出部31、判別器32、フォーカス位置評価部33、動作制御部34及び判別器32の学習部35を備える。なお、動作制御部34が本開示の制御部に対応する。

  顕微鏡制御装置20は、中央処理装置としてのCPU(Central Processing Unit)、半導体メモリ及びハードディスクドライブ等を備えたコンピュータから構成されるものであり、ハードディスクドライブに本開示のフォーカス位置評価プログラムの一実施形態及び顕微鏡制御プログラムがインストールされている。そして、このフォーカス位置評価プログラム及び顕微鏡制御プログラムがCPUによって実行されることによって、図5に示すマーカ像検出部31、判別器32、フォーカス位置評価部33、動作制御部34、学習部35、走査制御部21及び表示制御部22が機能する。

 なお、本実施形態においては、CPUがフォーカス位置評価プログラム及び顕微鏡制御プログラムによって、各部の機能を実行するようにしたが、ソフトウェアを実行して各種の処理部として機能する汎用的なプロセッサとしては、CPUの他、FPGA (Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)を用いることができる。また、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等により、各部の処理を実行するようにしてもよい。

 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、またはCPUとFPGAの組み合わせ等)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)である。

 ここで、本実施形態においては、オートフォーカス制御を行うためのフォーカス位置を評価するために、培養容器50にはマーカが含まれる。本実施形態において、マーカは球形で、かつ結像光学系14を透過する光を吸収する色に着色された微細ビーズとする。本実施形態の白色光源11は、白色光を培養容器50に照射するため、本実施形態の微細ビーズは、黒色に着色されている。ここで「白色光」は、様々な波長域の光が均一に混合した光を意味する。なお、例えば、白色光源11のかわりに、白色光以外の波長域の光を照射する光源を使用する場合には、その波長域を吸収する色に着色された微細ビーズを使用する。また、微細ビーズは、一例として、直径が1.0μmのポリスチレン樹脂製の球体からなる。このような微細ビーズを培養容器50に投入して、マーカとして用いることができる。

 図6は顕微鏡装置10による微細ビーズの観察を説明する図である。図6に示すように、培養容器50内に収容されたマーカMとしての微細ビーズを観察する場合、培養容器50の底部の上面すなわち観察対象設置面P1に設置された微細ビーズの中心位置に合焦させようとすると、微細ビーズが透明な場合には、微細ビーズ自体がレンズとして機能してしまうため、微細ビーズの中心位置ではなく、微細ビーズの中心位置からΔZ離れた位置、例えば培養容器50の底部の厚さdが十分に厚い場合には、観察対象設置面P1と培養容器50の底部の下面P2との間において光が結像されてしまう。

 そのため、微細ビーズを使用して決定されたフォーカス位置において観察対象である細胞を観察すると、細胞がボケてしまう場合があり、フォーカス位置の評価の精度を高くすることが望まれている。

 そこで本実施形態においては、微細ビーズを黒色で着色することにより、微細ビーズのレンズとしての機能を低減させ、実際に光が結像される位置と微細ビーズの中心位置との距離ΔZの値をより小さくする。これにより、微細ビーズを使用して後述するようにしてフォーカス位置を評価する際の精度を向上させることができる。従って、微細ビーズを使用して決定したフォーカス位置において細胞を撮影する際に、画像上における細胞のボケを低減することができる。

 なお、本実施形態においては、マーカとして上記微細ビーズを使用したが、本開示の技術は、これに限られず、微細ビーズ自体のレンズ機能を低減させることができればよい。

微細ビーズは、例えば、光の吸収率を10%以上とすることにより、上記レンズ機能を低減させることができる。また、微細ビーズは、結像光学系14を透過する光の波長帯域を吸収する特性を有する顔料又は色材で着色されていればよい。通常の生物用顕微鏡装置で使用される光の波長帯域は、一般的に可視域である380から780nmが多い。また、分光感度域が広いカメラを使用する場合には、光の波長帯域は300から1100nmで使用される。顔料としては、例えば、OPLAS(登録商標)COLORSのOPLAS BLACK 838を使用することができる。また、染料として、例えば、NUBIAN(登録商標)BLACKのNUBIAN(登録商標)6807-25及びNUBIAN(登録商標)6807-40、並びにNUBIAN(登録商標)7807-25及びNUBIAN(登録商標)7807-40を使用することができる。

 また、微細ビーズはポリスチレン樹脂製に限られず、ガラス及びシリカの何れかで形成されていてもよい。また、微細ビーズの直径は、1μmに限られず、0.5μm以上10μm以下、より好ましくは1.0μm以上2.2μm以下であればよい。微細ビーズの直径が大きいほど、ビーズ像が大きくなるため、微細ビーズの直径は、顕微鏡装置10において観察可能範囲において可能な限り小さいことが望ましい。

 なお、本実施形態においては、マーカとして微細ビーズを使用するが本開示はこれに限られず、例えば磁気ビーズを使用してもよい。

 一般的に、顕微鏡装置においてフォーカス位置を評価するために使用する微細ビーズとしては、蛍光ビーズ又はポリスチレン製のビーズが使用される。一方、細胞の分離、たんぱく質及び核酸の分離のために使用する微細ビーズには磁気ビーズが使用される。磁気ビーズは、用途として、主に、ビーズにたんぱく質を吸着し、強力な磁力装置でビーズごとたんぱく質を分離する際に使用される。磁気ビーズにおいては、磁気ビーズ同士の凝集を防止するために、ポリスチレンなどのポリマーに分散か、包埋された構造になっている。

生物用として販売されている磁気ビーズは、ポリスチレン製の微細ビーズに比べて光を吸収するための素材としては高価であるため、使用しにくい。磁気ビーズは、含まれる磁性体粒子の塊の構造が、滑らかな円でなく、凸凹のある円のため、フォーカス位置を定量的に求める上で、画像認識する場合に、ノイズとなり、精度を劣化させる場合がある。このため、マーカとしては、磁気ビーズよりも上述した微細ビーズの方が好ましい。

 なお、本実施形態においては、フォーカス位置の評価のために、位相差画像の取得に先立って、フォーカス位置を評価するための画像(以下撮影画像G0とする)が撮影部16により取得される。

 マーカ像検出部31は、撮影部16が取得した、フォーカス位置評価用の撮影画像G0からマーカ像を検出する。本実施形態においては、撮影画像G0は位相差画像であり、上述したマーカは、位相差画像において背景の画像と異なるコントラストにより表される。このため、マーカ像検出部31は、しきい値処理を行うことにより、撮影画像G0からマーカ像を検出する。

 判別器32は、フォーカス位置をそれぞれ変えて撮影した複数の教師用マーカ像、すなわち、異なるフォーカス位置において各々撮影された複数の教師用マーカ像に関する特徴量を用いて学習がなされ、マーカ像の入力により入力されたマーカ像のフォーカス位置を判別する。

 以下、判別器32の学習について説明する。判別器32の学習は学習部35が行う。図7は判別器32の学習に用いる教師用マーカ像を取得するためのマーカの撮影を説明するための図である。なお、図7においては、1つのマーカMの撮影について説明する。図7に示すように、教師用マーカ像を取得するためには、複数のフォーカス位置において、マーカMの撮影を行う。すなわち、まず、結像光学系14を調整し、マーカMの位置P0に合焦させるようにフォーカス制御を行い、マーカMに合焦した画像を取得する。また、マーカMの手前の位置P1及び位置P2に合焦させるようにフォーカス制御を行い、プラス方向にデフォーカスされた画像を取得する。また、マーカMの後方の位置P3及び位置P4に合焦させるようにフォーカス制御を行い、マイナス方向にデフォーカスされた画像を取得する。なお、図7においては5つのフォーカス位置P0~P4によりマーカMの撮影を行っているが、これに限定されるものではなく、より多くのフォーカス位置又はより少ないフォーカス位置おいてマーカMの撮影を行うようにしてもよい。

 そして、学習部35は、上述したように複数のフォーカス位置においてマーカMを撮影することにより取得した画像からマーカを含む領域を抽出し、教師用マーカ像を生成する。図8は教師用マーカ像の例を示す図である。なお、図8においては、位置P0,P1,P2に合焦させることにより取得した画像から生成した教師用マーカ像T0,T1,T2を示す。なお、教師用マーカ像は、それぞれのフォーカス位置において多数(例えば1000個)用意される。

 また、学習部35は、教師用マーカ像に対してデフォーカス量を対応づける。例えば、フォーカス位置P0において取得した教師用マーカ像にはフォーカス位置として0を対応づけ、フォーカス位置P1において取得した教師用マーカ像にはフォーカス位置として+6μmを対応づけ、フォーカス位置P2において取得した教師用マーカ像にはフォーカス位置として+12μmを対応づける。また、フォーカス位置P3において取得した教師用マーカ像にはフォーカス位置として-6μmを対応づけ、フォーカス位置P4において取得した教師用マーカ像にはフォーカス位置として-12μmを対応づける。

 学習部35は、教師用マーカ像を用いて、入力されたマーカ像のフォーカス位置を判別するように判別器32を学習する。本実施形態においては、判別器32は、判別対象となるマーカ像が入力されると、そのマーカ像のフォーカス位置を判別するものとする。具体的には、判別器32は、判別対象となるマーカ像について、複数のフォーカス位置となる確率を算出し、そのうちの最も高い確率となったフォーカス位置を入力されたマーカ像のフォーカス位置と判別する。このため、学習部35は、教師用マーカ像から、あらかじめ定められたサイズ(例えば3×3等)の領域内の特徴量を取得し、取得した特徴量を判別器32に入力し、入力した教師用マーカ像に対応するフォーカス位置となる判別結果を出力するように、判別器32の学習、すなわち機械学習を行う。

 なお、判別器32は、サポートベクタマシン(SVM(Support Vector Machine))、ディープニューラルネットワーク(DNN(Deep Neural Network))、畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))、及びリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等により構成することができる。

 また、教師用マーカ像の特徴量としては、教師用マーカ像に関する同時生起行列を用いてもよい。同時生起行列は、画像における画素の信号値の分布を示す行列であり、ある信号値を有する画素に隣接する画素が有する信号値の頻度を行列として表したものである。

ここで、マーカ像のフォーカス位置が0の場合、すなわちマーカ像が合焦している場合、マーカ像のコントラストが高いため、高輝度(すなわち低濃度)の画素に隣接する画素は低輝度(すなわち高濃度)となる。このため、マーカ像のフォーカス位置が0の場合、高輝度の画素については信号値が高い画素が隣接する頻度が高くなる。一方、マーカ像がボケている場合、高輝度の画素に隣接する画素はそれほど低輝度とはならない。このため、マーカ像がぼけている場合、マーカ像のコントラストが低いため、高輝度の画素については類似する輝度となる信号値の画素が隣接する頻度が高くなる。このため、教師用マーカ像に関する同時生起行列は、マーカ像のボケの程度に応じて特徴的な行列となる。したがって、同時生起行列を特徴量として用いることにより、フォーカス位置を精度よく判別可能なように、判別器32を学習することができる。

 このように学習がなされた判別器32により、撮影部16が取得した撮影画像G0に含まれるマーカのフォーカス位置が判別される。図9はフォーカス位置の判別結果を示す図である。図9においてはマーカ像を白丸により示す。判別器32は、図9に示すように撮影画像G0に含まれる複数のマーカ像のそれぞれについてフォーカス位置を判別する。図9においては、説明のために各マーカ像の近傍に、各マーカ像に対するフォーカス位置を表す数値(μm)を示している。

 フォーカス位置評価部33は、1つの撮影画像G0について、判別器32が判別した複数のマーカ像のフォーカス位置の統計値をその撮影画像G0のフォーカス位置であると評価してフォーカス位置に決定する。なお、統計値としては、複数のマーカ像のフォーカス位置の平均値、中央値及び最頻値等を用いることができる。例えば、統計値を最頻値とした場合、図9に示すようにフォーカス位置が判別された撮影画像G0については、フォーカス位置の統計値は7μmに決定される。

 動作制御部34は、上述したようにフォーカス位置評価部33が決定したフォーカス位置に基づいて、動作部15を動作させてオートフォーカス制御を行う。具体的には、フォーカス位置に基づいて、第1の動作部15A~第7の動作部15Gのそれぞれに対して制御信号を出力する。これにより、第1の動作部15Aにより結像レンズ14dの焦点距離が変更されて結像光学系14の焦点距離が変更される。また、第2の動作部15Bにより結像レンズ14dが光軸方向に移動する。また、第3の動作部15Cにより撮影部16が光軸方向に移動する。また、第4の動作部15Dによりステージ51が光軸方向に移動する。また、第5の動作部15Eにより対物レンズ14bが光軸方向に移動する。第6の動作部15Fにより対物レンズ14bの焦点距離が変更されて結像光学系14の焦点距離が変更される。さらに、第7の動作部15Gにより結像光学系14の焦点位置が変更されて、結像光学系14の焦点距離が変更される。これらの7つの動作により、オートフォーカス制御が行われる。

 走査制御部21は、水平方向駆動部17を駆動制御し、これによりステージ51をX方向及びY方向に移動させて、培養容器50をX方向及びY方向に移動させる。水平方向駆動部17は、圧電素子等のアクチュエータから構成される。

 以下、走査制御部21によるステージ51の移動制御及び動作制御部34によるオートフォーカス制御について、詳細に説明する。

 本実施形態においては、走査制御部21による制御によってステージ51をX方向及びY方向に移動させ、結像光学系14の観察域を培養容器50内において2次元状に移動して培養容器50を走査し、各観察域を撮像して位相差画像を取得する。図10は、培養容器50内における観察域による走査位置を実線Jで示した図である。なお、本実施形態においては、培養容器50として6つのウェルWを有するウェルプレートを用いる。

 図10に示すように、結像光学系14の観察域は、走査開始点Sから走査終了点Eまで実線Jに沿って移動する。すなわち、観察域Rは、X方向の正方向(図10の右方向)に移動された後、Y方向(図10の下方向)に移動し、逆の負方向(図10の左方向)に移動される。次いで、観察域Rは、再びY方向に移動し、再び正方向に移動される。このように、観察域RのX方向についての往復移動とY方向への移動を繰り返し行うことによって、培養容器50は2次元状に走査される。

 また、本実施形態においては、ステージ51は各観察域Rにおいて一端静止する。この状態において、撮影部16によりフォーカス位置評価用の撮影画像G0が取得され、フォーカス位置が決定され、フォーカス位置に基づいたオートフォーカス制御が行われ、その観察域Rが撮像されて位相差画像が取得される。位相差画像が取得されると、ステージ51が移動し、次の観察域Rにおいてオートフォーカス制御が行われて位相差画像が取得される。この動作を繰り返すことにより、培養容器50の全体を表す複数の位相差画像が取得され、複数の位相差画像を結合され合成位相差画像が生成される。

 すなわち、動作制御部34は、観察域Rにおいて決定されたフォーカス位置に基づいて、動作部15を駆動制御することによってオートフォーカス制御を行う。具体的には、動作制御部34には、フォーカス位置と、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量との関係が、予めテーブルとして記憶されている。このテーブルを第1のテーブルと称する。

 動作制御部34は、決定されたフォーカス位置に基づいて、第1のテーブルを参照して、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量をそれぞれ求める。なお、以降の説明においては、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量をフォーカス制御量と称する。

 そして、動作制御部34は、動作部15を制御するために、フォーカス制御量に応じた制御信号を、第1の動作部15A~第7の動作部15Gに出力する。具体的には、動作制御部34は、デフォーカス量に基づいて第1のテーブルを参照し、フォーカス制御量を取得し、第1の動作部15A~第7の動作部15Gに出力する。

 動作部15、すなわち第1の動作部15A~第7の動作部15Gは、入力された制御信号に基づいて駆動する。これにより、観察域Rのフォーカス位置に応じたフォーカス制御が行われる。

 図5に戻り、表示制御部22は、顕微鏡装置10によって撮像された各観察域Rの位相差画像を結合することによって、1枚の合成位相差画像を生成し、その合成位相差画像を表示装置23に表示させる。

 表示装置23は、上述したように表示制御部22によって生成された合成位相差画像を表示するものであり、例えば液晶ディスプレイ等を備える。また、表示装置23をタッチパネルによって構成し、入力装置24と兼用するようにしてもよい。

 入力装置24は、マウス及びキーボード等を備え、ユーザによる種々の設定入力を受け付けるものである。本実施形態の入力装置24は、例えば位相差レンズ14aの倍率の変更指示及びステージ51の移動速度の変更指示等の設定入力を受け付ける。

 次に、第1の実施形態のフォーカス位置評価装置を適用した顕微鏡観察システムの動作について、図11に示すフローチャートを参照しながら説明する。まず、観察対象である細胞が収容された培養容器50が、ステージ51上に設置される(ステップST10)。

次に、ステージ51が移動して結像光学系14の観察域Rが、図10に示す走査開始点Sの位置に設定され、観察域Rによる走査が開始される(ステップST12)。

 ここで、本実施形態においては、上述したように各観察域Rについて、フォーカス位置評価用の撮影画像G0が取得され、マーカ像が検出され、フォーカス位置が評価され、フォーカス位置が決定され、フォーカス制御量が算出され、オートフォーカス制御が行われて位相差画像が取得される。これらの動作は、観察域Rを移動しながら行われ、ある位置の観察域Rについての撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得が行われた後、次の観察域Rにおいて、撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得が行われる。

 このため、最初の観察域Rにおいて、フォーカス位置評価用の撮影画像G0が撮影部16により取得され(ステップST14)、マーカ像検出部31が、撮影画像G0からマーカ像を検出する(ステップST16)。次いで、判別器32が撮影画像G0に含まれるマーカ像のフォーカス位置を判別し(ステップST18)、フォーカス位置評価部33が、その観察域Rにおけるフォーカス位置を決定する(ステップST20)。そして、動作制御部34が、決定されたフォーカス位置に基づいてフォーカス制御量を算出し(ステップST22)、フォーカス制御量に基づいてオートフォーカス制御を行う(ステップST24)。すなわち、動作制御部34は、予め記憶された移動量に基づいて動作部15を駆動制御し、結像レンズ14dの焦点距離を変更し、結像レンズ14d、撮影部16及び対物レンズ14bをZ方向に移動させる。そして、オートフォーカス制御後、撮影部16が観察域Rを撮像して、その観察域Rの位相差画像を取得する(ステップST26)。取得された位相差画像は、撮影部16から表示制御部22に出力されて記憶される。

 そして、全ての走査が終了していない場合には(ステップST28;NO)、観察域RがX方向又はY方向に移動し、すべての走査が終了するまで、上述した撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御及び位相差画像の取得が繰り返し行われる(ステップST14~ステップST26)。そして、観察域Rが、図10に示す走査終了点Eの位置に到達した時点において全ての走査が終了する(ステップST28;YES)。

 全ての走査が終了した後、表示制御部22は、各観察域Rの位相差画像を結合して合成位相差画像を生成し(ステップST30)、生成した合成位相差画像を表示装置23に表示する(ステップST32)。

 このように、本実施形態においては、微細ビーズを黒色で着色することにより、微細ビーズのレンズとしての機能を低減させ、実際に光が結像される位置と微細ビーズの中心位置との距離ΔZの値をより小さくする。これにより、微細ビーズを使用してフォーカス位置を評価する際の精度を向上させることができる。従って、微細ビーズを使用して決定したフォーカス位置において細胞を撮影する際に、画像上における細胞のボケを低減することができる。

 また、本実施形態においては、フォーカス位置の評価対象であるマーカを含む、フォーカス位置評価用の撮影画像G0を取得し、撮影画像G0からマーカ像を検出し、異なるフォーカス位置により各々撮影された複数の教師用マーカ像に関する特徴量を用いて学習がなされ、入力されたマーカ像のフォーカス位置を判別する判別器32によりフォーカス位置を判別するようにした。このため、少ない演算量により、高速にデフォーカス量を決定することができる。

 また、撮影画像G0に含まれる複数のマーカ像のそれぞれについてのフォーカス位置を判別し、複数のフォーカス位置の統計値を撮影画像G0を取得した観察域Rのフォーカス位置に決定することにより、判別器32による判別結果のばらつきを吸収して、精度よくフォーカス位置を決定することができる。

 また、フォーカス位置に基づいて、培養容器50内の観察対象の像を撮影部16に合焦させることにより、フォーカス位置を高速に決定することができるため、オートフォーカス制御を高速に行うことができる。

 なお、上記第1の実施形態においては、第1の実施形態によるフォーカス位置評価装置30を顕微鏡撮影システムに適用し、観察域Rを移動させつつ、各観察域Rにおいて撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得を行っているが、これに限定されるものではない。例えば、ある培養容器50について、細胞を収容することなく、培養容器50における各観察域Rにおいて、撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、及びフォーカス制御量の算出を行うようにしてもよい。この場合、培養容器50すべての観察域Rにおいてフォーカス位置が決定された後に、フォーカス位置を決定した培養容器50と同一種類の培養容器50に収容された細胞を観察対象として、位相差画像の取得が行われる。以下、これを第2の実施形態として説明する。

 図12は位相差画像の取得に先立って、デフォーカス量を決定する、第2の実施形態において行われる処理を示すフローチャートである。まず、マーカである微細ビーズが収容された培養容器50がステージ51上に設置される(ステップST40)。次に、ステージ51が移動して結像光学系14の観察域Rが、図7に示す走査開始点Sの位置に設定され、観察域Rによる走査が開始される(ステップST42)。

 そして、最初の観察域Rにおいて、フォーカス位置評価用の撮影画像G0が撮影部16により取得され(ステップST44)、マーカ像検出部31が、撮影画像G0からマーカ像を検出する(ステップST46)。次いで、判別器32が撮影画像G0に含まれるマーカ像のフォーカス位置を判別し(ステップST48)、フォーカス位置評価部33が、その観察域Rにおけるフォーカス位置を決定する(ステップST50)。そして、動作制御部34が、決定されたフォーカス位置に基づいてフォーカス制御量を算出し(ステップST52)、フォーカス制御量を培養容器50の検出位置のX-Y座標上の位置と対応づけて記憶する(ステップST54)。

 そして、全ての走査が終了していない場合には(ステップST56;NO)、観察域RがX方向又はY方向に移動し、すべての走査が終了するまで、上述した撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、及びフォーカス制御量の記憶が繰り返し行われる(ステップST44~ステップST54)。そして、観察域Rが、図10に示す走査終了点Eの位置に到達した時点において全ての走査が終了する(ステップST56;YES)。

 なお、第2の実施形態において、位相差画像の取得時においては、フォーカス位置を決定する場合と同様に、培養容器50の走査が行われ、各観察域Rにおいて位相差画像を取得する際に、その観察域Rに対応する培養容器50のX-Y座標と対応づけて記憶されたフォーカス制御量を用いて、動作制御部34がオートフォーカス制御を行う。これにより、各観察域Rにおいてフォーカス制御を行いつつ、位相差画像の取得が行われる。この場合、フォーカス制御量を記憶するための培養容器50の走査を事前に行う必要はあるが、同一種類の培養容器50を使用する場合、位相差画像を取得する際に、各観察域Rにおいて一端ステージ51を静止させて撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得を行う必要がなくなる。これにより、培養容器50上において観察域Rを連続して操作させることができるため、より高速に位相差画像を取得することができる。

 なお、第2の実施形態においては、動作制御部34は、各観察域Rでのフォーカス制御量を記憶しているが、決定したフォーカス位置を記憶するようにしてもよい。この場合、各観察域Rにおいて位相差画像を取得する際に、記憶されたフォーカス位置に基づいてフォーカス制御量が算出されて、観察域Rの撮影及び位相差画像の取得が行われる。

 また、第2の実施形態において、ステップST50にて決定されたフォーカス位置が、顕微鏡装置10において設定不可能なフォーカス位置、すなわちフォーカス制御量が算出できない場合には、例えば表示装置23にエラー表示を出すようにしてもよいし、図示しない報知部によってフォーカス制御量が算出できないことを報知するようにしてもよい。

ここで、報知部は、本開示において、「報知部」は、メッセージ等を可視表示させるディスプレイ、音声が出力されることにより可聴表示させる音声再生装置、用紙等の記録媒体に記録して永久可視表示させるプリンタ、メールや電話等の通信手段及び表示灯等を意味し、上記ディスプレイ、上記音声再生装置、上記プリンタ、上記通信手段及び上記表示灯のうちの少なくとも2つ以上を組み合わせてもよい。

 ところで、判別器32の学習の際に使用する教師用マーカ像としては、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像の双方を用いている。

しかしながら、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像が類似している場合、そのような教師用マーカ像を用いて学習を行った判別器32を用いても、フォーカス位置がプラス側のフォーカス位置であるのかマイナス側のフォーカス位置であるのか判別することが困難となる場合がある。

 しかしながら、本実施形態においては、フォーカス位置のプラス及びマイナスを誤って判別したとしても、オートフォーカス制御を高速に行うことができる。図13はオートフォーカス制御を説明するための図である。なお、図13においては、結像レンズ14dをZ方向に移動する場合のオートフォーカス制御を示す。図13に示すように、結像レンズ14dが位置P10にあるときのフォーカス位置が+αに決定されたとする。この場合、実際のフォーカス位置がプラス(すなわち観察対象よりも遠くに合焦している状態)であれば、結像レンズ14dを観察対象から離れる方向、例えば位置P11に移動させることにより、観察対象に合焦させることができる。しかしながら、実際には観察対象よりも近くに合焦した状態にあり、フォーカス位置が-αの場合、結像レンズ14dを位置P11に移動させると、よりフォーカスが合わなくなってしまう。

 この場合、結像レンズ14dを位置P11に移動させた時点において、再度フォーカス位置評価用の撮影画像G0を取得し、フォーカス位置を決定するようにする。そして、決定したフォーカス位置が0でない場合には、フォーカス位置のプラス及びマイナスが間違っていることから、動作制御部34は、結像レンズ14dを観察対象に近づく方向、例えば位置P11から位置P12に移動させるようにフォーカス制御量を決定する。

 ここで、従来のように画像のコントラストを判断してオートフォーカス制御を行う場合、観察対象に合焦されるまで撮影画像G0の取得及びフォーカス制御量の決定を繰り返す必要がある。これに対して、本実施形態においては、フォーカス制御量のプラス及びマイナスの判別を誤ったとしても、フォーカス位置の決定の動作をもう一度行うのみで、正確なフォーカス制御量を決定することができる。したがって、本実施形態においては、フォーカス制御量のプラス及びマイナスの判別を誤ったとしても、オートフォーカス制御を高速に行うことができる。

 なお、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像が類似している場合、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像のいずれか一方のみを教師用マーカ像として使用して、判別器32の学習を行うようにしてもよい。例えば、プラス方向にデフォーカスされた画像のみを教師用マーカ像として判別器32の学習を行った場合、判別されるフォーカス位置はプラスの値となる。この場合、実際のフォーカス位置がマイナスの場合、上記図13に示すように、フォーカス位置がプラスの場合のように結像レンズ14dを位置P11に移動させると、よりフォーカスが合わなくなってしまう。

 この場合、結像レンズ14dを位置P11に移動させた時点において、再度フォーカス位置評価用の撮影画像G0を取得し、フォーカス位置を決定するようにする。そして、決定したフォーカス位置が0でない場合には、フォーカス位置が実際にはマイナスであると判定し、動作制御部34は、結像レンズ14dを位置P11からP12に移動させるようにフォーカス制御量を決定する。これにより、フォーカス位置のプラス及びマイナスを間違えた場合と同様に、フォーカス位置の決定の動作をもう一度行うのみで、正確なフォーカス制御量を決定することができる。したがって、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像のいずれか一方のみを教師用マーカ像として使用して、判別器32の学習を行っても、オートフォーカス制御を高速に行うことができる。

 なお、上記各実施形態においては、判別器32を学習するための教師用マーカ像として、フォーカス位置が既知のマーカ像を用いているが、これに限定されるものではない。例えば、フォーカス位置が不明であるマーカ像を教師用マーカ像として用いてもよい。この場合、フォーカス位置が不明であるマーカ像については、学習部35は、フォーカス位置が不明であるとの判別を行うように、判別器32の学習を行う。なお、フォーカス位置が不明であるマーカ像としては、判別器32に入力した結果、フォーカス位置を誤って判別したマーカ像を用いることができる。このため、学習部35はまず判別器32に対して、フォーカス位置が不明である旨の判別を行わないように学習を行う。そして、ある程度学習が進んだ段階で、判別器32によるフォーカス位置の判別を行った際に、フォーカス位置を誤って判別したマーカ像を、フォーカス位置が不明であるマーカ像に決定する。そして、改めてそのようなマーカ像を用いて、フォーカス位置が不明であるとの判別を行うように判別器32の学習を行う。これにより、フォーカス位置が不明であるとの判別を行うことが可能な判別器32を生成することができる。したがって、誤ったフォーカス位置の判別結果が取得される可能性を低減することができる。

 なお、上記各実施形態においては、動作部15が第1~第7の動作部15A~15Gによりオートフォーカス制御を行っているが、第1~第7の動作部15A~15Gのうちのいずれか1つのみ又はこれらのうちの複数を用いてオートフォーカス制御を行うようにしてもよい。また、第1~第7の動作部15A~15Gのうちのいずれか1つのみ又はこれらのうちの複数を備えるものとしてもよい。

 また、上記各実施形態においては、焦点距離変更光学系70を、結像光学系14と撮影部16との間に配置しているが、結像光学系14とステージ51との間に配置してもよい。

 また、上記各実施形態においては、第4の動作部15Dによりステージ51を光軸方向に移動させることにより、培養容器50を光軸方向に移動させている。しかしながら、ステージ51を光軸方向に移動させることに代えて、培養容器50を光軸方向に移動させる機構を設け、培養容器50のみを光軸方向に移動させるようにしてもよい。

 また、上記各実施形態は、フォーカス位置評価部33が、判別器32によって判別されたフォーカス位置に基づいてフォーカス位置を評価及び決定したが、本開示の技術はこれに限られない。フォーカス位置評価装置は、判別器32及び学習部35を備えていなくても良い。この場合、フォーカス位置評価部33は、異なるフォーカス位置毎に予め撮影して取得した撮影画像から、マーカ像検出部31が基準マーカ像を検出して記憶しておく。そして、フォーカス位置評価部33は、撮影された観察画像においてマーカ像検出部31が検出したマーカ像と、異なるフォーカス位置毎の上記基準マーカ像との全ての組合せについて相関値を算出する。そして相関値が予め設定された閾値以上である場合に、フォーカス位置評価部33は、その相関値を有するマーカ像と基準マーカ像の組み合わせが、対応付けられるべき組み合わせであると判定し、その基準マーカ像が取得されたフォーカス位置を観察画像のフォーカス位置として決定する。相関値の算出方法としては、例えば正規化相互相関(ZNCC:Zero-mean Normalized Cross-Correlation)を用いて算出するようにすればよい。ただし、これに限らず、その他の算出方法を用いるようにしてもよい。

 また、上記各実施形態は、本発明によるフォーカス位置評価装置を位相差顕微鏡に適用したものであるが、本開示は、位相差顕微鏡に限らず、微分干渉顕微鏡及び明視野顕微鏡等のその他の顕微鏡に適用してもよい。

10  顕微鏡装置(撮影装置)

11  白色光源

12  コンデンサレンズ

13  スリット板

14  結像光学系(撮影光学系)

14a 位相差レンズ

14b 対物レンズ

14c 位相板

14d 結像レンズ

15  動作部

15A 第1の動作部

15B 第2の動作部

15C 第3の動作部

15D 第4の動作部

15E 第5の動作部

15F 第6の動作部

15G 第7の動作部

16  撮影部

17  水平方向駆動部

20  顕微鏡制御装置

21  走査制御部

22  表示制御部

23  表示装置

24  入力装置

30  フォーカス位置評価装置

31  マーカ像検出部

32、32A  判別器

33  フォーカス位置評価部

34  動作制御部

35  学習部

50  培養容器

51  ステージ

51a 開口

70  焦点距離変更光学系

71  第1のウェッジプリズム

72  第2のウェッジプリズム

J   観察域による走査位置

S   走査開始点

E   走査終了点

M   マーカ,微細ビーズ

L   照明光

R   観察域

W   ウェル

Claims (11)


  1.  撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、

     球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出するマーカ像検出部と、

     前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価するフォーカス位置評価部と、

     を含むフォーカス位置評価装置。

  2.  前記マーカは、光の吸収率が10%以上である請求項1に記載のフォーカス位置評価装置。

  3.  前記色は、黒色である請求項1又は2に記載のフォーカス位置評価装置。

  4.  前記マーカは、前記撮影光学系の透過光の波長帯域を吸収する特性を有する顔料又は色材で着色されている請求項1から3の何れか1項に記載のフォーカス位置評価装置。

  5.  前記マーカの直径が、0.5μm以上10μm以下である請求項1から4の何れか1項に記載のフォーカス位置評価装置。

  6.  前記マーカの直径が、1.0μm以上2.2μm以下である請求項5項に記載のフォーカス位置評価装置。

  7.  前記マーカは、ポリスチレン樹脂、ガラス、及びシリカの何れかで形成されている請求項1から6の何れか1項に記載のフォーカス位置評価装置。

  8.  前記撮影画像は、前記マーカを含み、前記観察対象が収容された容器を撮影装置により撮影することによって取得され、

     前記フォーカス位置評価部により評価されたフォーカス位置に基づいて、前記容器内の前記観察対象の像を前記撮影装置に合焦させる制御を行う制御部とをさらに含む請求項1から7の何れか1項に記載のフォーカス位置評価装置。

  9.  前記撮影画像は、前記観察対象が収容された前記容器内において観察領域を走査し、前記容器内の各観察領域の撮影を行うことにより取得され、

     前記制御部は、前記各観察領域において、前記フォーカス位置に基づいて、前記容器内の前記観察対象の像を前記撮影装置に合焦させる制御を行う請求項8に記載のフォーカス位置評価装置。

  10.  撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価方法であって、

     球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、

     前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価するフォーカス位置評価方法。

  11.  撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価プログラムであって、

     球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出する手順と、

     前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価する手順と、

     をコンピュータに実行させるフォーカス位置評価プログラム。
PCT/JP2019/028971 2018-09-27 2019-07-24 フォーカス位置評価装置、方法及びプログラム、並びに判別器 WO2020066250A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018182732A JP2022001889A (ja) 2018-09-27 2018-09-27 フォーカス位置評価装置、方法及びプログラム、並びに判別器
JP2018-182732 2018-09-27

Publications (1)

Publication Number Publication Date
WO2020066250A1 true WO2020066250A1 (ja) 2020-04-02

Family

ID=69949580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028971 WO2020066250A1 (ja) 2018-09-27 2019-07-24 フォーカス位置評価装置、方法及びプログラム、並びに判別器

Country Status (2)

Country Link
JP (1) JP2022001889A (ja)
WO (1) WO2020066250A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133697A1 (ja) * 2008-04-30 2009-11-05 日本写真印刷株式会社 部分マットハードコート転写シート及びその製造方法
JP2015090471A (ja) * 2013-11-07 2015-05-11 ソニー株式会社 顕微鏡システムおよびオートフォーカス方法
JP2015523577A (ja) * 2012-07-25 2015-08-13 セラノス, インコーポレイテッド 生物学的サンプルの画像分析および測定
JP2015158570A (ja) * 2014-02-24 2015-09-03 オリンパス株式会社 合焦方法、計測方法、主点検出方法、合焦装置、計測装置及び主点検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133697A1 (ja) * 2008-04-30 2009-11-05 日本写真印刷株式会社 部分マットハードコート転写シート及びその製造方法
JP2015523577A (ja) * 2012-07-25 2015-08-13 セラノス, インコーポレイテッド 生物学的サンプルの画像分析および測定
JP2015090471A (ja) * 2013-11-07 2015-05-11 ソニー株式会社 顕微鏡システムおよびオートフォーカス方法
JP2015158570A (ja) * 2014-02-24 2015-09-03 オリンパス株式会社 合焦方法、計測方法、主点検出方法、合焦装置、計測装置及び主点検出装置

Also Published As

Publication number Publication date
JP2022001889A (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
WO2019181053A1 (ja) デフォーカス量測定装置、方法およびプログラム、並びに判別器
JP6253400B2 (ja) 画像形成方法、及び、画像形成装置
JP6718024B2 (ja) 判別器の学習装置、方法およびプログラム、並びに判別器
Dupont et al. Tracking image correlation: Combining single-particle tracking and image correlation
JP2009186291A (ja) 細胞画像解析装置及びその方法並びにそのソフトウェア
JP2009063375A (ja) 血液検査装置
WO2020066043A1 (ja) 顕微鏡システム、投影ユニット、及び、画像投影方法
US20050287520A1 (en) Screening method and device, and new drug screening method and device
US11199500B2 (en) Method and microscopy system for recording a microscopic fluorescence image of a sample region containing a biological sample
US11209637B2 (en) Observation device, observation control method, and observation control program that control acceleration of a moveable stage having an installed subject vessel
US20190195777A1 (en) Captured image evaluation apparatus, captured image evaluation method, and captured image evaluation program
JP7133636B2 (ja) フォーカス位置評価装置、方法、及びプログラム
WO2020066250A1 (ja) フォーカス位置評価装置、方法及びプログラム、並びに判別器
JP6704530B2 (ja) 撮影制御装置、方法およびプログラム
JP6785947B2 (ja) 細胞画像評価装置および方法並びにプログラム
JP6873231B2 (ja) 細胞画像評価装置および方法並びにプログラム
JP6848086B2 (ja) 観察装置および方法並びに観察装置制御プログラム
JP6993423B2 (ja) 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
JP6534294B2 (ja) 撮像装置および方法並びに撮像制御プログラム
WO2019044416A1 (ja) 撮影処理装置、撮影処理装置の制御方法および撮影処理プログラム
US20230058111A1 (en) Systems and methods for providing live sample monitoring information with parallel imaging systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19868134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19868134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP