WO2017175783A1 - 底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法 - Google Patents

底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法 Download PDF

Info

Publication number
WO2017175783A1
WO2017175783A1 PCT/JP2017/014184 JP2017014184W WO2017175783A1 WO 2017175783 A1 WO2017175783 A1 WO 2017175783A1 JP 2017014184 W JP2017014184 W JP 2017014184W WO 2017175783 A1 WO2017175783 A1 WO 2017175783A1
Authority
WO
WIPO (PCT)
Prior art keywords
container
light
unit
image acquisition
detection
Prior art date
Application number
PCT/JP2017/014184
Other languages
English (en)
French (fr)
Inventor
文晴 柴田
良介 池澤
小久保 正彦
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Priority to US16/091,072 priority Critical patent/US20190114465A1/en
Priority to CN201780021925.6A priority patent/CN108885088A/zh
Priority to EP17779161.3A priority patent/EP3441713A4/en
Publication of WO2017175783A1 publication Critical patent/WO2017175783A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M23/00Constructional details, e.g. recesses, hinges
    • C12M23/02Form or structure of the vessel
    • C12M23/12Well or multiwell plates
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/006Optical details of the image generation focusing arrangements; selection of the plane to be imaged
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/04Batch operation; multisample devices
    • G01N2201/0492Automatised microscope

Definitions

  • the present invention relates to a bottom surface position detection device that detects a bottom surface position of a light transmissive container, an image acquisition device including the bottom surface position detection device, a bottom surface position detection method that detects a bottom surface position of a light transmissive container, and the The present invention relates to an image acquisition method including a bottom surface position detection method.
  • the autofocus device described in the document includes a detection unit, a focal plane moving unit, and a control unit.
  • the detection means has a light source and a detector.
  • the detector detects reflected light emitted from the light source and reflected back on the surface and boundary surface of the transparent plate member via the objective lens.
  • the focal plane moving means relatively moves the focal plane of the objective lens and the test object along the optical axis direction.
  • the control means controls the focal plane moving means based on the output from the detector.
  • a well plate of a plastic molded product in which wells that are a plurality of depressions are arranged is often used as a cell culture container.
  • the thickness of the bottom may vary or the bottom may be curved due to problems in plastic molding. For this reason, there is a problem in that when an in-focus position acquired in a certain well is used to observe a cell in another well, the image is blurred because the focus is not achieved. Therefore, there is a need for a technique for detecting a focal position for each of a plurality of wells in consideration of variations in the thickness of the bottom of the well plate and curvature of the bottom. For this purpose, it is necessary to detect the position of the bottom surface (the top surface of the bottom plate portion) of each well.
  • the present invention has been made in view of such circumstances, and detects the position of the bottom of the recess even when the thickness of the bottom of the container varies or when the bottom of the container is curved.
  • the purpose is to provide technology that can be used.
  • a first invention of the present application is a bottom surface position detecting device for detecting a bottom surface position of a light transmissive container, wherein a holding portion that holds the container horizontally, and a light is applied to a bottom portion of the container.
  • 2nd invention of this application is a bottom face position detection apparatus of 1st invention, Comprising: The said light irradiation part irradiates light diagonally upward toward the bottom part of the said container.
  • 3rd invention of this application is an image acquisition apparatus which acquires the image of the cell arrange
  • 4th invention of this application is an image acquisition apparatus of 3rd invention, Comprising:
  • 5th invention of this application is an image acquisition apparatus of 3rd invention or 4th invention, Comprising:
  • a sixth invention of the present application is a bottom surface position detecting method for detecting a bottom surface position of a light transmissive container provided with one or more depressions recessed vertically, and a) a step of holding the container horizontally; b ) Irradiating the bottom of the container with light from the light irradiating part; c) detecting the light irradiated on the bottom of the container and reflected by the container with the detecting part; and d) determining the bottom position of the container. And calculating the first reflected light reflected from the first bottom surface that is the bottom surface of the container and the second reflected light reflected from the second bottom surface that is the bottom surface of the recess. In step d), the position of the second bottom surface is calculated based on the first peak position of the first reflected light and the second peak position of the second reflected light detected in step c).
  • 7th invention of this application is a bottom face position detection method of 6th invention, Comprising: The said process c) irradiates light diagonally upward toward the bottom part of the said container.
  • An eighth invention of the present application is the image acquisition method including the bottom surface position detection method according to claim 6 or 7, wherein the image acquisition method acquires an image of the cells arranged in the recess of the container.
  • the focal position of the imaging unit with respect to the cells is adjusted by an autofocus mechanism.
  • a ninth invention of the present application is the image acquisition method according to the eighth invention, wherein the step d) stores the position of the second bottom surface at a certain position as an autofocus reference position, and controls the horizontal movement mechanism.
  • the autofocus mechanism is controlled based on the autofocus reference position and the second peak position detected from the detection unit.
  • a tenth aspect of the present invention is the image acquisition method according to the eighth aspect or the ninth aspect, wherein the step d) stores a difference between the first peak position and the second peak position as an alternative correction value.
  • An image acquisition method including a step of controlling the autofocus mechanism based on the first peak position detected in the step c) and the substitute correction value.
  • the bottom surface position of the recess can be detected even when the thickness of the bottom of the container varies or when the bottom of the container is curved. .
  • the difference between the first peak position and the second peak position is increased.
  • the second bottom surface position can be calculated more accurately.
  • the cells placed in the recesses are Can be focused. Therefore, a clear image of the cells in the depression can be acquired.
  • the autofocus mechanism is controlled with the position of the second bottom surface at a certain position as the autofocus reference position. Therefore, the focus of an imaging part can be easily focused on the cell of another position.
  • the autofocus process can be performed even when the second reflected light cannot be obtained.
  • FIG. 1 is a perspective view of a well plate 9 set in the bottom surface position detection apparatus 1 according to the present embodiment.
  • the well plate 9 is a substantially plate-shaped sample container.
  • a transparent plastic that transmits light is used for the material of the well plate 9, for example.
  • the well plate 9 has a plurality of recesses W that are recessed downward from the upper surface.
  • each recess W is regularly arranged in the horizontal direction.
  • cells 95 to be observed are held together with the culture solution 94.
  • the culture solution 94 in each recess W may be the same type of culture solution, or may be a different culture solution to which compounds having different concentrations and compositions are added.
  • the number of recesses W included in the well plate 9 may be different from the example of FIG.
  • the shape of each recess W may be circular as viewed from above as shown in FIG. 1, or may be other shapes such as a rectangle.
  • FIG. 2 is a partial cross-sectional view of the well plate 9.
  • the bottom of the well plate 9 has a first bottom surface 91 that is the bottom surface of the well plate 9 and a second bottom surface 92 that is the bottom surface of the recess W.
  • the first bottom surface 91 is the lower surface of the bottom plate portion 90 of the well plate 9.
  • the second bottom surface 92 is the top surface of the bottom plate portion 90 of the well plate 9. Therefore, the vertical width between the first bottom surface 91 and the second bottom surface 92 is the thickness 93 of the bottom plate portion 90.
  • the first bottom surface 91 of the well plate 9 is slightly curved due to a problem in plastic molding.
  • the thickness 93 of the bottom plate portion 90 of each recess W has variations. The range of variation in the thickness 93 is, for example, several tens of ⁇ m to several hundreds of ⁇ m.
  • FIG. 3 is a schematic diagram of the bottom surface position detection apparatus 1 according to the present embodiment.
  • the bottom surface position detection device 1 is a device that detects the bottom surface position of the well plate 9. As illustrated in FIG. 3, the bottom surface position detection device 1 includes a holding unit 10, a light irradiation unit 20, a detection unit 30, and a control unit 71.
  • the holding unit 10 is a mounting table that holds the well plate 9.
  • the well plate 9 is set on the holding unit 10 in a horizontal posture with the first bottom surface 91 on the lower side.
  • the holding unit 10 holds the peripheral edge of the well plate 9. For this reason, the bottom of the well plate 9 is exposed without being covered by the holding part 10.
  • the light irradiation unit 20 is a mechanism for irradiating light toward the bottom of the well plate 9.
  • the light irradiation unit 20 of this embodiment includes a laser diode 21 and a lens 22.
  • the light irradiation unit 20 of the present embodiment irradiates laser light obliquely upward from below the well plate 9 toward the bottom of the well plate 9.
  • the laser light emitted from the laser diode 21 is collected by the lens 22 and travels toward the first bottom surface 91.
  • the laser light that has reached the first bottom surface 91 is refracted from the first bottom surface 91 into the bottom plate portion 90 and is reflected by the second bottom surface 92. It is divided into two reflected light 82.
  • the detection unit 30 is a mechanism that detects the laser light irradiated from the light irradiation unit 20 and reflected from the bottom of the well plate 9.
  • the detection unit 30 according to this embodiment includes a CMOS sensor 31 and a pair of lenses 32.
  • the first reflected light 81 reflected on the first bottom surface 91 and the second reflected light 82 reflected on the second bottom surface 92 are collected by the pair of lenses 32 and enter the CMOS sensor 31.
  • FIG. 4 is a diagram showing the light quantity distribution of the reflected light incident on the CMOS sensor 31.
  • the horizontal axis of FIG. 4 shows the incident position of the reflected light in the CMOS sensor 31.
  • the vertical axis in FIG. 4 indicates the amount of light.
  • the CMOS sensor 31 detects the amount of light at each value of the first reflected light 81 and the second reflected light 82.
  • the first peak position 811 where the light amount of the first reflected light 81 is the largest and the second peak position 821 where the light amount of the second reflected light 82 is the largest are detected.
  • the control unit 71 is realized by a computer 70 described later.
  • the control unit 71 controls the operations of the light irradiation unit 20 and the detection unit 30. Further, the control unit 71 calculates the position of the second bottom surface 92 from the first peak position 811 of the first reflected light 81 and the second peak position 821 of the second reflected light 82 detected from the detection unit 30.
  • FIG. 5 is a diagram conceptually showing the configuration of the image acquisition apparatus 2 according to an embodiment of the present invention.
  • FIG. 6 is a diagram showing a configuration in the vicinity of the well plate 9 of the image acquisition device 2.
  • the image acquisition device 2 is a device that photographs the well plate 9 and processes the obtained image data.
  • the image acquisition device 2 is used, for example, in a screening process for narrowing down compounds that are drug candidates in the field of drug research and development.
  • the person in charge of the screening process verifies the utility of the compound added to the culture solution 94 by comparing and analyzing the image data of each well plate 9 using the image acquired by the image acquisition device 2.
  • the image acquisition device 2 may be used for development of cells such as pluripotent stem cells.
  • the image acquisition device 2 includes the bottom surface position detection device 1, the transmission illumination unit 11, the imaging unit 12, the vertical movement mechanism 40, the horizontal movement mechanism 50, and auto.
  • a focus mechanism 60, a display device 78, an input device 79, and a computer 70 are provided.
  • the bottom surface position detection device 1, the transmitted illumination unit 11, the imaging unit 12, the display device 78, and the input device 79 are each electrically connected to the computer 70.
  • the transmitted illumination unit 11 is disposed above the well plate 9 held by the holding unit 10.
  • the imaging unit 12 is disposed below the well plate 9.
  • the imaging unit 12 is configured by, for example, a camera having an imaging lens and an imaging element such as a CCD or a CMOS.
  • white light is irradiated from the transmission illumination unit 11 toward a part of the well plate 9.
  • the white light passes through the well plate 9 and travels downward from the well plate 9.
  • the imaging unit 12 images the part of the well plate 9 through an objective lens 61 described later.
  • the transmitted illumination part 11 should just irradiate light with respect to the well plate 9.
  • the light source itself of the transmitted illumination unit 11 may be arranged at a position off the upper side of the well plate 9 and the well plate 9 may be irradiated with light through an optical system such as a mirror.
  • the transmitted illumination unit 11 may be disposed below the well plate 9, and the imaging unit 12 may be disposed above the well plate 9.
  • the light reflected by the well plate 9 may be configured to enter the imaging unit 12.
  • the light irradiated to the well plate 9 is not limited to white light.
  • the vertical movement mechanism 40 is a mechanism that moves the holding unit 10 in the vertical direction.
  • the vertical movement mechanism 40 includes a motor 41 that is a driving source and a ball screw 42 that transmits the driving force of the motor 41.
  • One end of the ball screw 42 is connected to the motor 41.
  • the holding unit 10 is attached to the ball screw 42 so as to mesh with a spiral thread groove provided on the outer peripheral surface of the ball screw 42.
  • the motor 41 is driven, the ball screw 42 rotates around its axis.
  • the holding unit 10 and the well plate 9 move in the vertical direction along the ball screw 42. In other words, the rotational motion of the motor 41 is converted into the vertical motion of the holding unit 10 through the ball screw 42.
  • the horizontal movement mechanism 50 is a mechanism that moves the light irradiation unit 20, the detection unit 30, and the autofocus mechanism 60 in the horizontal direction.
  • the horizontal movement mechanism 50 includes a motor 51 that is a driving source, a ball screw 52 that transmits a driving force of the motor 51, and a connecting member 53.
  • One end of the ball screw 52 is connected to the motor 51.
  • the light irradiation unit 20, the detection unit 30, the imaging unit 12, and the autofocus mechanism 60 are connected to each other by a connecting member 53.
  • the connecting member 53 is attached to the ball screw 52 so as to mesh with a spiral thread groove provided on the outer peripheral surface of the ball screw 52.
  • the light irradiation unit 20, the detection unit 30, the imaging unit 12, and the autofocus mechanism 60 connected by the connecting member 53 are horizontally aligned along the ball screw 52 while maintaining the relative positional relationship between them.
  • the rotational movement of the motor 51 is converted into the horizontal movement of the holding unit 10 through the ball screw 52.
  • the autofocus mechanism 60 is a mechanism for focusing the imaging unit 12 on the cell 95 in the recess W.
  • the autofocus mechanism 60 according to the present embodiment has a movable portion that includes an objective lens 61 and an AF axis moving mechanism 62.
  • the objective lens 61 is an optical system for focusing the imaging unit 12 on the cell 95 in the recess W of the well plate 9. Note that the autofocus mechanism 60 including the objective lens 61 may be a part of the imaging unit 12.
  • the AF axis moving mechanism 62 is a mechanism that moves the objective lens 61 in the vertical direction with respect to the connecting member 53.
  • the AF axis moving mechanism 62 includes a motor 621 that is a drive source, a ball screw 622, and a support base 623.
  • the objective lens 61 is fixed to the support base 623.
  • the ball screw 622 extends in the vertical direction, and one end thereof is connected to the motor 621.
  • the support base 623 is attached to the ball screw 622 so as to mesh with a spiral thread groove provided on the outer peripheral surface of the ball screw 622.
  • the motor 621 is driven, the ball screw 622 rotates around its axis. As a result, the support base 623 moves along the ball screw 622.
  • the rotational movement of the motor 621 is converted into the vertical movement of the objective lens 61 fixed to the support base 623 via the ball screw 622.
  • the AF axis moving mechanism 62 can move the support base 623 at a finer pitch than the vertical movement mechanism 40.
  • the movable range of the AF axis moving mechanism 62 is narrower than the movable range of the vertical direction moving mechanism 40.
  • the display device 78 is a part for displaying an image acquired and processed by the image acquisition device 2.
  • a liquid crystal display is used.
  • the input device 79 is a part for inputting various commands to the computer 70.
  • a keyboard or a mouse is used.
  • the user of the image acquisition apparatus 2 can input various commands to the computer 70 by operating the input device 79 while checking the display device 78.
  • both the function of the display device 78 and the function of the input device 79 may be realized by a single device such as a touch panel display.
  • the computer 70 is an information processing apparatus having a CPU and a memory. As illustrated in FIG. 5, the computer 70 includes the control unit 71, the image processing unit 74, and the storage unit 75 described above. The computer 70 implements the functions of the control unit 71 and the image processing unit 74 by operating in accordance with preset computer programs, input signals, and various data.
  • the control unit 71 controls the operations of the transmission illumination unit 11, the imaging unit 12, the laser diode 21, the CMOS sensor 31, and the motors 41, 51, and 621 described above. Thereby, an image acquisition process to be described later is executed.
  • the control unit 71 of this embodiment includes a motor controller 72 and an AF substrate 73.
  • the control unit 71 controls the vertical movement mechanism 40 via the motor controller 72.
  • maintenance part 10 is moved to an up-down direction.
  • the control unit 71 controls the AF axis moving mechanism 62 via the AF substrate 73.
  • the objective lens 61 is moved up and down.
  • a detection signal from the detection unit 30 is read by the computer 70 via the AF substrate 73.
  • one AF substrate 73 performs both reading of the detection signal from the detection unit 30 and control of the AF axis moving mechanism 62. Thereby, an autofocus process can be performed with respect to each recess W in a short time.
  • the image processing unit 74 processes the image of each cell 95 in the recess W based on the acquired image data.
  • the processed image is displayed on the display device 78.
  • the image processing unit 74 may have a function of performing image processing based on a command input by the input device 79 or a function of automatically performing screening processing based on an acquired image.
  • the storage unit 75 is a part that stores various data handled in the image acquisition device 2.
  • the storage unit 75 is realized by a storage device such as a hard disk drive or a RAM, for example.
  • the storage unit 75 may be a part of hardware constituting the computer 70 or may be an external storage device connected to the computer 70.
  • FIG. 7 is a diagram showing the trajectory of the scanning process for the well plate 9 by the image acquisition device 2 of the present embodiment.
  • the image acquisition device 2 moves the light irradiation unit 20, the detection unit 30, the imaging unit 12, and the autofocus mechanism 60 in the horizontal direction.
  • the image acquisition device 2 performs autofocus processing on the recesses W (W1 to Wn) of the well plate 9 in the order of W1, W2, W3,.
  • a scanning process is performed in which the imaging unit 12 captures an image of the cell 95 in the recess W.
  • the scan processing by the image acquisition device 2 may be based on a trajectory and order other than those in FIG.
  • the control unit 71 detects the position of the second bottom surface 92 from the first reflected light 81 and the second reflected light 82 incident on the CMOS sensor 31. As shown in FIG. 4, the amount of the second reflected light 82 incident on the CMOS sensor 31 is smaller than the amount of the first reflected light 81. Thereby, the control unit 71 specifies the second reflected light 82 and the second peak position 821. Further, the difference ⁇ Z between the first peak position 811 and the second peak position 821 varies depending on the thickness 93 of the bottom plate portion 90 of the well plate 9. That is, ⁇ Z increases as the thickness 93 of the bottom plate portion 90 increases, and ⁇ Z decreases as the thickness 93 of the bottom plate portion 90 decreases. The controller 71 detects the position of the second bottom surface 92 from the second peak position 821 and the difference ⁇ Z.
  • the autofocus process is a process for automatically adjusting the focus of the imaging unit 12 to the cell 95 in the recess W for each recess W.
  • the control unit 71 executes the autofocus process by controlling the AF axis moving mechanism 62 of the autofocus mechanism 60 based on the detected position of the second bottom surface 92.
  • FIG. 8 is a flowchart showing a general flow of image acquisition processing by the image acquisition device 2.
  • the user selects one of the plurality of depressions W.
  • the control unit 71 moves the light irradiation unit 20, the detection unit 30, the imaging unit 12, and the autofocus mechanism 60 above and below the selected depression (hereinafter referred to as a designated depression Ws) (step S1).
  • the recess W1 becomes the designated recess Ws.
  • the control unit 71 sets an AF reference position to be described later (step S2).
  • the control unit 71 controls the AF axis moving mechanism 62 to execute a cell focus process for focusing on the cell 95 in the recess W (step S3).
  • control unit 71 controls the horizontal movement mechanism 50 and performs an autofocus process on the cells 95 in the depressions W to be imaged, while imaging the cells 95 in the plurality of depressions W. 12 performs a scanning process for sequentially capturing images (step S4).
  • FIG. 9 is a flowchart showing details of the AF reference position setting process.
  • 10 to 13 are diagrams showing examples of light quantity distribution detected by the CMOS sensor 31 in the AF reference position setting process.
  • the AF (autofocus) reference position is a relative position of the second bottom surface 92 with respect to the objective lens 61 when the focus of the imaging unit 12 is aligned with the second bottom surface 92 of the designated depression Ws selected by the user.
  • the AF reference position setting process is a process of adjusting the vertical position of the holding unit 10 in order to focus the imaging unit 12 on the second bottom surface 92 of the designated recess Ws.
  • the AF reference position is a reference position for performing autofocus processing in the other recess W.
  • step S2 the control unit 71 controls the vertical movement mechanism 40 to move the holding unit 10 to the origin position (step S21).
  • the origin position is a position sufficiently away from the position of the holding unit 10 at the AF reference position.
  • the control unit 71 activates the laser diode 21 to irradiate the bottom of the well plate 9 with laser light (step S22), and causes the CMOS sensor 31 to measure the incident position of the reflected light (step S23).
  • the control unit 71 determines whether or not the position of the holding unit 10 has reached the AF reference position (step S24). As shown in FIG. 10, when the first reflected light 81 and the second reflected light 82 do not enter the CMOS sensor 31, the control unit 71 causes the relative position of the holding unit 10 and the objective lens 61 to reach the AF reference position. (No in step S24). In this case, the control unit 71 determines the next movement position of the holding unit 10 (step S25). The next movement position is a position away from the current position of the holding unit 10 by a predetermined movement distance (for example, half of the detection range of the CMOS sensor 31).
  • a predetermined movement distance for example, half of the detection range of the CMOS sensor 31.
  • control part 71 moves the holding
  • step S23 to step S27 the CMOS sensor 31 eventually detects the first reflected light 81 as shown in FIG. Then, when steps S23 to S27 are further repeated, the CMOS sensor 31 further detects the second reflected light 82 as shown in FIG.
  • the control unit 71 sets the second peak position 821 of the second reflected light 82 and the center position of the CMOS sensor 31. Find the interval. Then, a position separated downward by this distance is determined as the next movement position of the holding unit 10 (step S25), and the holding unit 10 is moved to the movement position (step S27).
  • the holding unit 10 is moved so that the second peak position 821 of the second reflected light 82 is the center position of the CMOS sensor 31. Then, as shown in FIG. 13, when the second peak position 821 of the second reflected light 82 reaches the center position of the CMOS sensor 31, the control unit 71 determines that the position of the holding unit 10 has reached the AF reference position. Judgment is made (Yes in step S24). When determining that the position of the holding unit 10 has reached the AF reference position, the control unit 71 determines an alternative correction value to be described later (step S28). Thereafter, the controller 71 stops the laser diode 21 (step S29) and completes the AF reference position setting process (step S2).
  • step S2 the focus of the imaging unit 12 is aligned with the second bottom surface 92 of the designated depression Ws selected by the user.
  • the control unit 71 executes the cell focus process in step S3.
  • the focal position of the imaging unit 12 is moved from the second bottom surface 92 to the cell 95 on the second bottom surface 92.
  • the image of the designated recess Ws is bracketed several times while the position of the objective lens 61 is slightly displaced up and down. Based on the obtained images, the position of the objective lens 61 that is most suitable for photographing is determined. Then, the objective lens 61 is positioned at the position.
  • the substitute correction value is a difference between the first peak position 811 and the second peak position 821 acquired in the AF reference position setting process.
  • the autofocus process for the plurality of depressions W is executed while moving the light irradiation unit 20, the detection unit 30, and the imaging unit 12 in the horizontal direction.
  • the second reflected light 82 may not enter the CMOS sensor 31, for example, when the laser light is incident between the adjacent recesses W. Therefore, the alternative correction value is stored in advance in step S2.
  • the second peak position 821 is estimated from the first peak position 811 incident on the CMOS sensor 31 based on the alternative correction value stored in advance. Accordingly, even when the second reflected light 82 is not incident, the AF axis moving mechanism 62 is controlled based on the estimated second peak position 821 to focus the imaging unit 12 on the cell 95. be able to.
  • FIG. 14 is a flowchart showing the flow of scan processing.
  • the control unit 71 activates the laser diode 21 (step S31).
  • the control unit 71 instructs the AF substrate 73 to start an autofocus process (step S32).
  • the control unit 71 controls the horizontal direction moving mechanism 50 to move the light irradiation unit 20, the detection unit 30, and the imaging unit 12 in the horizontal direction, for example, in the trajectory shown in FIG.
  • the control part 71 performs the imaging process which images the cell 95 in the recessed part W by the imaging part 12, performing the autofocus process for every recessed part W (step S33).
  • control part 71 will complete
  • FIG. 15 is a flowchart showing details of the autofocus process executed in the imaging process in step S33.
  • the control unit 71 controls the CMOS sensor 31 to read the position of the reflected light incident on the CMOS sensor 31 (step S41).
  • the second peak position 821 of the second reflected light 82 is searched from the light amount distribution of the laser light incident on the CMOS sensor 31 (step S42). If the second peak position 821 can be detected (step S43), the difference of the second peak position 821 from the center position of the CMOS sensor 31 is calculated (step S44). Based on the difference, a displacement amount of the second bottom surface 92 from the AF reference position is calculated.
  • the controller 71 searches for the first peak position 811 of the first reflected light 81 incident on the CMOS sensor 31 (step S45). If the first peak position 811 can be detected (step S46), the second peak position 821 is estimated by adding the above-described alternative correction value to the first peak position 811 (step S47). Then, based on the difference between the estimated second peak position 821 and the center position of the CMOS sensor 31, the amount of displacement of the second bottom surface 92 from the AF reference position is calculated.
  • step S44 or step S47 corresponds to the displacement of the second bottom surface 92 position between the observation target depression W and the designated depression Ws selected by the user.
  • the controller 71 calculates the moving distance of the objective lens 61 by the AF axis moving mechanism 62 for following the displacement (step S48). Then, the control unit 71 determines whether or not the moving distance of the objective lens 61 calculated in step S48 is within the movable range of the AF axis moving mechanism 62 (step S49). If the calculated moving distance is within the movable range, the AF axis moving mechanism 62 is controlled to move the objective lens 61 by the moving distance (step S50). Thereby, the imaging unit 12 is focused on the cell 95 in the depression W to be observed.
  • control unit 71 causes the image acquisition device 2 to wait for a minute time (for example, several tens of milliseconds) (step S51), and determines whether an end instruction is input (step S52). If there is no end instruction, the process returns to step S41, and the processes of steps S41 to S52 described above are repeated. On the other hand, if there is an end instruction, the autofocus process is ended.
  • a minute time for example, several tens of milliseconds
  • the scan process can be executed while detecting the displacement of the position of the second bottom surface 92 and the position of the second bottom surface 92 between the recesses W. For this reason, even when the bottom surface of the well plate 9 is curved or the thickness 93 of the bottom plate portion 90 of the well plate 9 varies, the cells 95 in each recess W of the well plate 9 are imaged. The portion 12 can be focused. Therefore, a clear image can be acquired in each recess W.
  • the light irradiation unit 20 irradiates laser light obliquely upward toward the bottom of the well plate 9.
  • the detection unit 30 detects laser light that is reflected obliquely downward from the bottom of the well plate 9. In this way, the difference ⁇ Z between the first peak position 811 and the second peak position 821 increases. For this reason, the position of the second bottom surface 92 can be calculated more accurately.
  • FIG. 16 is a diagram showing the relationship between the light quantity distribution of the first reflected light 81B and the second reflected light 82B and the position of the CMOS sensor when the thickness of the bottom plate portion 90 of the well plate 9 is large.
  • the first reflected light 81B does not enter the CMOS sensor when the second peak position of the second reflected light 82B is matched with the center position of the CMOS sensor.
  • the center position of the first peak position and the second peak position may be matched with the center position of the CMOS sensor.
  • the difference between the second peak position from the standard position may be calculated with the second peak position in FIG. 17 as the standard position.
  • the light irradiation unit irradiates the laser beam obliquely upward toward the bottom of the well plate. Further, the detection unit detects a laser beam that is reflected obliquely downward from the bottom of the well plate. However, the light irradiation unit may irradiate the laser beam substantially upward toward the bottom of the well plate in the same lens barrel as the objective lens. The detection unit may detect laser light reflected substantially downward from the bottom of the well plate in the same lens barrel as the objective lens.
  • the container of the above embodiment was a plastic molded well plate.
  • the container may be a petri dish having a single depression formed of glass, resin, or the like.
  • the container may be various other types of containers.
  • the vertical movement mechanism, the horizontal movement mechanism, and the AF axis movement mechanism are configured by a ball screw mechanism.
  • the vertical movement mechanism, the horizontal movement mechanism, and the AF axis movement mechanism may be configured by a mechanism (for example, a linear motor) other than the ball screw.
  • the focus of the imaging unit is adjusted to the second bottom surface by the vertical movement mechanism, and then the focus of the imaging unit is adjusted to the cells in the recess by the autofocus mechanism.
  • the autofocus mechanism can also serve as the vertical movement mechanism by increasing the movable range of the autofocus mechanism, the vertical movement mechanism may be omitted. That is, the vertical movement mechanism and the autofocus mechanism in the present invention may be realized by the same mechanism.
  • the horizontal position of the well plate is fixed, and the light irradiation unit, the detection unit, the imaging unit, and the autofocus mechanism are moved horizontally.
  • the well plate may be moved in the horizontal direction while fixing the horizontal position of the light irradiation unit, the detection unit, the imaging unit, and the autofocus mechanism.
  • the light source of the light irradiation unit is configured by a laser diode.
  • the light source of the light irradiation unit may be configured by other light emitting devices such as LEDs.
  • the detection unit is constituted by a CMOS sensor.
  • the detection unit may be configured by another light receiving device such as a CCD sensor.
  • the detailed configuration of the bottom surface position acquisition device and the image acquisition device may be different from the configuration shown in each drawing of the present application. Moreover, you may combine suitably each element which appeared in said embodiment and modification in the range which does not produce inconsistency.

Abstract

この画像取得装置(2)は、底面位置検出装置(1)を備え、容器の窪部に配置された細胞の画像を取得する。底面位置検出装置(1)は、保持部(10)と、光照射部(20)と、検出部(30)と、制御部(70)とを有する。保持部(10)は、容器(9)を水平に保持する。光照射部(20)は、容器(9)の底部に光を照射する。検出部(30)は、容器(9)の底面である第1底面から反射した第1反射光および窪部の底面である第2底面から反射した第2反射光を検出する。制御部(71)は、検出部において検出された第1反射光の第1ピーク位置および第2反射光の第2ピーク位置に基づいて、第2底面の位置を算出する。これにより、容器底部に厚みのばらつきや底面の湾曲がある場合でも、容器内の窪部の底面位置を検出できる。

Description

底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法
 本発明は、光透過性の容器の底面位置を検出する底面位置検出装置、当該底面位置検出装置を備えた画像取得装置、光透過性の容器の底面位置を検出する底面位置検出方法、および当該底面位置検出方法を含む画像取得方法に関する。
 画像取得装置により、培養容器内で培養された細胞の画像を取得する際には、細胞の観察に適した焦点位置を見つける必要がある。このような被検物体に対物レンズの焦点を合わせる技術は、例えば、特許文献1に記載されている。当該文献に記載のオートフォーカス装置は、検出手段と、焦点面移動手段と、制御手段とを備える。検出手段は、光源と検出器とを有する。検出器は、光源から発せられ対物レンズを介して透明板部材の表面および境界面において反射して戻る反射光を検出する。焦点面移動手段は、対物レンズの焦点面と被検物体とを光軸方向に沿って相対移動させる。制御手段は、検出器からの出力に基づいて、焦点面移動手段を制御する。
特許4642709号公報
 細胞の培養容器には、しばしば、複数の窪部であるウェルが配列されたプラスチック成形品のウェルプレートが使用される。このようなウェルプレートでは、プラスチック成形上の問題から、底部の厚みがばらついたり、底面が湾曲したりすることがある。このため、あるウェルで取得した合焦点位置を用いて、他のウェル内の細胞を観察しようとすると、焦点が合わず画像がぼけるという問題がある。したがって、複数のウェル毎に、ウェルプレートの底部の厚みのばらつきや底面の湾曲を考慮した合焦点位置を検出する技術が、求められている。そのためには、各ウェルの底面(底板部の上面)の位置を検出することが必要となる。
 本発明は、このような事情に鑑みなされたものであり、容器の底部の厚みにばらつきがある場合や、容器の底面が湾曲している場合であっても、窪部の底面位置を検出することができる技術を提供することを目的とする。
 上記課題を解決するため、本願の第1発明は、光透過性の容器の底面位置を検出する底面位置検出装置であって、前記容器を水平に保持する保持部と、前記容器の底部に光を照射する光照射部と、前記光照射部から照射され、前記容器において反射した光を検出する検出部と、制御部と、を有し、前記容器は、上下に凹む1つ以上の窪部を有し、前記検出部は、前記容器の底面である第1底面から反射した第1反射光および前記窪部の底面である第2底面から反射した第2反射光を検出し、前記制御部は、前記検出部において検出された第1反射光の第1ピーク位置および第2反射光の第2ピーク位置に基づいて、前記第2底面の位置を算出する。
 本願の第2発明は、第1発明の底面位置検出装置であって、前記光照射部は、前記容器の底部に向けて、斜め上方に光を照射する。
 本願の第3発明は、前記容器の前記窪部に配置された細胞の画像を取得する画像取得装置であって、請求項1または請求項2に記載の底面位置検出装置と、前記窪部内の細胞の画像を撮像する撮像部と、前記撮像部により撮像された画像を処理する画像処理部と、前記保持部を上下方向に移動させる上下方向移動機構と、前記撮像部の前記細胞に対する焦点位置を調整するオートフォーカス機構と、前記撮像部と、前記光照射部と、前記検出部と、を前記容器に対して水平方向に相対移動させる水平方向移動機構と、を有し、前記制御部は、前記検出部の検出結果を参照しつつ、前記上下方向移動機構を制御し、前記撮像部の焦点位置が前記第2底面に合った後に、前記オートフォーカス機構を制御する。
 本願の第4発明は、第3発明の画像取得装置であって、前記制御部は、ある位置における前記第2底面の位置をオートフォーカス基準位置として記憶し、前記水平方向移動機構を制御後に、前記オートフォーカス基準位置と、前記検出部から検出された前記第2ピーク位置とに基づいて、前記オートフォーカス機構を制御する。
 本願の第5発明は、第3発明または第4発明の画像取得装置であって、前記制御部は、前記第1ピーク位置と前記第2ピーク位置との差分を代替補正値として記憶し、前記水平方向移動機構を制御後に、前記検出部から検出された第1ピーク位置および前記代替補正値に基づいて前記オートフォーカス機構を制御する。
 本願の第6発明は、上下に凹む1つ以上の窪部を備える光透過性の容器の底面位置を検出する底面位置検出方法であって、a)前記容器を水平に保持する工程と、b)光照射部から前記容器の底部に光を照射する工程と、c)前記容器の底部に照射され、前記容器において反射した光を検出部により検出する工程と、d)前記容器の底面位置を算出する工程と、を有し、前記工程c)は、前記容器の底面である第1底面から反射した第1反射光および前記窪部の底面である第2底面から反射した第2反射光を検出し、前記工程d)は、前記工程c)により検出された第1反射光の第1ピーク位置および第2反射光の第2ピーク位置に基づいて、前記第2底面の位置を算出する。
 本願の第7発明は、第6発明の底面位置検出方法であって、前記工程c)は、前記容器の底部に向けて、斜め上方に光を照射する。
 本願の第8発明は、請求項6または請求項7に記載の底面位置検出方法を含み、前記容器の前記窪部に配置された細胞の画像を取得する画像取得方法であって、e)前記窪部内の細胞の画像を撮像部により撮像する工程と、f)前記撮像部により撮像された画像を処理する工程と、を有し、前記工程d)は、前記工程c)の検出結果を参照しつつ、前記容器を上下方向に移動させ、前記撮像部の焦点位置が前記第2底面に合った後に、前記撮像部の前記細胞に対する焦点位置をオートフォーカス機構により調整する。
 本願の第9発明は、第8発明の画像取得方法であって、前記工程d)は、ある位置における前記第2底面の位置をオートフォーカス基準位置として記憶し、前記水平方向移動機構を制御後に、前記オートフォーカス基準位置と、前記検出部から検出された前記第2ピーク位置とに基づいて、前記オートフォーカス機構を制御する。
 本願の第10発明は、第8発明または第9発明の画像取得方法であって、前記工程d)は、前記第1ピーク位置と前記第2ピーク位置との差分を代替補正値として記憶し、前記工程c)において検出された第1ピーク位置および前記代替補正値に基づいて前記オートフォーカス機構を制御する工程を含む画像取得方法。
 本願の第1発明から第10発明によれば、容器の底部の厚みにばらつきがある場合や、容器の底面が湾曲している場合であっても、窪部の底面位置を検出することができる。
 特に、第2発明および第7発明によれば、第1ピーク位置と第2ピーク位置との差分が大きくなる。このため、第2底面位置をより正確に算出できる。
 特に、第3発明および第8発明によれば、容器の底板の厚みにばらつきがある場合や、容器の底面が湾曲している場合であっても、窪部内に配置された細胞に撮像部の焦点を合わせることができる。したがって、窪部内の細胞の鮮明な画像を取得できる。
 特に、本願の第4発明および第9発明によれば、ある位置における第2底面の位置をオートフォーカス基準位置として、オートフォーカス機構を制御する。これにより、容易に他の位置の細胞に撮像部の焦点を合わせることができる。
 特に、本願の第5発明および第10発明によれば、第2反射光が得られない場合であっても、オートフォーカス処理を行うことができる。
ウェルプレートの斜視図である。 ウェルプレートの部分断面図である。 底面位置検出装置の概略図である。 CMOSセンサに入射した反射光の光量分布を示す図である。 画像取得装置の構成を概念的に示した図である。 画像取得装置のウェルプレート付近を示す図である。 画像取得装置によるスキャン処理の軌道を示す図である。 画像取得処理の流れを示すフローチャートである。 AF基準位置設定処理の流れを示すフローチャートである。 CMOSセンサに入射した反射光の光量分布を示す図である。 CMOSセンサに入射した反射光の光量分布を示す図である。 CMOSセンサに入射した反射光の光量分布を示す図である。 CMOSセンサに入射した反射光の光量分布を示す図である。 スキャン処理の流れを示すフローチャートである。 オートフォーカス処理の詳細を示すフローチャートである。 変形例に係る、CMOSセンサに入射した反射光の光量布を示す図である。 変形例に係る、CMOSセンサに入射した反射光の光量分布を示す図である。
 以下、本発明の実施形態について、図面を参照しつつ説明する。
 <1.ウェルプレートについて>
 図1は、本実施形態に係る底面位置検出装置1にセットされるウェルプレート9の斜視図である。図1に示すように、ウェルプレート9は、略板状の試料容器である。ウェルプレート9の材料には、例えば、光を透過する透明なプラスチックが使用される。ウェルプレート9は、上面から下向きに凹む複数の窪部Wを有する。
 図1に示すように、複数の窪部Wは、水平方向に規則的に配列されている。各窪部W内には、培養液94とともに、観察対象となる細胞95が保持される。なお、各窪部W内の培養液94は、それぞれ同じ種類の培養液であってもよく、濃度や組成の異なる化合物がそれぞれ添加された、異なる培養液であってもよい。また、ウェルプレート9に含まれる窪部Wの数は、図1の例と相違していてもよい。また、各窪部Wの形状は、図1のように上面視において円形であってもよく、矩形等の他の形状であってもよい。
 図2は、ウェルプレート9の部分断面図である。図2に示すように、ウェルプレート9の底部は、ウェルプレート9の底面である第1底面91および窪部Wの底面である第2底面92を有する。第1底面91は、ウェルプレート9の底板部90の下面である。第2底面92は、ウェルプレート9の底板部90の上面である。したがって、第1底面91と第2底面92との間の上下方向の幅が、底板部90の厚み93となる。図2に示すように、ウェルプレート9は、プラスチック成形上の問題から、第1底面91がわずかに湾曲する。また、各窪部Wの底板部90の厚み93は、ばらつきを有する。厚み93のばらつきの範囲は、例えば、数十μm~百数十μmとなる。
 <2.底面位置取得装置の構成>
 図3は、本実施形態に係る底面位置検出装置1の概略図である。この底面位置検出装置1は、ウェルプレート9の底面位置を検出する装置である。図3に示すように、底面位置検出装置1は、保持部10、光照射部20、検出部30および制御部71を有する。
 保持部10は、ウェルプレート9を保持する載置台である。ウェルプレート9は、第1底面91が下側となる水平姿勢で、保持部10にセットされる。保持部10は、ウェルプレート9の周縁部を保持する。このため、ウェルプレート9の底部は、保持部10に覆われることなく露出する。
 光照射部20は、ウェルプレート9の底部に向けて光を照射する機構である。本実施形態の光照射部20は、レーザダイオード21およびレンズ22により構成される。図3に示すように、本実施形態の光照射部20は、ウェルプレート9の下方からウェルプレート9の底部に向けて、斜め上方にレーザ光を照射する。そして、図1の矢印で示すように、レーザダイオード21により照射されたレーザ光は、レンズ22により集光され、第1底面91に向かう。第1底面91に到達したレーザ光は、第1底面91により反射される第1反射光81と、第1底面91から底板部90内に屈折して進行し第2底面92により反射される第2反射光82とに分かれる。
 検出部30は、光照射部20から照射され、ウェルプレート9の底部において反射したレーザ光を検出する機構である。本実施形態の検出部30は、CMOSセンサ31および一対のレンズ32により構成される。第1底面91において反射した第1反射光81と、第2底面92において反射した第2反射光82とは、一対のレンズ32により集光され、CMOSセンサ31に入射する。
 図4は、CMOSセンサ31に入射した反射光の光量分布を示す図である。図4の横軸は、CMOSセンサ31における反射光の入射位置を示す。図4の縦軸は、光量を示す。図4に示すように、CMOSセンサ31は、第1反射光81および第2反射光82の各位値における光量を検出する。これにより、第1反射光81の光量が最も大きくなる第1ピーク位置811と、第2反射光82の光量が最も大きくなる第2ピーク位置821とが検出される。
 制御部71は、後述するコンピュータ70により実現される。制御部71は、光照射部20および検出部30の動作を制御する。また、制御部71は、検出部30から検出された第1反射光81の第1ピーク位置811および第2反射光82の第2ピーク位置821から、第2底面92の位置を算出する。
 <3.画像取得装置の構成>
 次に、上述した底面位置検出装置1を含む画像取得装置2について説明する。図5は、本発明の一実施形態に係る画像取得装置2の構成を、概念的に示した図である。図6は、画像取得装置2のウェルプレート9付近の構成を示す図である。
 この画像取得装置2は、ウェルプレート9を撮影し、得られた画像データを処理する装置である。画像取得装置2は、例えば、医薬品の研究開発分野において、医薬品の候補となる化合物を絞り込むスクリーニング工程に使用される。スクリーニング工程の担当者は、この画像取得装置2により取得された画像を用いて、各ウェルプレート9の画像データを比較・分析することにより、培養液94に添加された化合物の効用を検証する。ただし、画像取得装置2は、多能性幹細胞などの細胞自体の開発に用いられるものであってもよい。
 図5および図6に示すように、本実施形態の画像取得装置2は、上述した底面位置検出装置1、透過照明部11、撮像部12、上下方向移動機構40、水平方向移動機構50、オートフォーカス機構60、表示デバイス78、入力デバイス79およびコンピュータ70を備えている。底面位置検出装置1、透過照明部11、撮像部12、表示デバイス78、および入力デバイス79は、それぞれ、コンピュータ70と電気的に接続されている。
 透過照明部11は、保持部10に保持されたウェルプレート9の上方に配置される。撮像部12は、ウェルプレート9の下方に配置される。撮像部12は、例えば、結像レンズおよびCCDやCMOS等の撮像素子を有するカメラにより構成される。ウェルプレート9を撮像するときには、透過照明部11からウェルプレート9の一部分へ向けて白色光を照射する。そして、当該白色光は、ウェルプレート9を透過してウェルプレート9の下方へと向かう。撮像部12は、後述する対物レンズ61を介してウェルプレート9の当該一部分を撮像する。
 なお、透過照明部11は、ウェルプレート9に対して光を照射するものであればよい。したがって、透過照明部11の光源自体は、ウェルプレート9の上方から外れた位置に配置され、ミラー等の光学系を介して、ウェルプレート9に光が照射される構成であってもよい。また、透過照明部11がウェルプレート9の下方に配置され、撮像部12が、ウェルプレート9の上方に配置されていてもよい。また、ウェルプレート9において反射された光が、撮像部12に入射する構成となっていてもよい。また、ウェルプレート9に照射される光は白色光に限られない。
 上下方向移動機構40は、保持部10を上下方向に移動させる機構である。図6に示すように、上下方向移動機構40は、駆動源であるモータ41と、モータ41の駆動力を伝達するボールねじ42とにより構成される。ボールねじ42は、その一端がモータ41に接続されている。保持部10は、ボールねじ42の外周面に設けられた螺旋状のねじ溝と噛み合うように、ボールねじ42に取り付けられている。モータ41を駆動させると、ボールねじ42がその軸心周りに回転する。これにより、保持部10およびウェルプレート9が、ボールねじ42に沿って上下方向に移動する。すなわち、モータ41の回転運動が、ボールねじ42を介して保持部10の上下方向の直進運動に変換される。
 水平方向移動機構50は、光照射部20、検出部30およびオートフォーカス機構60を水平方向に移動させる機構である。水平方向移動機構50は、駆動源であるモータ51と、モータ51の駆動力を伝達するボールねじ52と、連結部材53とにより構成される。ボールねじ52は、その一端がモータ51に接続されている。光照射部20、検出部30、撮像部12およびオートフォーカス機構60は、連結部材53により互いに接続される。連結部材53は、ボールねじ52の外周面に設けられた螺旋状のねじ溝と噛み合うように、ボールねじ52に取り付けられている。モータ51を駆動させると、ボールねじ52がその軸心周りに回転する。これにより、連結部材53により接続された光照射部20、検出部30、撮像部12およびオートフォーカス機構60が、相互の相対的な位置関係を維持しながら、ボールねじ52に沿って水平方向に移動する。すなわち、モータ51の回転運動が、ボールねじ52を介して保持部10の水平方向の直進運動に変換される。
 オートフォーカス機構60は、撮像部12の焦点を、窪部W内の細胞95に合わせるための機構である。本実施形態のオートフォーカス機構60は、対物レンズ61およびAF軸移動機構62により構成される可動部を有する。対物レンズ61は、撮像部12の焦点をウェルプレート9の窪部W内の細胞95に合わせるための光学系である。なお、対物レンズ61を含むオートフォーカス機構60は、撮像部12の一部であってもよい。
 AF軸移動機構62は、連結部材53に対して対物レンズ61を上下方向に移動させる機構である。AF軸移動機構62は、駆動源であるモータ621と、ボールねじ622と、支持台623とにより構成される。対物レンズ61は、支持台623に固定される。ボールねじ622は、上下方向に延び、その一端がモータ621に接続されている。支持台623は、ボールねじ622の外周面に設けられた螺旋状のねじ溝と噛み合うように、ボールねじ622に取り付けられている。モータ621を駆動させると、ボールねじ622がその軸心周りに回転する。これにより、支持台623が、ボールねじ622に沿って移動する。すなわち、モータ621の回転運動が、ボールねじ622を介して支持台623に固定された対物レンズ61の上下方向の直進運動に変換される。なお、AF軸移動機構62は、上下方向移動機構40よりも細かいピッチで支持台623を移動させることができる。ただし、AF軸移動機構62の可動範囲は、上下方向移動機構40の可動範囲よりも狭い。
 表示デバイス78は、画像取得装置2により取得および処理された画像を表示するための部位である。表示デバイス78には、例えば、液晶ディスプレイが使用される。入力デバイス79は、コンピュータ70に対して種々のコマンドを入力するための部位である。入力デバイス79には、例えば、キーボードやマウスが使用される。画像取得装置2のユーザは、表示デバイス78を確認しながら、入力デバイス79を操作して、種々のコマンドをコンピュータ70に入力できる。
 なお、表示デバイス78の機能と、入力デバイス79の機能との双方が、タッチパネル式のディスプレイなどの単一のデバイスにより、実現されていてもよい。
 コンピュータ70は、CPUやメモリを有する情報処理装置である。図5中に示すように、コンピュータ70は、上述した制御部71、画像処理部74および記憶部75を有する。コンピュータ70は、予め設定されたコンピュータプログラム、入力信号、および種々のデータに従って動作することにより、制御部71および画像処理部74の機能を実現する。制御部71は、上述した透過照明部11、撮像部12、レーザダイオード21、CMOSセンサ31、およびモータ41,51,621を動作制御する。これにより、後述する画像取得処理が実行される。
 本実施形態の制御部71は、モータコントローラ72およびAF基板73を有する。後述するAF基準位置を設定する際には、制御部71は、上下方向移動機構40をモータコントローラ72を介して制御する。これにより、保持部10を上下方向に移動させる。また、後述するオートフォーカス処理の際には、制御部71は、AF基板73を介してAF軸移動機構62を制御する。これにより、対物レンズ61を上下方向に移動させる。また、検出部30からの検出信号は、AF基板73を介してコンピュータ70に読み取られる。このように、本実施形態では、1つのAF基板73が、検出部30からの検出信号の読み取りと、AF軸移動機構62の制御と、の双方を行う。これにより、短時間で各窪部Wに対してオートフォーカス処理を実行できる。
 画像処理部74は、取得された画像データに基づいて窪部W内の各細胞95の画像を加工処理する。そして、加工処理された画像は、表示デバイス78に表示される。なお、画像処理部74は、入力デバイス79により入力されたコマンドに基づいて画像処理を行う機能や、取得された画像に基づいて自動的にスクリーニング処理を行う機能を有していてもよい。
 記憶部75は、画像取得装置2において取り扱われる種々のデータを記憶する部位である。記憶部75は、例えば、ハードディスクドライブやRAM等の記憶装置により実現される。記憶部75は、コンピュータ70を構成するハードウエアの一部であってもよく、あるいは、コンピュータ70に接続された外付けの記憶装置であってもよい。
 <4.画像取得処理について>
 次に、画像取得装置2による、画像取得処理について説明する。図7は、本実施形態の画像取得装置2によるウェルプレート9に対するスキャン処理の軌道を示す図である。画像取得装置2は、光照射部20、検出部30、撮像部12およびオートフォーカス機構60を水平方向に移動させる。そして、画像取得装置2は、図7の矢印で示すように、ウェルプレート9の各窪部W(W1~Wn)を、W1からW2,W3,…,Wnの順にオートフォーカス処理しつつ、各窪部W内の細胞95の画像を撮像部12により撮像するスキャン処理を実行する。ただし、画像取得装置2によるスキャン処理は、図7以外の軌道および順序によるものであってもよい。
 制御部71は、CMOSセンサ31に入射した第1反射光81および第2反射光82から、第2底面92の位置を検出する。図4に示すように、CMOSセンサ31に入射した第2反射光82の光量は、第1反射光81の光量よりも小さい。これにより、制御部71は、第2反射光82および第2ピーク位置821を特定する。また、第1ピーク位置811および第2ピーク位置821の差分ΔZは、ウェルプレート9の底板部90の厚み93により変動する。すなわち、底板部90の厚み93が大きくなるほどΔZは大きくなり、底板部90の厚み93が小さくなるほどΔZは小さくなる。制御部71は、第2ピーク位置821および差分ΔZから、第2底面92の位置を検出する。
 オートフォーカス処理は、窪部W毎に、自動で撮像部12の焦点を窪部W内の細胞95に合わせる処理である。制御部71は、検出した第2底面92の位置を基に、オートフォーカス機構60のAF軸移動機構62を制御することでオートフォーカス処理を実行する。
 図8は、画像取得装置2による画像取得処理の大筋の流れを示したフローチャートである。スキャン処理を実行するときは、先ず、ユーザが、複数の窪部Wのうちの1つを選択する。制御部71は、選択された窪部(以下、指定窪部Wsと称する)の上下に、光照射部20、検出部30、撮像部12およびオートフォーカス機構60を移動させる(ステップS1)。図7の例では、窪部W1が、指定窪部Wsとなる。次に、制御部71は、後述するAF基準位置を設定する(ステップS2)。続いて、制御部71は、AF軸移動機構62を制御して、窪部W内の細胞95に焦点を合わせる細胞フォーカス処理を実行する(ステップS3)。その後、制御部71は、水平方向移動機構50を制御しつつ、撮像対象の窪部W内の細胞95に対してオートフォーカス処理を実行しながら、複数の窪部W内の細胞95を撮像部12により順次撮像するスキャン処理を実行する(ステップS4)。
 図9は、AF基準位置設定処理の詳細を示すフローチャートである。図10~図13は、AF基準位置設定処理において、CMOSセンサ31により検出される光量分布の例を示した図である。
 AF(オートフォーカス)基準位置は、撮像部12の焦点が、ユーザが選択した指定窪部Wsの第2底面92に合ったときの、対物レンズ61に対する第2底面92の相対位置である。AF基準位置設定処理は、撮像部12の焦点を、指定窪部Wsの第2底面92に合わせるために、保持部10の上下位置を調整する処理である。AF基準位置は、他の窪部Wにおいてオートフォーカス処理を行うための基準位置となる。
 図9に示すように、AF基準位置設定処理(ステップS2)では、先ず、制御部71は、上下方向移動機構40を制御し、保持部10を原点位置に移動させる(ステップS21)。原点位置は、AF基準位置における保持部10の位置よりも、十分に上方へ離れた位置とされる。次に、制御部71は、レーザダイオード21を起動してウェルプレート9の底部に向けてレーザ光を照射させ(ステップS22)、CMOSセンサ31により反射光の入射位置を計測させる(ステップS23)。
 続いて、制御部71は、保持部10の位置が、AF基準位置に到達しているかどうかを判断する(ステップS24)。図10に示すように、第1反射光81および第2反射光82がCMOSセンサ31に入射しないときは、制御部71は、保持部10および対物レンズ61の相対位置が、AF基準位置に到達していないと判断する(ステップS24においてNo)。この場合、制御部71は、保持部10の次の移動位置を決定する(ステップS25)。次の移動位置は、保持部10の現在位置から下方へ、所定の移動距離(例えば、CMOSセンサ31の検出範囲の半分)だけ離れた位置とされる。そして、制御部71は、決定した移動位置が上下方向移動機構40の可動範囲内である場合(ステップS26)、保持部10を下方に移動させる(ステップS27)。一方、制御部71は、決定した移動位置が上下方向移動機構40の可動範囲外である場合は、異常と判断して、AF基準位置設定処理を終了させる。
 ステップS23からステップS27を繰り返すと、やがて、図11に示すように、CMOSセンサ31は第1反射光81を検出する。そして、さらにステップS23からステップS27を繰り返すと、図12に示すように、CMOSセンサ31は、さらに第2反射光82を検出する。CMOSセンサ31が第1反射光81および第2反射光82の双方を検出する状態になると、制御部71は、第2反射光82の第2ピーク位置821と、CMOSセンサ31の中央位置との間隔を求める。そして、この間隔分の距離だけ下方に離れた位置を、保持部10の次の移動位置として決定し(ステップS25)、当該移動位置へ保持部10を移動させる(ステップS27)。具体的には、第2反射光82の第2ピーク位置821がCMOSセンサ31の中央位置となるように、保持部10を移動させる。そして、図13に示すように、第2反射光82の第2ピーク位置821がCMOSセンサ31の中央位置に到達すると、制御部71は、保持部10の位置が、AF基準位置に到達したと判断する(ステップS24においてYes)。そして、保持部10の位置がAF基準位置に到達したと判断すると、制御部71は、後述する代替補正値を決定する(ステップS28)。その後、制御部71は、レーザダイオード21を停止し(ステップS29)、AF基準位置設定処理(ステップS2)を完了する。
 ステップS2が完了すると、撮像部12の焦点は、ユーザが選択した指定窪部Wsの第2底面92に合う。続いて、制御部71は、ステップS3の細胞フォーカス処理を実行する。細胞フォーカス処理では、撮像部12の焦点位置を、第2底面92から第2底面92上の細胞95に移動させる。具体的には、例えば、対物レンズ61の位置を上下に微小変位させながら、指定窪部Wsの画像を複数回ブラケット撮影する。そして、得られた複数の画像に基づいて、最も撮影に適した対物レンズ61の位置を決定する。そして、当該位置に対物レンズ61を位置決めする。
 次に、上述した代替補正値について説明する。代替補正値は、AF基準位置設定処理で取得された第1ピーク位置811および第2ピーク位置821の差分である。複数の窪部Wに対するオートフォーカス処理は、光照射部20、検出部30および撮像部12を水平方向に移動させつつ実行する。このため、レーザ光が隣接する窪部Wと窪部Wの間に入射した場合等、CMOSセンサ31に第2反射光82が入射しない場合がある。そこで、代替補正値をステップS2により予め記憶しておく。そして、第2反射光82が入射しない場合は、予め記憶された代替補正値に基づいて、CMOSセンサ31に入射した第1ピーク位置811から第2ピーク位置821を推測する。これにより、第2反射光82が入射しない場合であっても、推測された第2ピーク位置821に基づいて、AF軸移動機構62を制御して撮像部12の焦点を細胞95に対して合わせることができる。
 次に、ステップS4のスキャン処理について説明する。図14は、スキャン処理の流れを示すフローチャートである。スキャン処理を実行するときは、先ず、制御部71は、レーザダイオード21を起動する(ステップS31)。次に、制御部71は、AF基板73に対して、オートフォーカス処理の開始指示を行う(ステップS32)。制御部71は、水平方向移動機構50を制御して、例えば図7に示す軌道で、光照射部20、検出部30および撮像部12を水平方向に移動させる。そして、制御部71は、窪部W毎にオートフォーカス処理を実行しつつ、撮像部12により窪部W内の細胞95を撮像する撮像処理を実行させる(ステップS33)。そして、制御部71は、観察対象となる全ての窪部Wの撮像処理が完了すると、オートフォーカス処理を終了させる(ステップS34)。その後、制御部71はレーザダイオード21を停止する(ステップS35)。これにより、画像取得装置2によるスキャン処理が完了する。
 図15は、ステップS33の撮像処理において実行されるオートフォーカス処理の詳細を示すフローチャートである。オートフォーカス処理を実行するときは、先ず、制御部71はCMOSセンサ31を制御することにより、CMOSセンサ31に入射する反射光の位置を読み取る(ステップS41)。次に、CMOSセンサ31に入射したレーザ光の光量分布から、第2反射光82の第2ピーク位置821を探索する(ステップS42)。そして、第2ピーク位置821を検出できた場合には(ステップS43)、その第2ピーク位置821の、CMOSセンサ31の中央位置からの差分を算出する(ステップS44)。そして、当該差分に基づいて、第2底面92のAF基準位置からの変位量を算出する。
 一方、ステップS43において、第2ピーク位置821を検出できない場合には、制御部71は、CMOSセンサ31に入射した第1反射光81の第1ピーク位置811を探索する(ステップS45)。そして、第1ピーク位置811を検出できた場合には(ステップS46)、その第1ピーク位置811に、上述した代替補正値を加えることによって、第2ピーク位置821を推定する(ステップS47)。そして、推定された第2ピーク位置821の、CMOSセンサ31の中央位置からの差分に基づいて、第2底面92のAF基準位置からの変位量を算出する。
 ステップS44またはステップS47により算出された差分は、観察対象の窪部Wとユーザが選択した指定窪部Wsとの間の第2底面92位置の変位に相当する。制御部71は、当該変位に追従させるためのAF軸移動機構62による対物レンズ61の移動距離を算出する(ステップS48)。そして、制御部71は、ステップS48により算出された対物レンズ61の移動距離がAF軸移動機構62の可動範囲内であるかどうかを判断する(ステップS49)。算出された移動距離が可動範囲内である場合には、AF軸移動機構62を制御して、当該移動距離だけ対物レンズ61を移動させる(ステップS50)。これにより、観察対象の窪部W内の細胞95に、撮像部12の焦点が合う。
 その後、制御部71は、画像取得装置2を、微小時間(例えば、数十msec)待機させ(ステップS51)、終了指示が入力されているかどうかを判断する(ステップS52)。終了指示がない場合には、ステップS41に戻り、上述したステップS41~S52の処理を繰り返す。一方、終了指示があれば、オートフォーカス処理を終了させる。
 このように、本実施形態の画像取得装置2では、第2底面92の位置および各窪部W間の第2底面92の位置の変位を検出しつつ、スキャン処理を実行できる。このため、ウェルプレート9の底面が湾曲していたり、ウェルプレート9の底板部90の厚み93にばらつきがあったりする場合であっても、ウェルプレート9の各窪部W内の細胞95に撮像部12の焦点を合わせることができる。したがって、各窪部Wにおいて鮮明な画像を取得できる。
 特に、本実施形態では、光照射部20は、ウェルプレート9の底部に向けて斜め上方にレーザ光を照射する。また、検出部30は、ウェルプレート9の底部から斜め下方に向かい反射するレーザ光を検出する。このようにすれば、第1ピーク位置811と第2ピーク位置821との差分ΔZが大きくなる。このため、第2底面92の位置をより正確に算出できる。
 <5.変形例>
 以上、本発明の一実施形態について説明したが、本発明は、上記の実施形態に限定されるものではない。
 図16は、ウェルプレート9の底板部90の厚みが大きい場合の、第1反射光81Bおよび第2反射光82Bの光量分布と、CMOSセンサの位置との関係を示す図である。ウェルプレート9の底板部90の厚みが大きい場合、第2反射光82Bの第2ピーク位置をCMOSセンサの中央位置に合わせると、第1反射光81BがCMOSセンサに入射しなくなる。このような場合には、図17のように、第1ピーク位置および第2ピーク位置の中央位置を、CMOSセンサの中央位置に合わせてもよい。そして、オートフォーカス処理においては、図17における第2ピーク位置を標準位置として、当該標準位置からの第2ピーク位置の差分を算出してもよい。これにより、ウェルプレート9の底板部90の厚みが大きい場合であっても、第2底面の変位を検出しつつ、複数の窪部に対するオートフォーカス処理を実行できる。
 また、上記の実施形態では、光照射部は、ウェルプレートの底部に向けて斜め上方にレーザ光を照射していた。また、検出部は、ウェルプレート底部から斜め下方に向かい反射するレーザ光を検出していた。しかしながら、光照射部は、対物レンズと同一の鏡筒の中で、ウェルプレート底部に向けて略上方にレーザ光を照射してもよい。また、検出部は、対物レンズと同一の鏡筒の中で、ウェルプレート底部から略下方に向かい反射するレーザ光を検出してもよい。
 上記の実施形態の容器は、プラスチック成形されたウェルプレートであった。しかしながら、容器は、ガラスや樹脂等で形成された、単一の窪部を有するシャーレであってもよい。また、容器は、他の様々な種類の容器であってもよい。
 上記の実施形態では、上下方向移動機構、水平方向移動機構およびAF軸移動機構は、ボールねじ機構により構成されていた。しかしながら、上下方向移動機構、水平方向移動機構およびAF軸移動機構は、ボールねじ以外の機構(例えば、リニアモータ)により構成されてもよい。
 上記の実施形態では、上下方向移動機構により撮像部の焦点を第2底面に合わせた後に、オートフォーカス機構により撮像部の焦点を窪部内の細胞に合わせていた。しかしながら、オートフォーカス機構の可動範囲を大きくすることで、オートフォーカス機構が上下方向移動機構を兼ねることができるのであれば、上下方向移動機構を省略してもよい。すなわち、本発明における上下方向移動機構およびオートフォーカス機構は、同一の機構により実現されていてもよい。
 上記の実施形態では、ウェルプレートの水平方向の位置が固定され、それに対して、光照射部、検出部、撮像部およびオートフォーカス機構を水平に移動させていた。しかしながら、光照射部、検出部、撮像部およびオートフォーカス機構の水平方向の位置を固定して、ウェルプレートを水平方向に移動させてもよい。ただし、ウェル内の培養液が揺動することを抑えるためには、上記の実施形態のように、ウェルプレートの水平方向の位置を固定する方がよい。
 上記の実施形態では、光照射部の光源はレーザダイオードにより構成されていた。しかしながら、光照射部の光源は、LED等の他の発光デバイスにより構成されてもよい。
 また、上記の実施形態では、検出部はCMOSセンサにより構成されていた。しかしながら、検出部は、CCDセンサ等の他の受光デバイスにより構成されてもよい。
 また、底面位置取得装置および画像取得装置の細部の構成については、本願の各図に示された構成と、相違していてもよい。また、上記の実施形態や変形例に登場した各要素を、矛盾が生じない範囲で、適宜に組み合わせてもよい。
1 底面位置検出装置
2 画像取得装置
9 ウェルプレート
10 保持部
11 透過照明部
12 撮像部
20 光照射部
21 レーザダイオード
22 レンズ
30 検出部
31 CMOSセンサ
32 レンズ
40 上下方向移動機構
41 モータ
42 ボールねじ
50 水平方向移動機構
51 モータ
52 ボールねじ
53 連結部材
60 オートフォーカス機構
61 対物レンズ
62 AF軸移動機構
70 コンピュータ
71 制御部
72 モータコントローラ
73 AF基板
74 画像処理部
75 記憶部
78 表示デバイス
79 入力デバイス
81 第1反射光
82 第2反射光
90 底板部
91 第1底面
92 第2底面
93 底板部の厚み
94 培養液
95 細胞
621 モータ
622 ボールねじ
623 支持台
811 第1ピーク位置
821 第2ピーク位置
W 窪部
Ws 指定窪部
ΔZ 差分

Claims (10)

  1.  光透過性の容器の底面位置を検出する底面位置検出装置であって、
     前記容器を水平に保持する保持部と、
     前記容器の底部に光を照射する光照射部と、
     前記光照射部から照射され、前記容器において反射した光を検出する検出部と、
     制御部と、
    を有し、
     前記容器は、上下に凹む1つ以上の窪部を有し、
     前記検出部は、前記容器の底面である第1底面から反射した第1反射光および前記窪部の底面である第2底面から反射した第2反射光を検出し、
     前記制御部は、前記検出部において検出された第1反射光の第1ピーク位置および第2反射光の第2ピーク位置に基づいて、前記第2底面の位置を算出する底面位置検出装置。
  2.  請求項1に記載の底面位置検出装置であって、
     前記光照射部は、前記容器の底部に向けて、斜め上方に光を照射する底面位置検出装置。
  3.  前記容器の前記窪部に配置された細胞の画像を取得する画像取得装置であって、
     請求項1または請求項2に記載の底面位置検出装置と、
     前記窪部内の細胞の画像を撮像する撮像部と、
     前記撮像部により撮像された画像を処理する画像処理部と、
     前記保持部を上下方向に移動させる上下方向移動機構と、
     前記撮像部の前記細胞に対する焦点位置を調整するオートフォーカス機構と、
     前記撮像部と、前記光照射部と、前記検出部と、を前記容器に対して水平方向に相対移動させる水平方向移動機構と、
    を有し、
     前記制御部は、前記検出部の検出結果を参照しつつ、前記上下方向移動機構を制御し、前記撮像部の焦点位置が前記第2底面に合った後に、前記オートフォーカス機構を制御する画像取得装置。
  4.  請求項3に記載の画像取得装置であって、
     前記制御部は、ある位置における前記第2底面の位置をオートフォーカス基準位置として記憶し、前記水平方向移動機構を制御後に、前記オートフォーカス基準位置と、前記検出部から検出された前記第2ピーク位置とに基づいて、前記オートフォーカス機構を制御する画像取得装置。
  5.  請求項3または請求項4に記載の画像取得装置であって、
     前記制御部は、前記第1ピーク位置と前記第2ピーク位置との差分を代替補正値として記憶し、前記水平方向移動機構を制御後に、前記検出部から検出された第1ピーク位置および前記代替補正値に基づいて前記オートフォーカス機構を制御する画像取得装置。
  6.  上下に凹む1つ以上の窪部を備える光透過性の容器の底面位置を検出する底面位置検出方法であって、
     a)前記容器を水平に保持する工程と、
     b)光照射部から前記容器の底部に光を照射する工程と、
     c)前記容器の底部に照射され、前記容器において反射した光を検出部により検出する工程と、
     d)前記容器の底面位置を算出する工程と、
    を有し、
     前記工程c)は、前記容器の底面である第1底面から反射した第1反射光および前記窪部の底面である第2底面から反射した第2反射光を検出し、
     前記工程d)は、前記工程c)により検出された第1反射光の第1ピーク位置および第2反射光の第2ピーク位置に基づいて、前記第2底面の位置を算出する底面位置検出方法。
  7.  請求項6に記載の底面位置検出方法であって、
     前記工程c)は、前記容器の底部に向けて、斜め上方に光を照射する底面位置検出方法。
  8.  請求項6または請求項7に記載の底面位置検出方法を含み、前記容器の前記窪部に配置された細胞の画像を取得する画像取得方法であって、
     e)前記窪部内の細胞の画像を撮像部により撮像する工程と、
     f)前記撮像部により撮像された画像を処理する工程と、
    を有し、
     前記工程d)は、前記工程c)の検出結果を参照しつつ、前記容器を上下方向に移動させ、前記撮像部の焦点位置が前記第2底面に合った後に、前記撮像部の前記細胞に対する焦点位置をオートフォーカス機構により調整する画像取得方法。
  9.  請求項8に記載の画像取得方法であって、
     前記工程d)は、ある位置における前記第2底面の位置をオートフォーカス基準位置として記憶し、前記水平方向移動機構を制御後に、前記オートフォーカス基準位置と、前記検出部から検出された前記第2ピーク位置とに基づいて、前記オートフォーカス機構を制御する画像取得方法。
  10.  請求項8または請求項9に記載の画像取得方法であって、
     前記工程d)は、前記第1ピーク位置と前記第2ピーク位置との差分を代替補正値として記憶し、前記工程c)において検出された第1ピーク位置および前記代替補正値に基づいて前記オートフォーカス機構を制御する工程を含む画像取得方法。
PCT/JP2017/014184 2016-04-08 2017-04-05 底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法 WO2017175783A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/091,072 US20190114465A1 (en) 2016-04-08 2017-04-05 Bottom surface position detection apparatus, image acquisition apparatus, bottom surface position detection method, and image acquisition method
CN201780021925.6A CN108885088A (zh) 2016-04-08 2017-04-05 底面位置检测装置、图像获取装置、底面位置检测方法以及图像获取方法
EP17779161.3A EP3441713A4 (en) 2016-04-08 2017-04-05 LOWER SURFACE POSITION DETECTION DEVICE, IMAGE ACQUISITION APPARATUS, LOWER SURFACE POSITION DETECTION METHOD, AND IMAGE ACQUISITION METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-077786 2016-04-08
JP2016077786A JP2017187436A (ja) 2016-04-08 2016-04-08 底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法

Publications (1)

Publication Number Publication Date
WO2017175783A1 true WO2017175783A1 (ja) 2017-10-12

Family

ID=60001183

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/014184 WO2017175783A1 (ja) 2016-04-08 2017-04-05 底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法

Country Status (5)

Country Link
US (1) US20190114465A1 (ja)
EP (1) EP3441713A4 (ja)
JP (1) JP2017187436A (ja)
CN (1) CN108885088A (ja)
WO (1) WO2017175783A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088030A1 (ja) * 2017-11-02 2019-05-09 富士フイルム株式会社 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
WO2019102723A1 (ja) * 2017-11-22 2019-05-31 富士フイルム株式会社 観察装置、観察装置の作動方法、及び観察制御プログラム
JP2019109513A (ja) * 2017-12-18 2019-07-04 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 顕微鏡のビーム経路内の試料ホルダの厚さを決定する方法
US11971530B2 (en) 2017-11-22 2024-04-30 Fujifilm Corporation Observation apparatus, method of operating observation apparatus, and observation control program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017125799A1 (de) * 2017-11-06 2019-05-09 Carl Zeiss Industrielle Messtechnik Gmbh Reduktion von Bildstörungen in Bildern
JPWO2019202979A1 (ja) * 2018-04-18 2021-05-13 富士フイルム株式会社 観察装置、観察装置の作動方法、及び観察制御プログラム
US11892706B2 (en) 2018-06-20 2024-02-06 Hitachi High-Tech Corporation Observation device
JP2022509823A (ja) 2018-11-30 2022-01-24 コーニング インコーポレイテッド 細胞培養監視のための小型光学結像システム
CN116952148B (zh) * 2023-09-18 2023-12-01 无锡华天燃气轮机有限公司 一种表面附着层厚度测量方法及样块

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160039A (ja) * 1997-11-25 1999-06-18 Nec Corp レティクル検査方法および検査装置
JP2004309230A (ja) * 2003-04-03 2004-11-04 Mitsubishi Electric Corp 測距装置
JP2010072017A (ja) * 2008-09-16 2010-04-02 Yokogawa Electric Corp オートフォーカス装置
JP4642709B2 (ja) 2006-07-04 2011-03-02 オリンパス株式会社 顕微鏡とオートフォーカス装置およびオートフォーカス方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5387255A (en) * 1977-01-11 1978-08-01 Nippon Steel Corp Top and bottom position measuring method of steel plate
JPS6221009A (ja) * 1985-07-19 1987-01-29 Mitsubishi Heavy Ind Ltd 片面溶接用ル−トギヤツプ測定方法
DE19916749B4 (de) * 1999-04-14 2004-02-12 Carl Zeiss Jena Gmbh Verfahren zur Untersuchung von Proben
JP4782391B2 (ja) * 2004-06-16 2011-09-28 オリンパス株式会社 顕微鏡システム
US20060001954A1 (en) * 2004-06-30 2006-01-05 Michael Wahl Crystal detection with scattered-light illumination and autofocus
US7646482B2 (en) * 2007-05-31 2010-01-12 Genetix Limited Methods and apparatus for optical analysis of samples in biological sample containers
US7535556B2 (en) * 2007-05-31 2009-05-19 Genetix Limited Methods and apparatus for optical analysis of samples in biological sample containers
CN102818788A (zh) * 2012-07-26 2012-12-12 中国科学院上海光学精密机械研究所 钕玻璃包边剩余反射的检测装置及检测方法
JP6692660B2 (ja) * 2016-03-01 2020-05-13 株式会社Screenホールディングス 撮像装置
CN106895782A (zh) * 2017-05-05 2017-06-27 苏州天准科技股份有限公司 一种3d曲面玻璃的快速测量装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160039A (ja) * 1997-11-25 1999-06-18 Nec Corp レティクル検査方法および検査装置
JP2004309230A (ja) * 2003-04-03 2004-11-04 Mitsubishi Electric Corp 測距装置
JP4642709B2 (ja) 2006-07-04 2011-03-02 オリンパス株式会社 顕微鏡とオートフォーカス装置およびオートフォーカス方法
JP2010072017A (ja) * 2008-09-16 2010-04-02 Yokogawa Electric Corp オートフォーカス装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3441713A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019088030A1 (ja) * 2017-11-02 2019-05-09 富士フイルム株式会社 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
JPWO2019088030A1 (ja) * 2017-11-02 2020-11-19 富士フイルム株式会社 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
JP6993423B2 (ja) 2017-11-02 2022-01-13 富士フイルム株式会社 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
WO2019102723A1 (ja) * 2017-11-22 2019-05-31 富士フイルム株式会社 観察装置、観察装置の作動方法、及び観察制御プログラム
JPWO2019102723A1 (ja) * 2017-11-22 2020-11-19 富士フイルム株式会社 観察装置、観察装置の作動方法、及び観察制御プログラム
JP7195269B2 (ja) 2017-11-22 2022-12-23 富士フイルム株式会社 観察装置、観察装置の作動方法、及び観察制御プログラム
US11971530B2 (en) 2017-11-22 2024-04-30 Fujifilm Corporation Observation apparatus, method of operating observation apparatus, and observation control program
JP2019109513A (ja) * 2017-12-18 2019-07-04 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 顕微鏡のビーム経路内の試料ホルダの厚さを決定する方法

Also Published As

Publication number Publication date
EP3441713A1 (en) 2019-02-13
US20190114465A1 (en) 2019-04-18
EP3441713A4 (en) 2019-12-04
CN108885088A (zh) 2018-11-23
JP2017187436A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
WO2017175783A1 (ja) 底面位置検出装置、画像取得装置、底面位置検出方法および画像取得方法
JP5819389B2 (ja) 撮像システムおよび技法
CN109417602B (zh) 图像处理方法、图像处理装置、摄像装置及摄像方法
KR101734628B1 (ko) 에러 신호를 이용한 포커스 및 이미징 시스템 및 기법들
US9383569B2 (en) Magnification observation device
US8917347B2 (en) Focus control method and culture observation apparatus
US20090002811A1 (en) Microscopic Image Capturing Device
CN109691083B (zh) 图像处理方法、图像处理装置及摄像装置
WO2015181951A1 (ja) 焦点調節装置、顕微鏡装置、焦点調節方法、及び制御プログラム
CN204065545U (zh) 基于显微镜的数字切片扫描激光聚焦装置
JP2018019319A (ja) 画像処理方法、画像処理装置、および撮像装置
US10782515B2 (en) Microscope system, observation method, and computer-readable recording medium
JP6345169B2 (ja) レンズユニット、ウエルプレート、画像取得装置
JP2019207444A (ja) 焦点調節装置、顕微鏡装置、焦点調節方法、及び制御プログラム
US11892706B2 (en) Observation device
JP2014066648A (ja) 基板検査方法及び装置
JP2012078727A (ja) 共焦点顕微鏡および該共焦点顕微鏡による自動焦点調節方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017779161

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017779161

Country of ref document: EP

Effective date: 20181108

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17779161

Country of ref document: EP

Kind code of ref document: A1