WO2007142339A1 - 観察装置および観察方法 - Google Patents

観察装置および観察方法 Download PDF

Info

Publication number
WO2007142339A1
WO2007142339A1 PCT/JP2007/061665 JP2007061665W WO2007142339A1 WO 2007142339 A1 WO2007142339 A1 WO 2007142339A1 JP 2007061665 W JP2007061665 W JP 2007061665W WO 2007142339 A1 WO2007142339 A1 WO 2007142339A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
image
macro
region
cells
Prior art date
Application number
PCT/JP2007/061665
Other languages
English (en)
French (fr)
Inventor
Nobuhiko Maiya
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38801583&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2007142339(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to JP2008520641A priority Critical patent/JP5157901B2/ja
Priority to EP07767085.9A priority patent/EP2034349B2/en
Publication of WO2007142339A1 publication Critical patent/WO2007142339A1/ja
Priority to US12/329,756 priority patent/US8022373B2/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/12Means for regulation, monitoring, measurement or control, e.g. flow regulation of temperature
    • C12M41/14Incubators; Climatic chambers
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/46Means for regulation, monitoring, measurement or control, e.g. flow regulation of cellular or enzymatic activity or functionality, e.g. cell viability
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0088Inverse microscopes

Definitions

  • the present invention relates to an observation apparatus and an observation method for observing an observation target.
  • Non-patent document 1 discloses a method for observing cells by a fluorescence method using a fluorescence microscope as follows. According to this method, the cells are irradiated with excitation light, and the fluorescence emitted from the cells is observed. The observation position is set before observation. At this time, the cell is irradiated with excitation light, and the observation position is set from the fluorescence image.
  • Non-Patent Document 1 Understanding Bioimaging P22-24 (published by Yodosha, September 2005) Disclosure of Invention
  • the observation apparatus sets a region where cells exist as an observation target region based on a macro image obtained by imaging the inside of the cell culture container at a low magnification.
  • An imaging unit that images cells in the area, an illumination unit that irradiates light to the cells only during imaging by the imaging unit, and an output unit that outputs a fluorescent image that is illuminated by the illumination unit and captured by the imaging unit only during imaging Observation device.
  • the observation apparatus preferably includes a recognition unit that recognizes at least one region where cells are present in the acquired macro image.
  • the macro image is cultivated. It is preferable that the image is a tiling image in which the images of the small areas in the feeder are repeated and the images of the adjacent small areas are joined together.
  • the magnification at which the cells in the observation target region are imaged by the imaging unit is higher than the magnification at which the macro image is formed. Is preferred.
  • the illumination unit illuminates only the cells to be photographed.
  • the observation apparatus further includes a storage unit that stores an image photographed by the photographing unit.
  • the recognition unit marks a region where the recognized cell exists on the macro image.
  • the imaging unit captures an image of each small region obtained by dividing the observation target region, and the output unit captures the captured small region image. It is preferable to generate a combined image of the entire observation target region by connecting the images, and output the generated combined image.
  • the imaging unit sets at least one area as an observation target area from among a plurality of areas where cells exist, and sets each observation It is preferable to randomly select at least one small area from the target area and shoot for each selected small area.
  • the macro image is an image observed by phase difference observation, bright field observation, differential interference observation, polarization observation, or dark field observation. Is preferred.
  • the objective lens, the selection unit for selecting the tiling mode or the random mode, and either the tiling mode or the random mode are selected.
  • the excitation light source that irradiates the excitation light that excites the fluorescent reagent added to the specimen in the fluorescence observation
  • the excitation light The controller further includes a shutter that blocks or enables light from the source to illuminate the sample, and the controller blocks light from the excitation light source to the sample when the objective lens is opposed to the observation position. It is preferable to control the shutter.
  • the control device blocks phase excitation observation, bright field observation, differential interference observation, polarized light observation, or dark field observation after blocking the excitation light with the shutter. It is preferable to obtain a macro image of the observation region by observation.
  • the control device opens the shutter after acquiring the macro image of the observation region, and irradiates the sample with the excitation light from the excitation light source. It is preferable to get a fluorescence image of the observation area.
  • the observation device preferably further includes a storage unit for storing the acquired fluorescent image.
  • control device preferably superimposes the fluorescence image of the observation region stored in the storage unit and the macro image of the observation region.
  • the chamber in which the specimen can be placed the humidity controller for adjusting the humidity in the chamber, and the temperature in the chamber are set. It is preferable to further include a temperature regulator to be adjusted.
  • a macro image of a specimen installed in an environment in which the inside of a chamber is adjusted by a humidity controller and a temperature controller is recorded. It is preferable to perform acquisition and illumination of the specimen by the illumination unit and acquisition of a fluorescent image by the imaging unit.
  • the observation device further includes a display device that displays a macro image, and the mark is preferably performed on the macro image displayed on the display device. .
  • the observation method for specifying the observation target for the main observation with a microscope is to shoot the observation target region where the cells are grown with a photographing device by irradiating light only at the time of photographing. , Display the image of the observation area photographed by the photographing device on the display device Then, on the image of the observation target area displayed on the display device, the observation target for the main observation with the microscope in the observation target area is specified.
  • FIG. 1 is a diagram schematically showing a configuration of a cell observation apparatus.
  • FIG. 2 is a diagram showing a specific example of a growth area confirmation screen.
  • FIG. 3 is a diagram schematically showing a procedure for creating a macro phase contrast image.
  • FIG. 4 is a diagram schematically showing a procedure for creating a macro fluorescent image.
  • FIG. 5 is a diagram showing a specific example of an observation target selection screen.
  • FIG. 6 is a diagram showing a specific example when a macro phase contrast image and a macro fluorescence image are superimposed.
  • FIG. 7 is a flowchart showing processing of the control device 105.
  • FIG. 8 is a flowchart showing processing of the PC 109.
  • FIG. 9 is a diagram showing how a program is provided to PC 109.
  • FIG. 1 is a diagram schematically showing a configuration of a cell observation device in the present embodiment.
  • the cell observation device 100 includes a stage 101, a chamber 102, an objective lens 103, a camera 104, a control device 105, a transmitted light illumination device 106, a shutter 107, an excitation light source device 108, and a personal computer. (PC) 109, monitor 110, and environmental control device 111.
  • the stage 101, the chamber 102, the objective lens 103, the camera (photographing device) 104, the control device 105, the transmitted light illumination device 106, the shutter 107, and the excitation light source device 108 constitute a microscope. To do.
  • the user can issue various instructions to the Itoda cell observation device 100 by operating the PC 109.
  • the PC 109 receives a control signal in accordance with an instruction from the user. Is output to the control device 105.
  • the control device 105 executes various processes according to instructions from the user based on the control signal from the PC 109.
  • the cell culture volume set in the chamber 102 on the stage 101 by the user Processing for observing cells in vessel A will be described.
  • the cell culture container A for example, a 35 mm dish is used.
  • the chamber 102 is hermetically sealed, and the internal environment is maintained in an environment suitable for cell culture by the environment control device 111.
  • the concentration of CO in chamber 102 is CO mixed
  • the machine is maintained at 5% by 111a, the humidity is maintained at 100% by the humidity controller 111b, and the temperature is maintained at 37 ° C by the temperature controller 111c.
  • the excitation light source device 108 irradiates the cell culture container A in the chamber 102 with excitation light having a wavelength that excites the dye that fluorescently stains the cells.
  • the excitation light output from the excitation light source device 108 can be blocked by the shutter 107.
  • the transmitted light illumination device 106 includes an LED as a light source. When the excitation light is blocked by the shutter 107, the transmitted light illumination device 106 causes the LED to emit light and transmit the transmitted light to the cell culture container A in the chamber 102 ( Illumination light) can also be irradiated.
  • the blocking of the excitation light by the shutter 107 and the light emission of the LED from the transmitted light illumination device 106 are all controlled by the control device 105.
  • the microscope has a phase difference observation mode and a fluorescence observation mode, and the transmitted light illumination device 106 irradiates the cell culture vessel A in the chamber 102 with transmitted light to observe the phase difference of the cells. It is also possible to observe the cells stained with the fluorescent reagent by irradiating excitation light from the excitation light source device 108 to the cell culture container A in the chamber 102.
  • the camera 104 includes an image sensor such as a CCD, and can capture a microscopic image, that is, a phase difference image and a fluorescence image, by capturing an image (enlarged image) of a cell input through the objective lens 103.
  • the microscope can be used by switching between a high-magnification objective lens for observing cells and a low-magnification objective lens that can be observed in a wide field of view such as 4x.
  • the microscope can perform fluorescence observation by switching a plurality of fluorescence filters.
  • a plurality of fluorescent colors can be observed by switching the plurality of fluorescent filters and performing fluorescence observation.
  • the camera 104 can capture a plurality of fluorescent images for each fluorescent filter.
  • a microscope image photographed by the camera 104 is output to the control device 105, and further output to the PC 109, and then displayed on the monitor 110. As a result, the user can check the microscope image on the monitor 110.
  • a user can operate PC 109 to instruct fluorescent image capturing conditions according to the type of cells to be observed. For example, the excitation light quantity, camera gain, exposure time, focal plane, and filter type are specified as imaging conditions. These imaging conditions are set in advance for each cell type and stored in the memory of the PC 109, so that the user can select the setting contents according to the cell type to be observed. The shooting conditions may be set every time.
  • the control device 105 uses an objective lens that can be observed with a wide field of view such as 4 times, and moves a target lens to display a phase difference image by phase difference observation of the entire range within the observable region. Take a picture.
  • the observable region means the inside of the cell culture container A.
  • moving (tiling) a plurality of images taken while moving the objective lens one image is generated.
  • the image generated here is referred to as a macro image.
  • the control device 105 outputs the generated macro image to the PC 109.
  • the CPU of the PC 109 analyzes the input macro image using a known image analysis technique such as texture analysis, and recognizes the area where the cell grows in the macro image (cell growth area). To do. Then, the CPU clearly displays (marks) the recognized cell growth region on the macro image and displays it on the monitor 110. Thus, the user (experimental) can confirm at which position the cell growth region exists within the observable range.
  • a known image analysis technique such as texture analysis
  • the CPU displays a GUI screen (growth region confirmation) as shown in FIG. Display screen) on the monitor 110.
  • a GUI screen growth region confirmation screen
  • a macro image in which the cell growth regions 1 to 7 are clearly shown in the macro image display region 2a is displayed.
  • the user selects one or more areas to be subjected to navigation described later from the cell growth areas 1 to 7.
  • Execution of navigation means that a microscope image is automatically acquired in a designated area by a method designated in advance, a photographing condition designated in advance, or the like.
  • the cell growth region is schematically represented by a circle or an ellipse, but the shape of the region where the cell is growing is actually displayed.
  • the user operates the movement button 2b on the growth region confirmation screen using the mouse having the PC 109 to change the selection status of the cell growth regions 1-7.
  • the cell growth area that is currently selected is displayed in a thick frame (highlighted), and the selection status of the cell growth areas 1 to 7 can be changed by moving the thick frame according to the operation status of the move button 2b. change.
  • the move button 2b is a circular button, and the selection state of the cell growth region changes according to the position on the button clicked with the mouse.
  • the user selects the cell growth region as the navigation execution target by clicking the selection button 2c in a state where the cell growth region desired to be performed as the navigation target is displayed in a thick frame.
  • the CPU registers information for specifying the position of the selected cell growth area in the macro image display area 2a in the selection information display area 2d.
  • the user repeats the above-described process and registers information related to the plurality of cell growth regions in the selection information display region 2d.
  • the user selects either the tiling mode or the random mode as a navigation method to be executed for the selected cell growth region.
  • the user selects a navigation method by clicking either the tiling mode button 2e or the random mode button 2f on the growing region confirmation screen with the mouse, and the selected method. Instruct to perform navigation in The navigation methods for the tiling mode and random mode will be described later.
  • the CPU executes navigation in the macro image display area 2a in accordance with the selected navigation method.
  • a recipe storing information on each of the range (navigation range) or point (navigation point), the navigation method, and the above-described shooting conditions is created, and the recipe is output to the control device 105.
  • the control device 105 executes navigation as described later based on each piece of information stored in the recipe.
  • the navigation method for each mode will be described by dividing the navigation method selected by the user into the tiling mode and the random mode.
  • a case where one cell growth region is selected as a cell growth region to be navigated (navigation target region) will be described.
  • the processing described in (5) may be executed for each of a plurality of navigation target areas.
  • the CPU uses the XY coordinate group around the selected cell growth area as the navigation range information. Set as (Navigation range information) and create the recipe described above.
  • the PC 109 instructs the control device 105 to execute navigation.
  • the control device 105 executes navigation on the navigation target area as follows.
  • the control device 105 reads the navigation range information stored in the recipe and information related to the shooting conditions. Then, the coordinate value (X, Y) of the start point of the navigation range is specified based on the navigation range information. For example, the coordinate value of the upper left end point of the navigation range is specified as the coordinate value (X, Y) of the start point of the navigation range.
  • the microscope is set to the phase difference observation mode, the objective lens 103 is moved to the start point of the specified navigation range, the shutter 107 is closed to block the excitation light, and then the transmitted light illumination device 106 To control the LED so that the LED emits light only for the time required to capture the phase difference image, for example, the exposure time of the camera 104 Then, the objective lens 103 is set at a high magnification, and an image input through the objective lens 103 is photographed by controlling the camera 104 and stored. To do. Thus, a phase difference image at the start point of the navigation range can be taken.
  • control device 105 sets the microscope in the fluorescence observation mode, controls the transmitted light illumination device 106 to turn off the LED, and takes a time required for taking a fluorescent image, for example, the exposure of the camera 104.
  • the shutter 107 is opened for the time and the excitation light is irradiated.
  • the objective lens 103 is set at a high magnification, and the camera 104 is controlled to take an image input through the objective lens 103 and store it. This makes it possible to take a fluorescent image at the start point of the navigation range.
  • the fluorescent filters are switched, and fluorescent images are captured for each fluorescent filter.
  • the control device 105 moves the objective lens 103 so as to photograph the next area within the navigation range. That is, the control device 105 sets the objective lens so that the shooting range of the camera 104 at the objective lens position after movement is adjacent to the shooting range of the camera 104 at the objective lens position before movement, and both ranges do not overlap. Control the amount of movement of 103. Then, the above-described processing is executed at the objective lens position after movement, and a phase difference image and a fluorescence image at the objective lens position after movement are photographed and stored. By executing this process for the entire navigation range, it is possible to capture a phase difference image for each of a plurality of small areas and a plurality of fluorescent images for each type of fluorescent filter within the navigation range. it can.
  • control device 105 stitches (tils) the phase difference images corresponding to the small areas captured by executing the navigation, and captures the entire navigation range. Generate a combined image (macro phase contrast image). Further, the control device 105 similarly tiles the fluorescent image corresponding to each small region for each fluorescent image of each fluorescent filter to generate a combined image (macro fluorescent image) for each fluorescent filter.
  • FIG. 3 is a diagram schematically showing a procedure for generating a macro phase difference image based on a phase difference image captured when navigation is performed on four small areas.
  • the four phase contrast images shown in Fig. 3 (a) are displayed. Images 3a-3d have been taken.
  • the control device 105 performs tiling by combining these four phase difference images side by side as shown in FIG. 3B while maintaining the positional relationship of the respective small regions within the navigation range.
  • a macro phase difference image 3e as shown in FIG. 3 (c) is generated.
  • FIG. 6 is a diagram schematically showing a procedure for generating a macro fluorescent image based on a fluorescent image photographed when navigation is performed using two types of fluorescent filters for four small regions.
  • four fluorescent images 4a to 4d shown in FIG. 4 (a) are taken.
  • four fluorescent images 4f to 4i shown in FIG. 4 (d) are taken.
  • the control device 105 displays the four fluorescent images 4a to 4d shown in FIG. 4 (a) as shown in FIG. 4 (b) while maintaining the positional relationship of the respective small regions within the navigation range. Tiling is performed by connecting them side by side. As a result, a macro phase difference image 4e of the first fluorescence filter as shown in FIG. 4C is generated. Next, the four fluorescent images 4 f to 4i shown in Fig. 4 (d) are combined and arranged as shown in Fig. 4 (e) while maintaining the positional relationship of the respective small regions within the navigation range. Tiling by doing. As a result, a macro phase difference image 4j of the second fluorescent filter as shown in FIG. 4 (f) is generated.
  • the control device 105 outputs the macro phase difference image generated in this way and the macro fluorescence image for each fluorescence filter to the PC 109.
  • the CPU When the random mode button 2f is clicked by the user and the execution of navigation in the random mode is instructed by the user, the CPU prompts the user to input the number of points set as the navigation point. In response to this, when the user inputs the number of points of 1 or more by operating the keyboard of PC109, the CPU randomly selects the number of points input by the user from within the navigation target area. .
  • the CPU sets a XY coordinate value of each point in the navigation target area selected at random as navigation point information (navigation point information) to create a recipe. To do.
  • the PC 109 instructs the control device 105 to execute navigation.
  • the control device 105 executes navigation on the navigation target area as follows.
  • the control device 105 reads the navigation point information stored in the recipe and information related to the shooting conditions. Then, the coordinate value (X, Y) of each navigation point is specified based on the navigation point information. Then, the microscope is set to the phase difference observation mode, the objective lens 103 is moved to one of the specified navigation points, the shutter 107 is closed to block the excitation light, and the transmitted light is then blocked. The lighting device 106 is controlled to cause the LED to emit light only for the time required for taking the phase difference image, for example, for the exposure time of the camera 104. Then, the objective lens 103 is set at a high magnification, and an image input through the objective lens 103 at this time is taken by controlling the camera 104. This makes it possible to take a phase difference image of a small area centered on the navigation point.
  • control device 105 sets the microscope in the fluorescence observation mode, controls the transmitted light illumination device 106 to turn off the LED, and takes a time required for taking a fluorescent image, for example, the exposure of the camera 104.
  • the shutter 107 is opened for the time and the excitation light is irradiated.
  • the objective lens 103 is set at a high magnification, and the camera 104 is controlled to take an image input through the objective lens 103.
  • a fluorescent image of a small area centered on the navigation point can be taken.
  • the fluorescent filters are switched, and fluorescent images are captured for each fluorescent filter.
  • the control device 105 moves the objective lens 103 to a navigation point where an image is not taken. Then, the above-described processing is executed at the position of the objective lens after the movement, and a phase difference image and a fluorescence image of a small area centering on this navigation point are taken.
  • a phase difference image for each small area centered on each navigation point randomly selected from the navigation target area A point phase difference image
  • a plurality of fluorescent images point fluorescence images
  • FIG. 4 (a) are taken, and similarly shown in Fig. 4 (a).
  • Four fluorescent images 4a to 4d and four fluorescent images 4f to 4i shown in FIG. 4 (d) are taken.
  • the control device 105 outputs, to the PC 109, the point phase difference image of each navigation point and the point fluorescent image for each fluorescent filter taken in this way.
  • the CPU displays a GUI screen (observation object selection screen) as shown in FIG.
  • the user operates the observation object selection screen on the monitor 110 to select the observation target cell as follows based on the image input from the control device 105 according to each navigation method. To do.
  • the user operates the observation object selection screen shown in FIG. 5 by operating the mouse provided in the PC 109.
  • the observation target selection screen of FIG. 5 only items related to the present embodiment will be described, and description of other items will be omitted.
  • the tiling mode is selected as the navigation method, and the process when the above-described macro phase difference image and the macro fluorescence image for each fluorescence filter are input from the control device 105 is described. This will be described in detail.
  • random mode is selected as the navigation method
  • the same processing is performed by replacing the macro phase difference image with the point phase difference image and the macro fluorescence image with the point fluorescence image in the following description. it can.
  • the macro image is a single image in the navigation range where tiling is performed
  • the point image is a point image for each of a plurality of small areas corresponding to each navigation point. The person must switch the point image for each navigation point and perform an operation for each image.
  • the user selects the phase difference image display button 5a on the observation object selection screen, and displays the macro phase difference image in the image display area 5d on the observation object selection screen.
  • the user can confirm the shape of the cell from this macro phase contrast image.
  • a macro fluorescent image (filter image) photographed with an arbitrary fluorescent filter can be superimposed (superimposed) and displayed.
  • a filter image obtained by photographing an image emitted in red by fluorescence observation is displayed superimposed on a macro phase difference image
  • the user selects a red filter on the observation target selection screen.
  • Select image display button 5b that is, by setting both the phase difference image display button 5a and the red filter image display button 5b to be selected, the red filter image is superimposed on the base macro phase difference image in the image display area 5d. Can be displayed.
  • phase difference image display button 5a when a filter image obtained by photographing an image emitted in blue by fluorescence observation is displayed superimposed on the macro phase difference image, the user selects the phase difference image display button 5a on the observation target selection screen. At the same time, the blue filter image display button 5c is selected. If you want to display both the red filter image and the blue filter image on the macro phase difference image, select all of the phase difference image display button 5a, red filter image display button 5b, and blue filter image display button 5c. do it.
  • the user can confirm the fluorescence state by the fluorescent reagent as well as the cell shape.
  • this process is repeated.
  • the movement button 5f is a circular button as in the navigation position designation screen described above with reference to FIG.
  • the moving direction of the cursor 5e on the screen is determined according to the position on the button clicked with the mouse, and the moving amount of the cursor 5e on the screen is determined according to the number of times the mouse is pressed or the pressing time. It is determined
  • the CPU displays information for specifying the position of the cursor 5e at the time when the selection button 5g is clicked. Add to the display area 5h.
  • the CPU outputs a main observation execution instruction signal to the control device 105 together with the information displayed in the main observation target display area 5h.
  • the user instructs the start of the main observation on the selected cells displayed in the main observation target display area 5h by clicking the timelabs execution button 5i shown in FIG.
  • the captured position may be shifted for each selected small area within the selected area, and the captured image may be tiled.
  • the control device 105 When the execution instruction signal for the main observation is input, the control device 105 performs, for example, a timelabs process on the observation target cell to perform cell observation, that is, main observation. The result of this observation is output to the PC 109 via the control device 105, and the observation data (test data) is recorded on the hard disk in the PC 109 and simultaneously displayed on the monitor 110.
  • FIG. 7 is a flowchart showing the processing of the control device 105 in the present embodiment.
  • the processing shown in FIG. 7 is executed by the control device 105 as a program to be started when the user operates the PC 109 to instruct start of test preparation and receives a test start signal from the PC 109.
  • step S10 the microscope is set to a phase difference observation mode, and an objective lens having a low magnification capable of observing with a wide field of view such as 4x is used, while the objective lens is moved.
  • the phase difference image is taken at a low magnification, and the above-mentioned macro image is generated by joining the taken plural images.
  • step S20 the generated macro mouth image is output to the PC 109, and the process proceeds to step S30.
  • step S30 it is determined whether or not the above-described recipe is input from PC 109. If it is determined that the recipe has been input, the process proceeds to step S40.
  • step S40 based on the navigation method information stored in the recipe, it is determined whether the navigation method selected by the user on the PC 109 is the tiling mode or the random mode. If it is determined that the navigation method is the tiling mode, the process proceeds to step S50.
  • step S50 the navigation range information stored in the recipe and the information on the shooting conditions are read, and the process proceeds to step S51.
  • step S51 the coordinate value (X, Y) of the start point of the navigation range is specified based on the navigation range information, and the objective lens 103 is moved to the start point of the specified navigation range.
  • step S52 the objective lens 103, the camera 104, the transmitted light illumination device 106, and the shutter 107 are controlled as described above while switching between the phase difference observation mode and the fluorescence observation mode of the microscope. Execute navigation and take a phase contrast image and a fluorescence image for each small area. At this time, when a plurality of fluorescent filter types are designated as the imaging conditions, the plurality of fluorescent filters are switched, and a fluorescent image is captured for each type of filter. Thereafter, the process proceeds to step S53.
  • step S53 it is determined whether or not the navigation has been completed for the entire navigation range that has been read. If it is determined that the execution of navigation has not been completed, the process returns to step S51 and the objective lens 103 is moved to repeat the process in order to photograph the adjacent small area. On the other hand, if it is determined that the execution of navigation is completed, the process proceeds to step S54.
  • step S54 the phase difference image for each small region photographed by performing navigation and the fluorescence image photographed by at least one kind of fluorescent filter are tiled to obtain the above macro phase difference image and Create a macrofluorescence image. Thereafter, the process proceeds to step S55, where the created macro phase difference image and macro fluorescence image are output to the PC 109, and the process proceeds to step S70 described later.
  • step S60 the stored shooting conditions and navigation point information are read, and the process proceeds to step S61.
  • step S61 the coordinate value of the navigation point is specified, and the objective lens 103 is moved to any one of the specified navigation points.
  • step S62 the objective lens 103, the camera 104, the transmitted light illumination device 106, and the shutter 107 are controlled as described above to control a phase difference image and a fluorescence image of a small area centered on the navigation point.
  • Shoot if a plurality of fluorescent filter types are designated as the imaging conditions, the plurality of fluorescent filters are switched, and a fluorescent image is captured for each type of filter. Thereafter, the process proceeds to step S63.
  • step S63 it is determined whether or not the phase difference image and the fluorescence image have been completely captured at all the navigation points. If it is determined that the shooting has not been completed, the process returns to step S61 to move the objective lens 103 to the navigation point where the image is not shot and repeat the process. On the other hand, if it is determined that the execution of navigation is completed, the process proceeds to step S64. In step S64, a point phase difference image of a small area corresponding to each navigation point and a point fluorescence image for each fluorescent filter are output to the PC 109, and the process proceeds to step S70.
  • step S 70 it is determined whether or not the execution instruction signal for the main observation has been received from the PC 109.
  • the process proceeds to step S80, and timelabs processing is performed on the observation target cell selected by the user on the PC 109. Thereafter, the process proceeds to step S90, the result of the time lapse process is output to the PC 109, and the process is terminated.
  • FIG. 8 is a flowchart showing processing of PC 109 in the present embodiment. The processing shown in FIG. 8 is executed by the CPU of the PC 109 as a program that is activated when the above-described macro image is input from the control device 105.
  • step S200 the input macro image is analyzed using a known image analysis method such as texture analysis, and the cell growth region in which the cells are growing in the macro image is recognized, and the process proceeds to step S210. move on.
  • step S210 the growth area confirmation screen described above with reference to FIG. 2 is displayed on the monitor 110, and a macro image clearly showing the cell growth area is displayed in the macro image display area 2a. Thereafter, the process proceeds to step S220.
  • step S220 it is determined whether or not the movement button 2b has been operated by the user and a cell growth region as a navigation target has been selected.
  • step S230 it is determined whether either tiling mode or random mode has been selected as the navigation method to be performed on the selected cell growth region. to decide. If it is determined that any navigation method has been selected, the process proceeds to step S240.
  • step S240 a recipe storing navigation range information or navigation point information corresponding to the selected navigation method, navigation method information, and shooting condition information is created, and this recipe is created. Is output to the control device 105. Then go to step S250.
  • step S250 an image corresponding to the navigation method, that is, the macro phase difference image and the macro fluorescence image power in the tiling mode, and the point phase difference image and the point fluorescence image in the random mode are displayed on the control device. It is determined whether or not it has been input from 105. If it is determined that an image has been input, the process proceeds to step S260. In step S260, the observation target selection screen shown in FIG. 5 is displayed on monitor 110, and the flow proceeds to step S270.
  • step S270 whether or not the display of the macro phase difference image or the point phase difference image is instructed by the user selecting the phase difference image display button 5a on the observation target selection screen. to decide. If it is determined that the display of the macro phase difference image or the point phase difference image has been instructed, the process proceeds to step S280, and the macro phase difference image or the image is displayed in the image display area 5d on the observation target selection screen according to the navigation method. Point phase difference image is displayed. Thereafter, the process proceeds to step S290.
  • step S290 whether the display of the macro fluorescent image or the point fluorescent image is instructed by the user selecting the fluorescent image display button corresponding to the type of the fluorescent filter on the observation target selection screen. Judgment. If it is determined that the display of the macro fluorescent image or the spot fluorescent image is not instructed, the process proceeds to step S310 described later. On the other hand, if it is determined that the display of the black fluorescent image or the point fluorescent image is instructed, the process proceeds to step S300, and the phase difference image displayed in the image display area 5d is displayed. The fluorescent image of the instructed fluorescent filter is superimposed and displayed. Thereafter, the process proceeds to step S310.
  • step S310 it is determined whether or not a cell to be observed has been selected by the user. If it is determined that the cell to be observed has not been selected, the process returns to step S290 and the process is repeated. On the other hand, if it is determined that the cell to be observed has been selected, the process proceeds to step S320. In step S320, it is determined whether or not the user has instructed execution of this observation. If it is determined that the execution of the main observation has been instructed, the process proceeds to step S330, the execution instruction signal for the main observation is output to the control device 105, and the process is terminated.
  • the macro image is analyzed using a known image analysis method such as texture analysis, the cell growth region in the macro image is recognized, and the recognized cell growth region is clearly indicated on the macro image. To be displayed. Thus, the user can visually confirm at which position the cell growth region exists within the observable range. In addition, since the cell growth area is automatically recognized and then displayed, it is possible to reliably grasp only the cell growth area.
  • a known image analysis method such as texture analysis
  • At least one cell growth region specified in the macro image can be selected as a navigation target, and navigation can be performed on the cell growth region selected by the user. I tried to run. As a result, the execution target of navigation can be limited to only the region where cells are growing, and the processing load can be reduced.
  • a fluorescence image is captured by irradiating the cells with excitation light for the time necessary to capture the image, and the fluorescent image for each captured small region is typed.
  • a ringed macro fluorescent image was provided to the user. This minimizes the damage caused by photobleaching and phototoxicity of cells in the preparation stage.
  • the user can select a cell to be observed over time on the macro phase contrast image without worrying about the adverse effects on the cells caused by continuing irradiation with excitation light.
  • phase difference image was photographed by irradiating the transmitted light to the cell, and the macro phase difference image obtained by tiling the phase difference image for each small area was provided to the user.
  • the adverse effects on the cells caused by transmitted light irradiation are minimized.
  • Phase contrast images can be taken. In other words, since the observation target for the main observation is specified on the captured image, the excitation light or transmitted light is irradiated to the cell only when the image is acquired (captured). The adverse effects on the cells can be minimized.
  • the objective lens 103 can perform fluorescence observation by switching a plurality of fluorescence filters, and the camera 104 captures a fluorescence image for each fluorescence filter. This makes it possible to take a fluorescent image for each fluorescent color even in the case of multiple staining with multiple fluorescent reagents.
  • the navigation point is selected at random, and the phase difference image and the fluorescence image at each navigation point are displayed on the monitor 110. .
  • the user can obtain a phase difference image and a fluorescence image for each small area around the selected navigation point automatically without specifying the navigation point each time. User convenience is improved.
  • the user selects cells by overlaying and displaying the phase difference image and the fluorescence image for each fluorescence filter in the image display area 5d on the observation target selection screen displayed on the monitor 110. I was able to choose. Thus, the user can select a cell to be observed while confirming the fluorescence state of the fluorescent reagent together with the shape of the cell.
  • the cell observation apparatus of embodiment mentioned above can also be deform
  • at least one of a plurality of fluorescent images is superimposed on the phase difference image in the image display area 5d on the observation target selection screen displayed on the monitor 110 and displayed. To select the cells.
  • the present invention is not limited to this, and two or more of the plurality of fluorescent images may be superimposed.
  • the macro image displayed in the image display area 5d may be enlarged. As a result, the user can further enlarge the macro image and easily select cells to be observed.
  • a macro phase difference image is obtained by synthesizing a phase difference image and a fluorescence image for each small region obtained by performing navigation processing on the navigation range.
  • An example of generating a macro fluorescence image has been described. However, only one of the phase difference image or the fluorescence image may be taken. In this case, the user only has to select the target cell while confirming only one of the macro phase difference image and the macro fluorescence image on the observation target selection screen.
  • control device 105 executes the process shown in FIG. 7 and the PC 109 executes the process shown in FIG.
  • either the control device 105 or the PC 109 may perform all the processes in FIGS.
  • the present invention can be observed by irradiating light, and can be observed by irradiating light. It can also be applied to other observational objects that may cause adverse effects such as minerals.
  • a macro image is acquired using an objective lens with a low magnification of 4 ⁇ that can be observed in a wide field of view.
  • the magnification for acquiring a macro image may be about 1 to 200 times. However, it is preferably about 2 times to about 100 times, and most preferably about 2 times to about 50 times.
  • One of the purposes of macro image acquisition is to provide a map function to search the area to be observed in more detail from the acquired macro image. Therefore, if an image is acquired at a very high magnification, for example, 500 times, it is possible to obtain an image only in a narrow region of the entire observation sample, that is, only a small range map can be created. The search area for the observation area becomes narrow.
  • the macro image may be acquired at 1x magnification. Furthermore, for example, when the observation sample is in a petri dish, the image may be acquired so that the entire petri dish is displayed on the display device. In this case, the magnification should be lower than 1x, for example, 0.5x.
  • the magnification at which the cells in the observation target region are imaged should be higher than the magnification at which the macro image is formed. Is preferred.
  • the magnification at which the cells in the observation target region are imaged varies depending on the form and type of the sample to be observed, the observation purpose, and the like. Therefore, for example, when acquiring a 2 ⁇ macro image, the magnification for acquiring an image of a cell in the observation target region may be 3 ⁇ . Further, the magnification for forming the macro image and the magnification for acquiring the image of the cell in the observation target area may be equal. For example, if a macro image is acquired at 200x, the user's judgment is satisfactory as a magnification when acquiring an image of a cell in the observation target area. You can get the image.
  • a low-magnification objective lens that can be observed with a wide field of view such as 4 ⁇ is used, and the phase difference image of the entire observable region is obtained while moving the objective lens.
  • a macro image may be generated by tiling an image obtained by capturing the entire region within the observable region by a contrast generation method other than fluorescence, such as a differential interference contrast method.
  • the random mode is selected as the navigation method.
  • the user is prompted to input the number of points to be set as navigation points, and the number of points input by the user is selected at random as the navigation points accordingly.
  • the number of navigation points can be either a fixed value set in advance by the user or can be changed arbitrarily by the user by displaying the initial value set in advance.
  • the observation image is not limited to the phase difference observation, and may be an observation image such as bright field observation, differential interference observation, polarized light observation, or dark field observation. Even in such a case, the excitation light output from the excitation light source device 108 is blocked by the shutter 107, and observation is performed by irradiating illumination light for each observation.
  • the control device 105 of the above-described embodiment can be replaced with a computer such as a personal computer.
  • the processing program of the control device 105 described above can be provided through a data signal such as a recording medium Internet such as a CD-ROM.
  • the above-mentioned processing program of the PC 109 can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet.
  • FIG. 9 is a diagram showing how the program is provided by using the PC 109 as an example.
  • the PC 109 receives a program via the CD-ROM 204. Further, the PC 109 has a connection function with the communication line 201.
  • the computer 202 is a server computer that provides the above program, and stores the program in a recording medium such as the hard disk 203.
  • the communication line 201 is a communication line such as the Internet or a dedicated communication line.
  • the computer 202 reads the program using the hard disk 203 and transmits the program to the PC 109 via the communication line 201. That is, the program is transmitted as a data signal on a carrier wave via the communication line 401.
  • the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a carrier wave.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Organic Chemistry (AREA)
  • Zoology (AREA)
  • Analytical Chemistry (AREA)
  • Wood Science & Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Biotechnology (AREA)
  • Microbiology (AREA)
  • Sustainable Development (AREA)
  • General Physics & Mathematics (AREA)
  • Genetics & Genomics (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Thermal Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cell Biology (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

 観察装置は、細胞培養容器内を低倍率で撮像したマクロ画像に基づいて、細胞が存在している領域を観察対象領域とし、この観察対象領域の細胞を撮影する撮影部と、撮影部による撮影時のみ、細胞に光を照射する照明部と、撮影時のみ照明部により照明され撮影部により撮影した蛍光画像を出力する出力部とを備える観察装置。

Description

明 細 書
観察装置および観察方法
技術分野
[0001] 本発明は、観察対象を観察するための観察装置、および観察方法に関する。
背景技術
[0002] 次のような蛍光顕微鏡を使用した蛍光法による細胞の観察方法が非特許文献 1に よって知られている。この方法によれば、細胞に励起光を照射し、細胞から放出され る蛍光を観察する。そして、観察前に観察位置の設定を行うが、この際、細胞へ励起 光を照射し、蛍光画像から観察位置の設定を行っている。
[0003] 非特許文献 1 :バイオイメージングがわかる P22〜24 (2005年 9月 羊土社発行) 発明の開示
発明が解決しょうとする課題
[0004] し力 ながら、従来の観察方法においては、細胞に励起光を照射する時間が長くな るにつれて、光退色によって蛍光が弱まったり、光毒性により細胞にダメージを与え てしまうことになる。このため、観察対象とする細胞を選択し、観察位置を設定する際 、細胞の選択作業に時間を要すると、選択段階で細胞に光退色や光毒性による悪 影響を及ぼしてしまい、実際の観察時には正確な観察が行えなレ、可能性がある。 課題を解決するための手段
[0005] 本発明の第 1の態様によると、観察装置は、細胞培養容器内を低倍率で撮像した マクロ画像に基づいて、細胞が存在している領域を観察対象領域とし、この観察対 象領域の細胞を撮影する撮影部と、撮影部による撮影時のみ、細胞に光を照射する 照明部と、撮影時のみ照明部により照明され撮影部により撮影した蛍光画像を出力 する出力部とを備える観察装置。
本発明の第 2の態様によると、第 1の態様の観察装置において、取得されたマクロ 画像内で細胞が存在している少なくとも 1つの領域を認識する認識部を有するのが 好ましい。
本発明の第 3の態様によると、第 1の態様の観察装置において、マクロ画像は、培 養装置内の小領域ごとの撮影を繰り返し、隣接する小領域の画像をつなぎ合わせた タイリング画像であるのが好ましレ、。
本発明の第 4の態様によると、第 1の態様の観察装置において、撮影部により観察 対象領域の細胞を撮像する際の倍率は、マクロ画像を形成する際の倍率よりも高倍 率であるのが好ましい。
本発明の第 5の態様によると、第 1の態様の観察装置において、照明部は、撮影す る細胞のみに照明するのが好ましい。
本発明の第 6の態様によると、第 1の態様の観察装置において、撮影部で撮影され た画像を記憶する記憶部をさらに有するのが好ましい。
本発明の第 7の態様によると、第 2の態様の観察装置において、認識部は、認識し た細胞の存在する領域をマクロ画像上でマークするのが好ましい。
本発明の第 8の態様によると、第 1の態様の観察装置において、撮影部は、観察対 象領域を分割した小領域ごとの画像を撮像し、出力部は、撮像された小領域の画像 をつなぎ合わせて観察対象領域全体の結合画像を生成し、生成した結合画像を出 力するのが好ましい。
本発明の第 9の態様によると、第 1の態様の観察装置において、撮影部は、細胞が 存在する複数の領域の中から少なくとも 1つの領域を観察対象領域として設定し、設 定した各観察対象領域内から少なくとも 1つの小領域をランダムに選択し、選択した 小領域ごとに撮影を行うのが好ましレ、。
本発明の第 10の態様によると、第 1の態様の観察装置において、マクロ画像は、位 相差観察または明視野観察または微分干渉観察または偏光観察または喑視野観察 によリ観察された画像であるのが好ましい。
本発明の第 11の態様によると、第 2の態様の観察装置において、対物レンズと、タ ィリングモード又はランダムモードを選択する選択部と、タイリングモード又はランダム モードの何れかが選択されると認織部で認識された細胞が存在する領域に対物レン ズを対峠させる制御装置とを有するのが好ましい。
本発明の第 12の態様によると、第 11の態様の観察装置において、蛍光観察にお いて標本に添加された蛍光試薬を励起する励起光を照射する励起光源と、励起光 源からの光の標本への照射を遮断あるいは可能とするシャッターをさらに有し、制御 装置は、対物レンズが観察位置に対峠されるとき、励起光源からの光の標本への照 射を遮断するようシャッターを制御するのが好ましい。
本発明の第 13の態様によると、第 12の態様の観察装置において、制御装置は、シ ャッターで励起光を遮断した後に位相差観察または明視野観察または微分干渉観 察または偏光観察または喑視野観察により観察領域のマクロ画像を取得させるのが 好ましい。
本発明の第 14の態様によると、第 13の態様の観察装置において、制御装置は、観 察領域のマクロ画像を取得した後にシャッターを開放し、励起光源からの励起光を標 本に照射させ、観察領域の蛍光画像を取得させるのが好ましレ、。
本発明の第 15の態様によると、第 14の態様の観察装置において、取得された蛍光 画像を記憶する記憶部をさらに有するのが好ましい。
本発明の第 16の態様によると、第 15の態様の観察装置において、制御装置は、記 憶部に記憶された観察領域の蛍光画像と観察領域のマクロ画像を重ね合わせるの が好ましい。
本発明の第 17の態様によると、第 1の態様の観察装置において、標本の設置が可 能なチャンバ一と、チャンバ一内の湿度を調整する湿度調整機と、チャンバ一内の温 度を調整する温度調整機とをさらに備えるのが好ましい。
本発明の第 18の態様によると、第 17の態様の観察装置において、湿度調整機及 び温度調整機でチャンバ一内が調整された環境で設置されている標本に対して、マ クロ画像の取得、及び照明部による標本の照明および撮影部による蛍光画像の取得 を行うのが好ましい。
本発明の第 19の態様によると、第 7の態様の観察装置において、マクロ画像を表 示する表示装置をさらに備え、マークは、表示装置に表示されたマクロ画像に対して 行われるのが好ましい。
本発明の第 20の態様によると、顕微鏡による本観察のための観察対象を特定する 観察方法は、細胞が生育している観察対象領域を、撮影時のみ光を照射して撮影 装置により撮影し、撮影装置により撮影した観察対象領域の画像を表示装置に表示 し、表示装置に表示された観察対象領域の画像上で観察対象領域内における顕微 鏡による本観察のための観察対象を特定する。
発明の効果
[0006] 本発明によれば、光を照射することによる細胞への悪影響を軽減することができる。
図面の簡単な説明
[0007] [図 1]細胞観察装置の構成を模式的に示す図である。
[図 2]生育領域確認用画面の具体例を示す図である。
[図 3]マクロ位相差画像の作成手順を模式的に示した図である。
[図 4]マクロ蛍光画像の作成手順を模式的に示した図である。
[図 5]観察対象選択用画面の具体例を示す図である。
[図 6]マクロ位相差画とマクロ蛍光画像とを重ね合わせた場合の具体例を示す図であ る。
[図 7]制御装置 105の処理を示すフローチャート図である。
[図 8]PC109の処理を示すフローチャート図である。
[図 9]PC109にプログラムを提供する様子を示す図である。
発明を実施するための最良の形態
[0008] 図 1は、本実施の形態における細胞観察装置の構成を模式的に示した図である。
細胞観察装置 100は、ステージ 101と、チャンバ一 102と、対物レンズ 103と、カメラ 1 04と、制御装置 105と、透過光照明装置 106と、シャッター 107と、励起用光源装置 108と、パーソナルコンピュータ(PC) 109と、モニタ 110と、環境制御装置 111とを備 えている。なお、ステージ 101と、チャンバ一 102と、対物レンズ 103と、カメラ(撮影 装置) 104と、制御装置 105と、透過光照明装置 106と、シャッター 107と、励起用光 源装置 108は顕微鏡を構成する。
[0009] この細胞観察装置 100においては、使用者は PC109を操作することによって、糸田 胞観察装置 100に対する種々の指示を出すことができ、 PC109は、使用者からの指 示に応じた制御信号を制御装置 105へ出力する。制御装置 105は、 PC109からの 制御信号に基づいて使用者からの指示に応じた種々の処理を実行する。本実施の 形態では、使用者がステージ 101上のチャンバ一 102内にセットされた細胞培養容 器 A内の細胞を観察する場合の処理について説明する。
[0010] なお、細胞培養容器 Aは、例えば 35mmディッシュが使用される。また、チャンバ一 102内は密閉されており、その内部環境は、環境制御装置 111によって細胞の培養 に適した環境に維持されている。例えば、チャンバ一 102内の C〇濃度は CO混合
2 2 機 111 aによって 5 %に維持され、湿度は湿度調整機 111 bによって 100%に維持さ れ、温度は温度調整機 111cによって 37°Cに維持されている。
[0011] 励起用光源装置 108は、細胞を蛍光染色している色素を励起する波長の励起光を チャンバ一 102内の細胞培養容器 Aに照射する。なお、励起用光源装置 108から出 力される励起光は、シャッター 107により遮断することが可能である。透過光照明装 置 106は、光源として LEDを備えており、シャッター 107により励起光が遮断されて レ、るときに、 LEDを発光させて、チャンバ一 102内の細胞培養容器 Aに透過光(照明 光)を照射することもできる。シャッター 107による励起光の遮断、および透過光照明 装置 106からの LEDの発光は、全て制御装置 105によって制御される。
[0012] 顕微鏡は、位相差観察モードと蛍光観察モードとを備え、透過光照明装置 106か らチャンバ一 102内の細胞培養容器 Aに透過光を照射して細胞を位相差観察するこ とができ、また、励起用光源装置 108からチャンバ一 102内の細胞培養容器 Aに励 起光を照射して、蛍光試薬で染色した細胞を蛍光観察することもできる。カメラ 104 は、 CCDなどの撮像素子を備えており、対物レンズ 103を通して入力される細胞の 像 (拡大像)を撮像して顕微鏡画像、すなわち位相差画像と蛍光画像とを得ることが できる。また、顕微鏡は、細胞を観察するための高倍率の対物レンズと 4倍などの広 視野で観察できる低倍率の対物レンズとを切り替えて使用することができる。
[0013] なお、顕微鏡は、複数の蛍光フィルタを切り替えて蛍光観察を行うことができる。例 えば、複数の蛍光試薬で染色した多重染色の場合には、複数の蛍光フィルタを切り 替えて蛍光観察を行うことによって、複数の蛍光色を観察することができる。これによ り、カメラ 104は、蛍光フィルタごとの複数の蛍光画像を撮像することができる。
[0014] カメラ 104によって撮影された顕微鏡画像は制御装置 105へ出力され、さらに PC1 09に出力された後にモニタ 110に表示される。これによつて、使用者は顕微鏡画像 をモニタ 110上で確認することができる。 [0015] 本実施の形態における細胞観察装置 100においては、使用者は、 PC109を操作 して観察対象の細胞の種類に応じた蛍光画像の撮影条件を指示することができる。 例えば撮影条件として励起光量、カメラゲイン、露光時間、焦点面、フィルタ種類を指 示する。この撮影条件は、細胞の種類ごとにあらかじめ設定して PC109が備えるメモ リ内に記憶しておき、使用者が観察対象の細胞の種類に応じて設定内容を選択する ようにしてもよぐ観察の都度、撮影条件を設定するようにしてもよい。
[0016] 一般的に、細胞を蛍光観察する場合には、細胞に励起光を照射する時間が長くな るにつれて、光退色によって蛍光が弱まったり、光毒性により細胞にダメージを与え てしまう。このため、実際の蛍光観察 (本蛍光観察)を行う前段階として観察対象とす る細胞を選ぶための蛍光観察 (準備蛍光観察)を行った場合に、準備蛍光観察に時 間をかけてしまうと、準備蛍光観察の段階で細胞に光退色や光毒性による悪影響を 及ぼしてしまレ、、本蛍光観察で正確な実験データが得られないなど、期待通りの観 察結果が得られなレ、可能性が生じる。
[0017] 本実施の形態では、準備観察段階で細胞に及ぼす悪影響を最小限に抑えるため に、準備観察段階における励起光の照射時間を極力抑える方法について説明する
[0018] 制御装置 105は、まず、 4倍などの広視野で観察できる対物レンズを使用して、対 物レンズを移動させながら観察可能領域内の全範囲の位相差観察による位相差画 像を撮影する。ここで観察可能領域内とは、細胞培養容器 Aの内側をいう。そして、 対物レンズを移動させながら撮影した複数枚の画像をつなぎ合わせて (タイリングし て) 1枚の画像を生成する。以下、ここで生成した画像をマクロ画像と呼ぶ。制御装置 105は、生成したマクロ画像を PC109に出力する。
[0019] PC109が有する CPUは、入力されたマクロ画像を公知のテクスチャ解析等の画像 解析の手法を用いて解析して、マクロ画像内で細胞が生育している領域 (細胞生育 領域)を認識する。そして、 CPUは、マクロ画像上に認識した細胞生育領域を明示( マーク)してモニタ 110に表示する。これによつて、使用者 (実験者)は、観察可能範 囲内でどの位置に細胞生育領域が存在するかを確認することができる。
[0020] CPUは、例えば、図 2に示すようにマクロ画像を表示した GUI画面(生育領域確認 用画面)をモニタ 110に表示する。この生育領域確認用画面においては、マクロ画像 表示領域 2a内に細胞生育領域 1〜7が明示されたマクロ画像が表示されている。そ して、使用者は、細胞生育領域 1〜7の中から後述するナビゲーシヨンの実行対象と する領域を 1つ以上選択する。ナビゲーシヨンの実行とは、指定された領域において 、予め指定された方法、予め指定された撮影条件などで自動的に顕微鏡画像を取 得することを言う。なお、図 2においては、細胞生育領域は円または楕円で模式的に 表されているが、実際には細胞が生育している領域の形状が表示される。
[0021] 具体的には、使用者は、生育領域確認用画面上の移動ボタン 2bを PC109が有す るマウスを使用して操作し、細胞生育領域 1〜7の選択状況を変更する。例えば、現 在選択されてレ、る細胞生育領域は太枠表示 (ハイライト表示)され、移動ボタン 2bの 操作状況に応じて太枠を移動させることによって細胞生育領域 1〜7の選択状況を 変更する。図 2に示す例では、移動ボタン 2bは円形状のボタンであり、マウスでクリツ クされたボタン上の位置に応じて細胞生育領域の選択状況が変化するものとする。
[0022] 使用者は、ナビゲーシヨンの実行対象としたい細胞生育領域が太枠表示された状 態で選択ボタン 2cをクリックすることによって、ナビゲーシヨンの実行対象とする細胞 生育領域を選択する。使用者によって細胞生育領域が選択されると、 CPUは、マク 口画像表示領域 2a内における選択された細胞生育領域の位置を特定する情報を選 択情報表示領域 2d内に登録する。なお、ナビゲーシヨンの実行対象としたい細胞生 育領域が複数ある場合には、使用者は上述した処理を繰り返し行って、選択情報表 示領域 2d内に複数の細胞生育領域に関する情報を登録する。
[0023] さらに使用者は、選択した細胞生育領域に対して実行するナビゲーシヨンの方法と してタイリングモードとランダムモードのいずれかを選択する。本実施の形態では、使 用者は、生育領域確認用画面でタイリングモードボタン 2eまたはランダムモードボタ ン 2fのいずれかをマウスでクリックすることによって、ナビゲーシヨン方法を選択し、選 択した方法でのナビゲーシヨンの実行を指示する。なお、タイリングモードとランダム モードのそれぞれのナビゲーシヨン方法については後述する。
[0024] 使用者によってナビゲーシヨンの実行が指示されると、 CPUは、選択されたナビゲ ーシヨン方法に応じて、マクロ画像表示領域 2a内におけるナビゲーシヨンを実行する 範囲(ナビゲーシヨン範囲)または地点(ナビゲーシヨン地点)、ナビゲーシヨンの方法 、および上述した撮影条件のそれぞれに関する情報を格納したレシピを作成して、 当該レシピを制御装置 105へ出力する。制御装置 105は、 PC109からレシピが入力 されると、レシピに格納されている各情報に基づいて、後述するようにナビゲーシヨン を実行する。
[0025] 以下、使用者によって選択されたナビゲーシヨン方法がタイリングモードである場合 とランダムモードである場合とに分けて、各モードごとのナビゲーシヨン方法について 説明する。なお、以下の説明では、ナビゲーシヨン対象の細胞生育領域 (ナビゲーシ ヨン対象領域)として 1つの細胞生育領域が選択されている場合について説明するが 、ナビゲーシヨン対象領域が選択された場合には、以下に説明する処理を複数のナ ビグーシヨン対象領域に対してそれぞれ実行すればよい。
[0026] (1)ナビゲーシヨン方法がタイリングモードの場合
CPUは、使用者によってタイリングモードボタン 2eがクリックされ、タイリングモード によるナビゲーシヨンの実行が指示された場合には、選択された細胞生育領域の周 囲の XY座標群をナビゲーシヨン範囲の情報(ナビゲーシヨン範囲情報)として設定し て上述したレシピを作成する。このレシピを制御装置 105へ出力することによって、 P C109から制御装置 105に対してナビゲーシヨンの実行が指示される。制御装置 105 は、 PC109からのナビゲーシヨンの実行指示に応答して、ナビゲーシヨン対象領域 に対して次のようにナビゲーシヨンを実行する。
[0027] 制御装置 105は、まず、レシピに格納されているナビゲーシヨン範囲情報と撮影条 件に関する情報を読み込む。そして、ナビゲーシヨン範囲情報に基づいてナビゲー シヨン範囲の開始点の座標値 (X, Y)を特定する。例えば、ナビゲーシヨン範囲の左 上の端点の座標値をナビゲーシヨン範囲の開始点の座標値 (X, Y)として特定する。
[0028] そして、顕微鏡を位相差観察モードにセットして、特定したナビゲーシヨン範囲の開 始点に対物レンズ 103を移動させ、シャッター 107を閉じて励起光を遮断した後、透 過光照明装置 106を制御して位相差画像の撮影に必要な時間だけ、例えばカメラ 1 04の露光時間だけ LEDを発光させる。そして、対物レンズ 103を高倍率にセットし、 このときに対物レンズ 103を通して入力される像をカメラ 104を制御して撮影し、記憶 する。これによつて、ナビゲーシヨン範囲の開始点における位相差画像を撮影するこ とができる。
[0029] さらに、制御装置 105は、顕微鏡を蛍光観察モードにセットして、透過光照明装置 1 06を制御して LEDを消灯し、蛍光画像の撮影に必要な時間、例えばカメラ 104の露 光時間だけシャッター 107を開けて励起光を照射する。そして、対物レンズ 103を高 倍率にセットし、カメラ 104を制御して対物レンズ 103を通して入力される像を撮影し 、記憶する。これによつて、ナビゲーシヨン範囲の開始点における蛍光画像を撮影す ること力 Sできる。なお、このとき、撮影条件として複数の蛍光フィルタの種類が指定さ れている場合には、蛍光フィルタを切り替えて、各蛍光フィルタごとに蛍光画像をそ れぞれ撮影する。
[0030] その後、制御装置 105は、ナビゲーシヨン範囲内の次の領域を撮影するように対物 レンズ 103を移動させる。すなわち、制御装置 105は、移動後の対物レンズ位置にお けるカメラ 104の撮影範囲が移動前の対物レンズ位置におけるカメラ 104の撮影範 囲と隣接し、かつ両範囲が重複しないように、対物レンズ 103の移動量を制御する。 そして、移動後の対物レンズ位置において上述した処理を実行し、移動後の対物レ ンズ位置における位相差画像と蛍光画像を撮影し、記憶する。この処理をナビゲー シヨン範囲の全範囲に対して実行することによって、ナビゲーシヨン範囲内において 複数の小領域ごとに位相差画像と、蛍光フィルタの種類分の複数枚の蛍光画像を撮 景すること力できる。
[0031] そして、制御装置 105は、ナビゲーシヨンを実行して撮影された各小領域に対応す る位相差画像をつなぎ合わせて (タイリングして)、ナビゲーシヨン範囲全体を撮影し た 1枚の結合画像 (マクロ位相差画像)を生成する。さらに、制御装置 105は、各蛍光 フィルタの蛍光画像ごとに、同様にして各小領域に対応する蛍光画像をタイリングし て蛍光フィルタごとの結合画像(マクロ蛍光画像)を生成する。
[0032] 図 3を用いて、マクロ位相差画像の生成方法を具体的に説明する。この図 3は、 4つ の小領域に対してナビゲーシヨンを実行した場合に撮影される位相差画像に基づい てマクロ位相差画像を生成する手順を模式的に示した図である。ここでは、 4つの小 領域を対象としてナビゲーシヨンが実行された結果、図 3 (a)に示す 4枚の位相差画 像 3a〜3dが撮影されている。制御装置 105は、この 4枚の位相差画像をナビゲーシ ヨン範囲内におけるそれぞれの小領域の位置関係を保持したまま図 3 (b)のように並 ベて結合することによってタイリングを行う。これによつて図 3 (c)に示すようなマクロ位 相差画像 3eが生成される。
[0033] 次に、図 4を用いて、マクロ蛍光画像の生成方法を具体的に説明する。この図 4は、
4つの小領域に対して 2種類の蛍光フィルタを使用してナビゲーシヨンを実行した場 合に撮影される蛍光画像に基づいてマクロ蛍光画像を生成する手順を模式的に示 した図である。ここでは、第 1の蛍光フィルタを使用して 4つの小領域を対象としてナ ビグーシヨンが実行された結果、図 4 (a)に示す 4枚の蛍光画像 4a〜4dが撮影され ている。また、第 2の蛍光フィルタを使用して 4つの小領域を対象としてナビグーショ ンが実行された結果、図 4 (d)に示す 4枚の蛍光画像 4f〜4iが撮影されている。
[0034] 制御装置 105は、まず、図 4 (a)に示す 4枚の蛍光画像 4a〜4dを、ナビゲーシヨン 範囲内におけるそれぞれの小領域の位置関係を保持したまま図 4 (b)のように並べ て結合することによってタイリングを行う。これによつて図 4 (c)に示すような第 1の蛍光 フィルタのマクロ位相差画像 4eが生成される。次に、図 4 (d)に示す 4枚の蛍光画像 4 f〜4iを、ナビゲーシヨン範囲内におけるそれぞれの小領域の位置関係を保持したま ま、図 4 (e)のように並べて結合することによってタイリングを行う。これによつて図 4 (f) に示すような第 2の蛍光フィルタのマクロ位相差画像 4jが生成される。
[0035] 制御装置 105は、このように生成したマクロ位相差画像と蛍光フィルタごとのマクロ 蛍光画像とを PC109へ出力する。
[0036] (2)ナビゲーシヨン方法がランダムモードの場合
CPUは、使用者によってランダムモードボタン 2fがクリックされ、ランダムモードによ るナビゲーシヨンの実行が指示された場合には、使用者に対してナビゲーシヨン地点 として設定する地点数の入力を促す。これに応じて使用者が PC109が備えるキーボ ードを操作して 1以上の地点数を入力すると、 CPUは、ナビゲーシヨン対象領域内か ら使用者によって入力された数の地点をランダムに選択する。
[0037] そして、 CPUは、ランダムに選択したナビゲーシヨン対象領域内の各地点の XY座 標値をナビゲーシヨン地点の情報 (ナビゲーシヨン地点情報)に設定してレシピを作 成する。このレシピを制御装置 105へ出力することによって、 PC109から制御装置 1 05に対してナビゲーシヨンの実行が指示される。制御装置 105は、 PC109からのナ ビゲーシヨンの実行指示に応答して、ナビゲーシヨン対象領域に対して次のようにナ ビグーシヨンを実行する。
[0038] 制御装置 105は、まず、レシピに格納されているナビゲーシヨン地点情報と撮影条 件に関する情報を読み込む。そして、ナビゲーシヨン地点情報に基づいて各ナビゲ ーシヨン地点の座標値 (X, Y)を特定する。そして、顕微鏡を位相差観察モードにセ ットして、特定したナビゲーシヨン地点の中のいずれかの地点に対物レンズ 103を移 動させ、シャッター 107を閉じて励起光を遮断した後、透過光照明装置 106を制御し て位相差画像の撮影に必要な時間だけ、例えばカメラ 104の露光時間だけ LEDを 発光させる。そして、対物レンズ 103を高倍率にセットし、このときに対物レンズ 103を 通して入力される像をカメラ 104を制御して撮影する。これによつて、ナビゲーシヨン 地点を中心とした小領域の位相差画像を撮影することができる。
[0039] さらに、制御装置 105は、顕微鏡を蛍光観察モードにセットして、透過光照明装置 1 06を制御して LEDを消灯し、蛍光画像の撮影に必要な時間、例えばカメラ 104の露 光時間だけシャッター 107を開けて励起光を照射する。そして、対物レンズ 103を高 倍率にセットし、カメラ 104を制御して対物レンズ 103を通して入力される像を撮影す る。これによつて、ナビゲーシヨン地点を中心とした小領域の蛍光画像を撮影すること ができる。なお、このとき、撮影条件として複数の蛍光フィルタの種類が指定されてい る場合には、蛍光フィルタを切り替えて、各蛍光フィルタごとに蛍光画像をそれぞれ 撮影する。
[0040] その後、制御装置 105は、画像の撮影を行っていないナビゲーシヨン地点に対物 レンズ 103を移動させる。そして、移動後の対物レンズ位置において上述した処理を 実行し、このナビゲーシヨン地点を中心とした小領域の位相差画像と蛍光画像を撮 影する。この処理をレシピに格納されている全てのナビゲーシヨン地点に対して実行 することによって、ナビゲーシヨン対象領域内からランダムに選択された各ナビゲーシ ヨン地点を中心とした各小領域ごとの位相差画像 (地点位相差画像)と、蛍光フィルタ の種類分の複数枚の蛍光画像 (地点蛍光画像)とを撮影することができる。 [0041] 例えば、ナビゲーシヨン地点として 4点が指定された場合には、図 3 (a)に示した 4枚 の位相差画像 3a〜3dが撮影され、同様に図 4 (a)に示した 4枚の蛍光画像 4a〜4d や図 4 (d)に示した 4枚の蛍光画像 4f〜4iが撮影される。制御装置 105は、このよう にして撮影した各ナビゲーシヨン地点の地点位相差画像と蛍光フィルタごとの地点蛍 光画像とを PC109へ出力する。
[0042] PC109において CPUは、例えば図 5に示すような GUI画面(観察対象選択用画 面)をモニタ 110に表示する。使用者は、モニタ 110上でこの観察対象選択用画面を 操作することにより、それぞれのナビゲーシヨン方法に応じて制御装置 105から入力 される画像に基づいて、次のように観察対象の細胞を選択する。なお、使用者は PC 109が備えているマウスを操作することによって図 5に示す観察対象選択用画面を操 作する。また、図 5の観察対象選択用画面については、本実施の形態に関連する項 目についてのみ説明し、それ以外の項目については説明を省略する。
[0043] 以下の説明においては、ナビゲーシヨン方法としてタイリングモードが選択されてお り、制御装置 105から上述したマクロ位相差画像と蛍光フィルタごとのマクロ蛍光画 像が入力された場合の処理について詳細に説明する。ナビゲーシヨン方法としてラン ダムモードが選択された場合の処理については、以下の説明におけるマクロ位相差 画像を地点位相差画像に、マクロ蛍光画像を地点蛍光画像にそれぞれ置き換えて 処理することによって同様に処理できる。このとき、マクロ画像がタイリングを行ったナ ビゲーシヨン範囲内の 1枚の画像であるのに対して地点画像は各ナビゲーシヨン地点 に対応する複数の小領域ごとの地点画像であることから、使用者は各ナビゲーシヨン 地点ごとの地点画像を切り替えて各画像ごとに操作を行う必要がある。
[0044] まず使用者は、観察対象選択用画面上で位相差画像表示ボタン 5aを選択して、 観察対象選択用画面上の画像表示領域 5d内にマクロ位相差画像を表示する。使用 者はこのマクロ位相差画像によって細胞の形状を確認することができる。そして、この マクロ位相差画像をベースとして、その上に任意の蛍光フィルタで撮影したマクロ蛍 光画像(フィルタ画像)を重ね合わせて(重畳して)表示することができる。例えば、蛍 光観察によって赤色に発光した画像を撮影したフィルタ画像をマクロ位相差画像に 重ね合わせて表示する場合には、使用者は観察対象選択用画面上で赤色フィルタ 画像表示ボタン 5bを選択する。すなわち、位相差画像表示ボタン 5aと赤色フィルタ 画像表示ボタン 5bとがいずれも選択された状態にすることで、画像表示領域 5d内に ベースとなるマクロ位相差画像上に赤色フィルタ画像を重ね合わせて表示することが できる。
[0045] 同様に、蛍光観察によって青色に発光した画像を撮影したフィルタ画像をマクロ位 相差画像に重ね合わせて表示する場合には、使用者は観察対象選択用画面上で 位相差画像表示ボタン 5aと共に青色フィルタ画像表示ボタン 5cを選択する。また、 マクロ位相差画像に赤色フィルタ画像と青色フィルタ画像のいずれも重ね合わせて 表示したい場合には、位相差画像表示ボタン 5a、赤色フィルタ画像表示ボタン 5b、 および青色フィルタ画像表示ボタン 5cを全て選択すればよい。
[0046] 例えば、図 3に示したマクロ位相差画像 3eに、図 4に示した第 1の蛍光フィルタ画像 4eと第 2のフィルタ画像 4jを重ね合わせて表示した場合には、図 6に示すような合成 画像(重畳画像)が画像表示領域 6d内に表示される。
[0047] このように合成されたマクロ位相差画像と合成されたマクロ蛍光画像(フィルタ画像) とを重ね合わせて表示することによって、使用者は細胞の形状とともに蛍光試薬によ る蛍光状態を確認しながら、観察対象とする細胞の選択を行うことができる。具体的 には、使用者は、画像表示領域 5d内のマクロ画像上に表示されたカーソル 5eを移 動ボタン 5fをマウスで操作して移動させ、本観察の観察対象とする細胞に当てた後、 選択ボタン 5gをマウスでクリックすることによって、本観察の観察対象とする細胞を選 択する。使用者は、本観察の観察対象として複数の細胞を選択したい場合には、こ の処理を繰り返し行う。
[0048] なお、観察対象選択用画面においても、図 2で上述したナビゲーシヨン位置指定用 画面と同様に、移動ボタン 5fは円形状のボタンである。そして、マウスでクリックされた ボタン上の位置に応じてカーソル 5eの画面上での移動方向が決定され、マウスによ る押下回数、または押下時間に応じてカーソル 5eの画面上での移動量が決定される
[0049] 使用者によって本観察の観察対象とする細胞が選択されると、 CPUは、選択ボタン 5gがクリックされた時点におけるカーソル 5eの位置を特定する情報を本観察対象表 示領域 5h内に追加する。
[0050] これによつて、使用者はモニタ 110に表示されたマクロ画像を見ながら本観察前の 準備段階として観察対象の細胞を選択することができ、細胞を選択するために透過 光や励起光を細胞に照射し続けなくても済むことになる。すなわち、励起光の照射時 間も蛍光画像の撮影に必要な時間だけで済むことから、準備段階での細胞の光退 色や光毒性によるダメージを最小限に抑えることができる。また、透過光の照射時間 は位相差画像の撮影に必要な時間だけで済むことから、細胞が透過光によっても悪 影響を受ける場合でも、この悪影響を最小限に抑えることができる。
[0051] その後、使用者が PC109を操作して本観察の開始を指示すると、 CPUは、本観察 対象表示領域 5h内に表示された情報とともに本観察の実行指示信号を制御装置 1 05へ出力する。例えば、使用者は、図 5に示すタイムラブス実行ボタン 5iをクリックす ることによって、本観察対象表示領域 5h内に表示されている選択済みの細胞に対す る本観察の開始を指示する。本観察時に観察した画像を取得する場合、選択された 細胞について、選択された領域内において小領域ごと撮影位置をずらし、撮影した 画像をタイリングしてもよい。
[0052] 制御装置 105は本観察の実行指示信号が入力されると、観察対象の細胞に対して 、例えばタイムラブス処理を実行して細胞の観察、すなわち本観察を行う。本観察の 結果は制御装置 105を介して PC109に出力され、観察データ (試験データ)が PC1 09内のハードディスクに記録され、同時にモニタ 110に表示される。
[0053] 図 7は、本実施の形態における制御装置 105の処理を示すフローチャートである。
図 7に示す処理は、使用者によって PC109が操作されて試験準備の開始が指示さ れ、 PC109から試験開始信号を受信すると起動するプログラムとして制御装置 105 によって実行される。
[0054] ステップ S10において、顕微鏡を位相差観察モードにセットし、 4倍などの広視野で 観察できる低倍率の対物レンズを使用して、対物レンズを移動させながら観察可能 領域内の全範囲の位相差画像を低倍率で撮影し、撮影した複数枚画像をつなぎ合 わせて上述したマクロ画像を生成する。その後、ステップ S20へ進み、生成したマク 口画像を PC109に出力して、ステップ S30へ進む。 [0055] ステップ S30では、 PC109から上述したレシピが入力されたか否かを判断する。レ シピが入力されたと判断した場合には、ステップ S40へ進む。ステップ S40では、レシ ピに格納されているナビゲーシヨン方法の情報に基づいて、 PC109で使用者によつ て選択されたナビゲーシヨン方法がタイリングモードであるかランダムモードであるか を判断する。ナビゲーシヨン方法がタイリングモードであると判断した場合には、ステ ップ S50へ進む。
[0056] ステップ S50では、レシピに格納されてレ、るナビゲーシヨン範囲情報と撮影条件に 関する情報を読み込んで、ステップ S51へ進む。ステップ S51では、ナビゲーシヨン 範囲情報に基づいてナビゲーシヨン範囲の開始点の座標値 (X, Y)を特定し、特定 したナビゲーシヨン範囲の開始点に対物レンズ 103を移動させる。
[0057] その後、ステップ S52へ進み、顕微鏡の位相差観察モードと蛍光観察モードとを切 替ながら、上述したように対物レンズ 103、カメラ 104、透過光照明装置 106、および シャッター 107を制御してナビゲーシヨンを実行し、小領域ごとに位相差画像および 蛍光画像を撮影する。このとき、撮影条件として複数の蛍光フィルタの種類が指定さ れている場合には、複数の蛍光フィルタを切り替えて、そのフィルタの種類ごとに蛍 光画像を撮影する。その後、ステップ S53へ進む。
[0058] ステップ S53では、読み込んだナビゲーシヨン範囲の全範囲についてナビゲーショ ンの実行が完了したか否かを判断する。ナビゲーシヨンの実行が完了していないと判 断した場合には、ステップ S51へ戻って隣接する小領域を撮影するために対物レン ズ 103を移動させて処理を繰り返す。これに対してナビゲーシヨンの実行が完了した と判断した場合には、ステップ S54へ進む。
[0059] ステップ S54では、ナビゲーシヨンを実行して撮影した小領域ごとの位相差画像、 および少なくとも 1種類の蛍光フィルタで撮影した蛍光画像のそれぞれをタイリングし て、上述したマクロ位相差画像およびマクロ蛍光画像を作成する。その後、ステップ S 55へ進み、作成したマクロ位相差画像およびマクロ蛍光画像を PC109へ出力して、 後述するステップ S 70へ進む。
[0060] これに対して、 PC109で使用者によって選択されたナビゲーシヨン方法がランダム モードであると判断した場合には、ステップ S60へ進む。ステップ S60では、レシピに 格納されている撮影条件とナビゲーシヨン地点情報とを読み込んでステップ S61へ 進む。ステップ S61では、ナビゲーシヨン地点の座標値を特定し、特定したナビゲー シヨン地点の中のいずれかの地点に対物レンズ 103を移動させる。
[0061] その後、ステップ S62へ進み、上述したように対物レンズ 103、カメラ 104、透過光 照明装置 106、およびシャッター 107を制御してナビゲーシヨン地点を中心とした小 領域の位相差画像および蛍光画像を撮影する。このとき、撮影条件として複数の蛍 光フィルタの種類が指定されている場合には、複数の蛍光フィルタを切り替えて、そ のフィルタの種類ごとに蛍光画像を撮影する。その後、ステップ S63へ進む。
[0062] ステップ S63では、全てのナビゲーシヨン地点について位相差画像と蛍光画像の 撮影が完了したか否かを判断する。撮影が完了していないと判断した場合には、ステ ップ S61へ戻って画像の撮影を行っていないナビゲーシヨン地点に対物レンズ 103 を移動させて処理を繰り返す。これに対してナビゲーシヨンの実行が完了したと判断 した場合には、ステップ S64へ進む。ステップ S64では、各ナビゲーシヨン地点に対 応した小領域の地点位相差画像と蛍光フィルタごとの地点蛍光画像とを PC109へ 出力して、ステップ S70へ進む。
[0063] ステップ S70では、 PC109から本観察の実行指示信号を受信したか否力を判断す る。本観察の実行指示信号を受信したと判断した場合にはステップ S80へ進み、 PC 109上で使用者によって選択された観察対象の細胞に対してタイムラブス処理を実 行する。その後、ステップ S90へ進み、タイムラプス処理の結果を PC109へ出力して 、処理を終了する。
[0064] 図 8は、本実施の形態における PC109の処理を示すフローチャートである。図 8に 示す処理は、制御装置 105から上述したマクロ画像が入力されると起動するプロダラ ムとして PC109が有する CPUによって実行される。
[0065] ステップ S200において、入力されたマクロ画像を公知のテクスチャ解析等の画像 解析の手法を用いて解析して、マクロ画像内で細胞が生育している細胞生育領域を 認識してステップ S210へ進む。ステップ S210では、図 2で上述した生育領域確認 用画面をモニタ 110に表示し、細胞生育領域を明示したマクロ画像をマクロ画像表 示領域 2a内に表示する。その後、ステップ S220へ進む。 [0066] ステップ S220では、使用者によって移動ボタン 2bが操作され、ナビゲーシヨンの実 行対象とする細胞生育領域が選択されたか否力を判断する。細胞生育領域が選択 されたと判断した場合にはステップ S230へ進み、選択した細胞生育領域に対して実 行するナビゲーシヨンの方法としてタイリングモードとランダムモードのいずれかが選 択されたか否かを判断する。いずれかのナビゲーシヨン方法が選択されたと判断した 場合には、ステップ S240へ進む。
[0067] ステップ S240では、選択されたナビゲーシヨン方法に応じたナビゲーシヨン範囲情 報またはナビゲーシヨン地点情報、ナビゲーシヨン方法の情報、および撮影条件の情 報を格納したレシピを作成して、このレシピを制御装置 105へ出力する。その後、ス テツプ S250へ進む。
[0068] ステップ S250では、ナビゲーシヨン方法に応じた画像、すなわちタイリングモードの 場合にはマクロ位相差画像およびマクロ蛍光画像力 またランダムモードの場合には 地点位相差画像および地点蛍光画像が制御装置 105から入力されたか否かを判断 する。画像が入力されたと判断した場合には、ステップ S260へ進む。ステップ S260 では、図 5に示した観察対象選択用画面をモニタ 110に表示してステップ S 270へ進 む。
[0069] ステップ S270では、使用者によって観察対象選択用画面上で位相差画像表示ボ タン 5aが選択されることにより、マクロ位相差画像または地点位相差画像の表示が指 示されたか否かを判断する。マクロ位相差画像または地点位相差画像の表示が指示 されたと判断した場合には、ステップ S280へ進み、観察対象選択用画面上の画像 表示領域 5d内にナビゲーシヨン方法に応じてマクロ位相差画像または地点位相差 画像を表示する。その後、ステップ S290へ進む。
[0070] ステップ S290では、使用者によって観察対象選択用画面上で蛍光フィルタの種類 に応じた蛍光画像表示ボタンが選択されることにより、マクロ蛍光画像または地点蛍 光画像の表示が指示されたか否力、を判断する。マクロ蛍光画像または地点蛍光画像 の表示が指示されていないと判断した場合には、後述するステップ S310へ進む。こ れに対して、クロ蛍光画像または地点蛍光画像の表示が指示されたと判断した場合 には、ステップ S300へ進み、画像表示領域 5d内に表示されている位相差画像上に 指示された蛍光フィルタの蛍光画像を重ね合わせて表示する。その後、ステップ S31 0へ進む。
[0071] ステップ S310では、使用者によって観察対象の細胞が選択されたか否かを判断 する。観察対象の細胞が選択されていないと判断した場合には、ステップ S290へ戻 つて処理を繰り返す。これに対して観察対象の細胞が選択されたと判断した場合に は、ステップ S320へ進む。ステップ S320では、使用者によって本観察の実行が指 示されたか否かを判断する。本観察の実行が指示されたと判断した場合には、ステツ プ S330へ進み、本観察の実行指示信号を制御装置 105へ出力して処理を終了す る。
[0072] 以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)マクロ画像を公知のテクスチャ解析等の画像解析の手法を用いて解析して、マク 口画像内における細胞生育領域を認識し、マクロ画像上に認識した細胞生育領域を 明示してモニタ 110に表示するようにした。これによつて、使用者は、観察可能範囲 内でどの位置に細胞生育領域が存在するかを視覚的に確認することができる。また、 細胞生育領域を自動認識した後に、その領域を表示するので、細胞生育領域のみ を確実に把握することができる。
[0073] (2)マクロ画像に明示した細胞生育領域の中から少なくとも 1つを選択してナビゲー シヨンの実行対象とすることができ、使用者によって選択された細胞生育領域に対し てナビゲーシヨンを実行するようにした。これによつて、ナビゲーシヨンの実行対象を 細胞が生育している領域のみに限定することができ、処理の負荷を低減することがで きる。
[0074] (3)ナビゲーシヨン範囲内の小領域ごとに、画像を撮影するために必要な時間だけ 励起光を細胞に照射して蛍光画像を撮影し、撮影した小領域ごとの蛍光画像をタイ リングしたマクロ蛍光画像を使用者に提供するようにした。これによつて準備段階での 細胞の光退色や光毒性によるダメージを最小限に抑えることができる。また、使用者 は、励起光を照射し続けることによる細胞への悪影響を気にせずに、マクロ位相差画 像上で時間をかけて観察対象の細胞を選択することができる。
[0075] (4)ナビゲーシヨン範囲内の小領域ごとに、画像を撮影するために必要な時間だけ 透過光を細胞に照射して位相差画像を撮影し、撮影した小領域ごとの位相差画像を タイリングしたマクロ位相差画像を使用者に提供するようにした。これによつて、励起 光だけではなく透過光を照射することによつても悪影響を受ける可能性がある細胞を 観察する場合にも、透過光の照射による細胞への悪影響を最小限に抑えて位相差 画像を撮影することができる。すなわち、本観察の観察対象の特定を撮影画像上で 行うようにしたので、画像を取得 (撮影)するときのみ細胞に励起光や透過光が照射さ れるので、励起光や透過光の照射による細胞への悪影響を最小限にすることができ る。
[0076] (5)対物レンズ 103は、複数の蛍光フィルタを切り替えて蛍光観察を行えるようにし、 カメラ 104は、各蛍光フィルタごとに蛍光画像を撮影するようにした。これによつて、複 数の蛍光試薬で染色した多重染色の場合でも、蛍光色ごとの蛍光画像を撮影するこ とができる。
[0077] (6)ナビゲーシヨン方法としてタイリングモードが選択された場合には、ナビゲーショ ンを実行して小領域ごとに撮影したナビゲーシヨン範囲内の位相差画像および蛍光 画像をそれぞれタイリングしてナビゲーシヨン範囲内を撮影した 1枚のマクロ画像を生 成し、このタイリング画像をモニタ 110に表示するようにした。これによつて、使用者は ナビゲーシヨン範囲全体力 観察対象の細胞を選択することができる。
[0078] (7)ナビゲーシヨン方法としてランダムモードが選択された場合には、ナビゲーシヨン 地点をランダムに選択し、各ナビゲーシヨン地点における位相差画像および蛍光画 像をモニタ 110に表示するようにした。これによつて、使用者はその都度ナビゲーショ ン地点を指定しなくても自動的に選択されたナビゲーシヨン地点を中心とした小領域 ごとの位相差画像および蛍光画像を得ることができ。使用者の利便性が向上する。
[0079] (8)使用者は、モニタ 110に表示された観察対象選択用画面上の画像表示領域 5d 内に位相差画像と、蛍光フィルタごとの蛍光画像を重ね合わせて表示して細胞を選 択できるようにした。これによつて、使用者は細胞の形状とともに蛍光試薬による蛍光 状態を確認しながら、観察対象とする細胞の選択を行うことができる。
[0080] 一変形例一
なお、上述した実施の形態の細胞観察装置は、以下のように変形することもできる。 ( 1 )上述した実施の形態では、モニタ 110に表示された観察対象選択用画面上の画 像表示領域 5d内に位相差画像の上に複数の蛍光画像の少なくとも 1つを重ね合わ せて表示して細胞を選択できるようにした。し力 これに限定されず、複数の蛍光画 像のうち 2枚以上を重ね合わせるようにしてもよい。また、画像表示領域 5d内に表示 したマクロ画像を拡大できるようにしてもよい。これによつて、使用者はマクロ画像をさ らに拡大して観察対象の細胞を容易に選択できるようになる。
[0081] (2)上述した実施の形態では、ナビゲーシヨン範囲に対してナビゲーシヨン処理を実 行して得た小領域ごとの位相差画像と蛍光画像とをそれぞれ合成してマクロ位相差 画像とマクロ蛍光画像を生成する例について説明した。し力 ながら、位相差画像ま たは蛍光画像のいずれか一方のみを撮影するようにしてもよい。この場合、使用者は 観察対象選択用画面上でマクロ位相差画像またはマクロ蛍光画像のいずれか一方 のみを確認しながら本観察対象の細胞を選択すればよい。
[0082] (3)上述した実施の形態では、使用者は図 2に示す生育領域確認用画面上で観察 対象の細胞を選択する例について説明した力 生育領域確認用画面のレイアウトは 図 2に示すものに限られない。
[0083] (4)上述した実施の形態では、使用者は図 5に示す観察対象選択用画面上で観察 対象の細胞を選択する例について説明したが、観察対象選択用画面のレイアウトも 図 5に示すものに限られない。
[0084] (5)上述した実施の形態では、制御装置 105が図 7に示した処理を実行し、 PC109 が図 8に示した処理を実行する例について説明した。し力 ながら、制御装置 105ま たは PC109のいずれか一方が図 7および図 8の処理を全て行うようにしてもよい。
[0085] (6)上述した実施の形態では、本観察として観察対象の細胞に対してタイムラプス処 理を実行する例について説明したが、本発明は、その他の観察方法による観察や試 験を行う場合の前準備として対象の細胞を選択する場合にも適用可能である。
[0086] (7)上述した実施の形態では、細胞を観察対象とする場合について説明したが、本 発明は、光を照射することによって観察することができ、かつ光を照射することによつ て悪影響が生じる可能性があるその他の観察対象、例えば鉱物などにも適用可能で ある。 [0087] (8)上述した実施の形態では、広視野で観察できる 4倍の低倍率の対物レンズを使 用してマクロ画像を取得する例について説明した。しかし、マクロ画像を取得する際 の倍率としては、約 1倍〜約 200倍であってもよい。ただし、好ましくは、約 2倍〜約 1 00倍、最も好ましくは、約 2倍〜約 50倍である。マクロ画像取得の目的の 1つとして、 取得したマクロ画像から、より詳細に観察する領域を探すための mapの機能を備える 目的がある。従って、あまり高倍率、例えば 500倍で画像を取得すると、観察試料全 体の領域の内の狭い領域しか画像を得ることができなくなり、つまり小範囲の mapし か作成できなくなり、その後の詳細な観察領域を探す領域が狭くなつてしまう。また、 観察する試料によっては、 1倍でマクロ画像を取得してもよい。さらには、例えば観察 試料がシャーレに入っているような場合、表示装置にシャーレ全体が表示されるよう に画像取得をしてもよい。この場合の倍率としては、 1倍よりも低倍率、例えば 0. 5倍 での画像取得をしてもょレ、。
[0088] (9)なお、上記のような倍率でマクロ画像を取得する場合、観察対象領域の細胞を撮 影する際の倍率は、マクロ画像を形成する際の倍率よりも高倍率であることが好まし レ、。この観察対象領域の細胞を撮影する際の倍率は、観察する試料の形態や種類、 観察目的などにより異なるものである。従って、例えば 2倍のマクロ画像を取得する場 合は、観察対象領域の細胞の画像を取得する際の倍率を 3倍としてもよい。また、マ クロ画像を形成する倍率と観察対象領域の細胞の画像を取得する際の倍率は等倍 率でもよい。例えば、 200倍でマクロ画像を取得した場合、ユーザの判断で、観察対 象領域の細胞の画像を取得する際の倍率として満足のレ、く倍率であれば、 200倍で 観察対象領域の細胞の画像を取得してもよレ、。
[0089] (10)上述した実施の形態では、 4倍などの広視野で観察できる低倍率の対物レンズ を使用して、対物レンズを移動させながら観察可能領域内の全領域の位相差画像を 撮影し、撮影した複数枚の画像をタイリングして 1枚のマクロ画像を生成する例につ いて説明した。し力、しこれに限定されず、微分干渉コントラスト法などの蛍光以外の他 のコントラスト生成方法により観察可能領域内の全領域を撮影した画像をタイリングし てマクロ画像を生成するようにしてもょレ、。
[0090] (11)上述した実施の形態では、ナビゲーシヨン方法としてランダムモードが選択され た場合には、使用者に対してナビゲーシヨン地点として設定する地点数の入力を促 し、これに応じて使用者が入力した数の地点をナビゲーシヨン地点としてランダムに 選択するようにした。しかし、ナビゲーシヨン地点数は使用者があらかじめ設定した固 定値を使用してもよぐあるいはあらかじめ設定した初期値を表示して使用者が任意 に変更できるようにしてもょレ、。
[0091] (12)上述した実施の形態では、マクロ画像やマクロ位相差画像の生成において、位 相差観察による画像の生成を行う例を示した。しかし、位相差観察に限らず、明視野 観察または微分干渉観察または偏光観察または喑視野観察等のいずれかによる観 察画像であってもよい。このような場合であっても、励起用光源装置 108から出力さ れる励起光はシャッター 107により遮断され、それぞれの観察用の照明光を照射して 観察を行う。
[0092] (13)上述した実施の形態の制御装置 105はパーソナルコンピュータなどのコンビュ ータに置き換えることができる。このように制御装置 105をコンピュータで置き換えた 場合、上述した制御装置 105の処理プログラムは、 CD— ROMなどの記録媒体ゃィ ンターネットなどのデータ信号を通じて提供することができる。また、上述した PC109 の処理プログラムも同様に CD— ROMなどの記録媒体やインターネットなどのデータ 信号を通じて提供することができる。図 9は PC109を例にプログラムの提供の様子を 示す図である。 PC109は、 CD— ROM204を介してプログラムの提供を受ける。また 、 PC109は通信回線 201との接続機能を有する。コンピュータ 202は上記プログラム を提供するサーバーコンピュータであり、ハードディスク 203などの記録媒体にプログ ラムを格納する。通信回線 201は、インターネットなどの通信回線、あるいは専用通 信回線などである。コンピュータ 202はハードディスク 203を使用してプログラムを読 み出し、通信回線 201を介してプログラムを PC109に送信する。すなわち、プロダラ ムをデータ信号として搬送波にのせて、通信回線 401を介して送信する。このように、 プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能な コンピュータプログラム製品として供給できる。
[0093] なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態 における構成に何ら限定されない。 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。 日本国特許出願 2006年第 159271号(2006年 6月 8日出願)

Claims

請求の範囲
[1] 観察装置であって、
細胞培養容器内を低倍率で撮像したマクロ画像に基づレ、て、細胞が存在してレ、る 領域を観察対象領域とし、この観察対象領域の細胞を撮影する撮影部と、
前記撮影部による撮影時のみ、前記細胞に光を照射する照明部と、
撮影時のみ前記照明部により照明され前記撮影部により撮影した蛍光画像を出力 する出力部とを備える観察装置。
[2] 請求項 1の観察装置において、
取得された前記マクロ画像内で細胞が存在している少なくとも 1つの領域を認識す る認識部を有する観察装置。
[3] 請求項 1の観察装置において、
前記マクロ画像は、前記培養装置内の小領域ごとの撮影を繰り返し、隣接する前記 小領域の画像をつなぎ合わせたタイリング画像である観察装置。
[4] 請求項 1の観察装置において、
前記撮影部により観察対象領域の細胞を撮像する際の倍率は、前記マクロ画像を 形成する際の倍率よりも高倍率である観察装置。
[5] 請求項 1の観察装置において、
前記照明部は、撮影する前記細胞のみに照明する観察装置。
[6] 請求項 1の観察装置において、
前記撮影部で撮影された画像を記憶する記憶部をさらに有する観察装置。
[7] 請求項 2の観察装置において、
前記認識部は、認識した細胞の存在する領域をマクロ画像上でマークする観察装 置。
[8] 請求項 1の観察装置において、
前記撮影部は、前記観察対象領域を分割した小領域ごとの画像を撮像し、 前記出力部は、撮像された前記小領域の画像をつなぎ合わせて前記観察対象領 域全体の結合画像を生成し、生成した結合画像を出力する観察装置。
[9] 請求項 1の観察装置において、 前記撮影部は、前記細胞が存在する複数の領域の中から少なくとも 1つの領域を 観察対象領域として設定し、設定した各観察対象領域内から少なくとも 1つの小領域 をランダムに選択し、選択した小領域ごとに撮影を行う観察装置。
[10] 請求項 1の観察装置において、
前記マクロ画像は、位相差観察または明視野観察または微分干渉観察または偏光 観察または喑視野観察にょリ観察された画像である観察装置。
[11] 請求項 2の観察装置にぉレ、て、
対物レンズと、
タイリングモード又はランダムモードを選択する選択部と、
前記タイリングモード又はランダムモードの何れかが選択されると前記認織部で認 識された細胞が存在する領域に対物レンズを対峠させる制御装置とを有する観察装 置。
[12] 請求項 11の観察装置において、
蛍光観察において標本に添加された蛍光試薬を励起する励起光を照射する励起 光源と、
前記励起光源からの光の標本への照射を遮断あるいは可能とするシャッターをさら に有し、
前記制御装置は、前記対物レンズが観察位置に対峠されるとき、前記励起光源か らの光の標本への照射を遮断するよう前記シャッターを制御する観察装置。
[13] 請求項 12の観察装置において、
前記制御装置は、前記シャッターで励起光を遮断した後に位相差観察または明視 野観察または微分干渉観察または偏光観察または喑視野観察により前記観察領域 のマクロ画像を取得させる観察装置。
[14] 請求項 13の観察装置において、
前記制御装置は、前記観察領域のマクロ画像を取得した後に前記シャッターを開 放し、前記励起光源からの励起光を標本に照射させ、前記観察領域の蛍光画像を 取得させる観察装置。
[15] 請求項 14の観察装置において、 前記取得された蛍光画像を記憶する記憶部をさらに有する観察装置。
[16] 請求項 15の観察装置において、
前記制御装置は、前記記憶部に記憶された前記観察領域の蛍光画像と前記観察 領域のマクロ画像を重ね合わせる観察装置。
[17] 請求項 1の観察装置において、
標本の設置が可能なチャンバ一と、
前記チャンバ一内の湿度を調整する湿度調整機と、
前記チャンバ一内の温度を調整する温度調整機とをさらに備える観察装置。
[18] 請求項 17の観察装置において、
前記湿度調整機及び前記温度調整機で前記チャンバ一内が調整された環境で設 置されている標本に対して、前記マクロ画像の取得、及び前記照明部による標本の 照明および前記撮影部による蛍光画像の取得を行う観察装置。
[19] 請求項 7の観察装置において、
前記マクロ画像を表示する表示装置をさらに備え、
前記マークは、前記表示装置に表示されたマクロ画像に対して行われる観察装置
[20] 顕微鏡による本観察のための観察対象を特定する観察方法であって、
細胞が生育している観察対象領域を、撮影時のみ光を照射して撮影装置により撮 影し、
前記撮影装置により撮影した前記観察対象領域の画像を表示装置に表示し、 前記表示装置に表示された前記観察対象領域の画像上で前記観察対象領域内 における前記顕微鏡による本観察のための観察対象を特定する観察方法。
PCT/JP2007/061665 2006-06-08 2007-06-08 観察装置および観察方法 WO2007142339A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008520641A JP5157901B2 (ja) 2006-06-08 2007-06-08 観察装置
EP07767085.9A EP2034349B2 (en) 2006-06-08 2007-06-08 Observing apparatus and observing method
US12/329,756 US8022373B2 (en) 2006-06-08 2008-12-08 Observing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006159271 2006-06-08
JP2006-159271 2006-06-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/329,756 Continuation US8022373B2 (en) 2006-06-08 2008-12-08 Observing apparatus

Publications (1)

Publication Number Publication Date
WO2007142339A1 true WO2007142339A1 (ja) 2007-12-13

Family

ID=38801583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/061665 WO2007142339A1 (ja) 2006-06-08 2007-06-08 観察装置および観察方法

Country Status (4)

Country Link
US (1) US8022373B2 (ja)
EP (1) EP2034349B2 (ja)
JP (1) JP5157901B2 (ja)
WO (1) WO2007142339A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095225A (ja) * 2009-11-02 2011-05-12 Olympus Corp 画像処理装置、画像処理方法および顕微鏡システム
JP2012002949A (ja) * 2010-06-15 2012-01-05 Nikon Corp 観察装置
JP2012019748A (ja) * 2010-07-15 2012-02-02 Olympus Corp 細胞観察装置および観察方法
US8773520B2 (en) 2010-01-07 2014-07-08 Panasonic Healthcare Co., Ltd. Control device, control program, and control method for observation unit, and observation system
JP2015165785A (ja) * 2014-03-04 2015-09-24 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム
CN105779286A (zh) * 2016-04-26 2016-07-20 江苏三联安全评价咨询有限公司 一种多功能培养箱
JP2018523153A (ja) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション 構造化照明イメージを生成するためのシステムおよび方法
JP2018157830A (ja) * 2018-06-25 2018-10-11 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973162B2 (ja) * 2006-12-01 2012-07-11 株式会社ニコン 画像処理装置、画像処理プログラム及び観察システム
JP5660273B2 (ja) * 2010-01-04 2015-01-28 日本電気株式会社 画像診断方法、画像診断装置および画像診断プログラム
WO2012177821A1 (en) * 2011-06-21 2012-12-27 Afl Telecommunications Llc Method for pre and post image association in fiber optic inspection
JP5732353B2 (ja) * 2011-08-31 2015-06-10 株式会社キーエンス 拡大観察装置、拡大観察方法および拡大観察プログラム
JP2013114042A (ja) * 2011-11-29 2013-06-10 Sony Corp 画像取得装置、画像取得方法及び画像取得プログラム
JP5436706B2 (ja) * 2012-03-12 2014-03-05 キヤノン株式会社 計測装置
JP6257172B2 (ja) * 2012-05-25 2018-01-10 オリンパス株式会社 顕微鏡装置
EP2861057B1 (en) 2012-06-18 2019-07-24 GreenOnyx Ltd. A compact apparatus for continuous production of a product substance from a starter material grown in aquaculture conditions
JP6146265B2 (ja) * 2013-11-07 2017-06-14 ソニー株式会社 顕微鏡システムおよびオートフォーカス方法
US10039244B2 (en) 2014-03-04 2018-08-07 Greenonyx Ltd Systems and methods for cultivating and distributing aquatic organisms
LU100777B1 (de) * 2018-04-23 2019-10-23 Cytena Gmbh Verfahren zum Untersuchen einer Flüssigkeit, die wenigstens eine Zelle und/oder wenigstens ein Partikel enthält

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292422A (ja) * 1999-04-02 2000-10-20 Olympus Optical Co Ltd 走査型サイトメータ
JP2003185936A (ja) * 2001-12-17 2003-07-03 Nikon Corp 顕微鏡システム
JP2005117640A (ja) * 2003-09-16 2005-04-28 Sysmex Corp 標本画像の表示方法およびそれを用いた検索方法、サーベイランス方法、標本画像の表示システム、標本画像表示用プログラムおよびそのプログラムを記録した記録媒体
JP2006039171A (ja) * 2004-07-27 2006-02-09 Nikon Corp 環境制御装置および環境制御型分析装置
JP2006159271A (ja) 2004-12-10 2006-06-22 Shin Kurushima Dockyard Co Ltd 板曲げプレスにおける板材の配置方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326316A (ja) * 1991-04-26 1992-11-16 Olympus Optical Co Ltd 顕微鏡用写真撮影装置
US5790710A (en) * 1991-07-12 1998-08-04 Jeffrey H. Price Autofocus system for scanning microscopy
DE69824174T2 (de) 1997-02-27 2005-07-14 Cellomics, Inc. Ein system zur zellbasierten reihenuntersuchung
US6169816B1 (en) 1997-05-14 2001-01-02 Applied Imaging, Inc. Identification of objects of interest using multiple illumination schemes and finding overlap of features in corresponding multiple images
US6259807B1 (en) 1997-05-14 2001-07-10 Applied Imaging Corp. Identification of objects of interest using multiple illumination schemes and finding overlap of features in corresponding multiple images
JPH1130753A (ja) * 1997-07-10 1999-02-02 Olympus Optical Co Ltd 光学顕微鏡
JP2002031758A (ja) * 2000-07-17 2002-01-31 Olympus Optical Co Ltd 顕微鏡
US7139415B2 (en) * 2001-12-05 2006-11-21 The Regents Of The University Of California Robotic microscopy systems
US20030210262A1 (en) * 2002-05-10 2003-11-13 Tripath Imaging, Inc. Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide
US7272252B2 (en) 2002-06-12 2007-09-18 Clarient, Inc. Automated system for combining bright field and fluorescent microscopy
JP2004101871A (ja) * 2002-09-10 2004-04-02 Olympus Corp 顕微鏡画像撮影装置
JP4480976B2 (ja) * 2003-01-28 2010-06-16 オリンパス株式会社 走査型光学顕微鏡装置及びその制御方法並びにプログラム
US20050058330A1 (en) 2003-09-16 2005-03-17 Sysmex Corporation Method of displaying smear image and retrieving method employing the same, surveillance method, system of displaying smear image, program for displaying smear image and recording medium recording the program
JP2005098808A (ja) * 2003-09-24 2005-04-14 Aisin Seiki Co Ltd 生体情報検出装置
JP2005316036A (ja) * 2004-04-28 2005-11-10 Olympus Corp 撮像装置、照明光制御方法および照明光制御プログラム
US20060050376A1 (en) 2004-09-02 2006-03-09 Houston Edward S Robotic microscopy apparatus for high throughput observation of multicellular organisms
US20070031043A1 (en) * 2005-08-02 2007-02-08 Perz Cynthia B System for and method of intelligently directed segmentation analysis for automated microscope systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292422A (ja) * 1999-04-02 2000-10-20 Olympus Optical Co Ltd 走査型サイトメータ
JP2003185936A (ja) * 2001-12-17 2003-07-03 Nikon Corp 顕微鏡システム
JP2005117640A (ja) * 2003-09-16 2005-04-28 Sysmex Corp 標本画像の表示方法およびそれを用いた検索方法、サーベイランス方法、標本画像の表示システム、標本画像表示用プログラムおよびそのプログラムを記録した記録媒体
JP2006039171A (ja) * 2004-07-27 2006-02-09 Nikon Corp 環境制御装置および環境制御型分析装置
JP2006159271A (ja) 2004-12-10 2006-06-22 Shin Kurushima Dockyard Co Ltd 板曲げプレスにおける板材の配置方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Understanding Bio-Imaging", September 2005, YODOSHA, pages: 22 - 24
See also references of EP2034349A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095225A (ja) * 2009-11-02 2011-05-12 Olympus Corp 画像処理装置、画像処理方法および顕微鏡システム
US8773520B2 (en) 2010-01-07 2014-07-08 Panasonic Healthcare Co., Ltd. Control device, control program, and control method for observation unit, and observation system
JP2012002949A (ja) * 2010-06-15 2012-01-05 Nikon Corp 観察装置
JP2012019748A (ja) * 2010-07-15 2012-02-02 Olympus Corp 細胞観察装置および観察方法
US8957957B2 (en) 2010-07-15 2015-02-17 Olympus Corporation Cell observation apparatus and observation method
JP2015165785A (ja) * 2014-03-04 2015-09-24 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム
US10416433B2 (en) 2014-03-04 2019-09-17 Fujifilm Corporation Cell image acquisition device, method, and program
JP2018523153A (ja) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション 構造化照明イメージを生成するためのシステムおよび方法
CN105779286A (zh) * 2016-04-26 2016-07-20 江苏三联安全评价咨询有限公司 一种多功能培养箱
JP2018157830A (ja) * 2018-06-25 2018-10-11 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム

Also Published As

Publication number Publication date
JP5157901B2 (ja) 2013-03-06
EP2034349A1 (en) 2009-03-11
US20090159814A1 (en) 2009-06-25
EP2034349B1 (en) 2017-10-25
US8022373B2 (en) 2011-09-20
JPWO2007142339A1 (ja) 2009-10-29
EP2034349B2 (en) 2023-07-19
EP2034349A4 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
JP5157901B2 (ja) 観察装置
US8947518B2 (en) Cell observing apparatus and cell incubation method
EP1967885A1 (en) Apparatus for measuring luminescence dose and method of measuring luminescence
JP2008139488A (ja) 顕微鏡装置
EP1764640A2 (en) Microscope for multipoint time-lapse imaging
US20070064101A1 (en) Observation apparatus
JP2008139796A (ja) 蛍光顕微鏡、蛍光顕微鏡の操作方法、蛍光顕微鏡操作プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2008139487A (ja) 顕微鏡装置
JP2007102190A (ja) 観察装置および観察方法
JP2007328134A (ja) 観察装置、および観察プログラム
JP2009036969A (ja) カバーガラス、スライドガラス、プレパラート、観察方法、及び顕微鏡装置
JP2007316259A (ja) 顕微鏡システム、顕微鏡画像の記録方法、及びプログラム
JP2015082098A (ja) 顕微鏡を制御する制御装置、容器ホルダー、顕微鏡システム、制御方法およびプログラム
JP6479041B2 (ja) 観察システム、光学部品、及び観察方法
US8411357B2 (en) Motor-operated microscope system and software for controlling motor-operated microscopes
JP2007017930A (ja) 顕微鏡装置
JP5466976B2 (ja) 顕微鏡システム、観察画像の表示方法、プログラム
JP2008139794A (ja) 蛍光顕微鏡、蛍光顕微鏡の操作方法、蛍光顕微鏡操作プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US8284246B2 (en) Microscope system, control method used for microscope system, and recording medium for reproducing a microscope state based on microscope operation history and a microscope operation item
JP5034328B2 (ja) 観察装置、および観察プログラム
JP2015082099A (ja) 顕微鏡を制御する制御装置、顕微鏡システム、制御方法およびプログラム
JP2010078983A (ja) 顕微鏡システム、該プログラム、及び該方法
US11573171B2 (en) Observation system for acquiring images of culture medium in at least three colors
JP2006220818A (ja) 共焦点顕微鏡
JP6246551B2 (ja) 制御装置、顕微鏡システム、制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07767085

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008520641

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2007767085

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007767085

Country of ref document: EP