WO2021166089A1 - 評価支援装置、評価支援システム、評価支援方法およびプログラム - Google Patents

評価支援装置、評価支援システム、評価支援方法およびプログラム Download PDF

Info

Publication number
WO2021166089A1
WO2021166089A1 PCT/JP2020/006372 JP2020006372W WO2021166089A1 WO 2021166089 A1 WO2021166089 A1 WO 2021166089A1 JP 2020006372 W JP2020006372 W JP 2020006372W WO 2021166089 A1 WO2021166089 A1 WO 2021166089A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
cell mass
unit
evaluation support
Prior art date
Application number
PCT/JP2020/006372
Other languages
English (en)
French (fr)
Inventor
新 篠崎
順一 田代
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2020/006372 priority Critical patent/WO2021166089A1/ja
Publication of WO2021166089A1 publication Critical patent/WO2021166089A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters

Definitions

  • a candidate for a cell region considered to be highly malignant is selected from a biopsy sample in Rapid On-site Evaluation (ROSE), and the candidate for this selected cell region is selected by a pathologist.
  • ROSE Rapid On-site Evaluation
  • It relates to an evaluation support device, an evaluation support system, an evaluation support method, and a program that support cell evaluation by presenting them to.
  • Patent Document 1 there is known a technique for evaluating individual cells in a cell image obtained by imaging a cell group in a cell evaluation device (see Patent Document 1).
  • individual cells in the cell group of the cell image are recognized, and among the recognized individual cells, the cell to be evaluated and the cell around the cell to be evaluated are identified, and then the surrounding cells are identified. Based on the evaluation result and the evaluation result of the cell to be evaluated, the evaluation of the cell to be evaluated is confirmed.
  • Patent Document 1 the evaluation results of the cells to be evaluated are only automatically performed and displayed.
  • an observer such as a pathologist observes and evaluates a cell image showing stained cells
  • the marginal region of the cell mass, a small cell mass, or a solitary cell is observed while observing the cell image to be diagnosed.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to provide an evaluation support device, an evaluation support system, an evaluation support method, and a program capable of facilitating observation of cell evaluation by an observer. ..
  • the evaluation support device is generated by imaging a cell sample placed on a movable stage by an imaging unit having a predetermined angle of view.
  • a detection unit that detects at least one of a plurality of cell mass regions in which a cell mass composed of a plurality of cells is captured and a background region in which the cell mass is not captured, and the above-mentioned
  • the imaging unit is imaged at an imaging magnification higher than the imaging magnification of the first image, the imaging unit and the stage so that the cell mass and the background region are contained in the imaging region corresponding to the high imaging magnification.
  • an imaging control unit that aligns the imaging unit with respect to the cell mass by controlling at least one of the above.
  • the imaging control unit has a ratio of the value of the area of at least one cell mass region in the imaging region to the value of the area of the background region. Is positioned within the preset range of the imaging unit with respect to the cell mass.
  • the imaging control unit has a value of the total length of the contour line of the cell mass region having the largest area among the plurality of the cell mass regions and the plurality of the cell masses.
  • the imaging unit is aligned with the cell mass so that at least one of the total lengths of the contour lines of each region is within a preset range.
  • the imaging control unit has the number of the cell mass regions having an area equal to or less than a preset threshold value among the plurality of the cell mass regions.
  • the imaging unit is aligned with respect to the cell mass so as to have the largest number of cells.
  • the evaluation support device is a feature amount of the cell mass region reflected in the second image based on the second image data generated by the imaging unit imaging at the high imaging magnification.
  • a display control unit that displays the second image on the display unit and controls the display mode of the second image on the display unit based on the feature amount. Be prepared.
  • the evaluation support device detects the cell mass region for at least one of the cell masses shown in the second image, and the calculation unit detects the cell mass region.
  • the feature amount is calculated based on the information on the color distribution by staining in the cell mass region.
  • the photographing magnification of the first image is the magnification of the first objective lens having a predetermined magnification provided in the imaging unit
  • the first The photographing magnification higher than the imaging magnification of the image is the magnification of the second objective lens having a magnification higher than the predetermined magnification provided in the imaging unit.
  • the evaluation support system includes the above evaluation support device, the stage, and the imaging unit.
  • the evaluation support method is an evaluation support method executed by an evaluation support device, in which a cell sample placed on a movable stage is imaged by an imaging unit having a predetermined angle of view.
  • a cell sample placed on a movable stage is imaged by an imaging unit having a predetermined angle of view.
  • the first image With respect to the first image based on the generated first image data, at least one of a plurality of cell mass regions in which a cell mass composed of a plurality of cells is shown and a background region in which the cell mass is not shown is detected, and the first image is detected.
  • At least of the imaging unit and the stage so that the cell mass and the background region are contained in the imaging region corresponding to the high imaging magnification when the imaging unit is imaged at an imaging magnification higher than the imaging magnification of the image. By controlling one of them, the imaging unit is aligned with the cell mass.
  • the program according to the present disclosure is a program to be executed by an evaluation support device, and is a first generated by an imaging unit having a predetermined angle of view capturing a cell sample placed on a movable stage.
  • the first image based on the image data of the above, at least one of a plurality of cell mass regions in which a cell mass composed of a plurality of cells is shown and a background region in which the cell mass is not shown is detected, and the first image is captured.
  • the imaging unit is imaged at an imaging magnification higher than the magnification, at least one of the imaging unit and the stage is controlled so that the cell mass and the background region are contained in the imaging region corresponding to the high imaging magnification. This causes the imaging unit to be aligned with the cell mass.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an evaluation support system according to the first embodiment.
  • FIG. 2 is a block diagram showing a functional configuration of the evaluation support system according to the first embodiment.
  • FIG. 3 is a flowchart showing an outline of the processing executed by the evaluation support system according to the first embodiment.
  • FIG. 4 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system according to the first embodiment.
  • FIG. 5 is a diagram showing an example of cell screening.
  • FIG. 6 is a flowchart showing an outline of the processing executed by the evaluation support system according to the first modification of the first embodiment.
  • FIG. 7 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system according to the second embodiment.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an evaluation support system according to the first embodiment.
  • FIG. 2 is a block diagram showing a functional configuration of the evaluation support system according to the first embodiment.
  • FIG. 3 is a flowchar
  • FIG. 8 is a diagram showing an example of a cell screening image.
  • FIG. 9 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system according to the third embodiment.
  • FIG. 10 is a diagram showing an example of a cell screening image.
  • FIG. 11 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system according to the fourth embodiment.
  • FIG. 12 is a diagram showing an example of a cell screening image.
  • FIG. 13 is a chart showing the coordinate position, contour length and area of the cell mass of FIG.
  • FIG. 14 is a diagram showing an example of an imaging range determination method (field of view candidate A) by the detection unit.
  • FIG. 15 is a diagram showing an example of an imaging range determination method (field of view candidate B) by the detection unit.
  • FIG. 16 is a diagram showing an example of an imaging range determination method (field of view candidate C) by the detection unit.
  • FIG. 17 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system according to the first modification of the fourth embodiment.
  • FIG. 18 is a diagram showing an example of a cell screening image.
  • FIG. 19 is a diagram showing an example of an imaging range determination method (field of view candidate A) by the detection unit.
  • FIG. 20 is a diagram showing an example of an imaging range determination method (field of view candidate B) by the detection unit.
  • FIG. 21 is a diagram showing an example of an imaging range determination method (field of view candidate C) by the detection unit.
  • FIG. 22 is a block diagram showing a functional configuration of the evaluation support system according to the fifth embodiment.
  • FIG. 22 is a block diagram showing a functional configuration of the evaluation support system according to the fifth embodiment.
  • FIG. 23 is a flowchart showing an outline of the processing executed by the evaluation support system.
  • FIG. 24 is a diagram showing an example of a screen displayed by the display unit.
  • FIG. 25 is a diagram schematically explaining a method of calculating a feature amount by the calculation unit.
  • FIG. 26 is a diagram illustrating the relationship between the pixels A and the pixels B in the method of calculating the feature amount by the calculation unit.
  • FIG. 27 is a flowchart showing an outline of the processing executed by the evaluation support system according to the sixth embodiment.
  • FIG. 28 is a diagram schematically showing an operation during processing executed by the evaluation support system.
  • FIG. 29 is a flowchart showing an outline of the processing executed by the evaluation support system according to the first modification of the sixth embodiment.
  • a mode for carrying out the present disclosure
  • a candidate for a cell region considered to be highly malignant is selected for a biopsy sample in rapid intraoperative cell evaluation, and the candidate for the selected cell region is presented to an observer such as a pathologist.
  • a system that supports cell evaluation by doing so will be described.
  • the present disclosure is not limited by the following embodiments. Further, in the description of the drawings, the same parts will be described with the same reference numerals.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an evaluation support system according to the first embodiment.
  • FIG. 2 is a block diagram showing a functional configuration of the evaluation support system according to the first embodiment.
  • the evaluation support system 100 shown in FIGS. 1 and 2 selects a candidate for a cell region that is considered to have a high degree of malignancy with respect to a biopsy sample in ROSE, and presents the candidate for the selected cell region to a pathologist or the like. It is a system that supports cell evaluation by doing so.
  • ROSE is a method of evaluating whether or not a sample to be diagnosed has been collected at a clinical laboratory.
  • a clinician or the like performs a collection (needle biopsy) to collect a tissue suspected to be cancer with a needle from a subject (patient) (collection step).
  • a pathologist and a cytotechnologist create slides based on the collected tissue and stain the collected tissue (staining step).
  • the user examines with a weak magnification (low-magnification objective lens) and selects a cell mass that seems to be "cancerous" from the whole image (screening process).
  • the evaluation support system 100 shown in FIGS. 1 and 2 is a system that supports image evaluation by the user in the above-mentioned evaluation process.
  • the evaluation support system 100 shown in FIGS. 1 and 2 holds a slide glass 1 containing an observable cell sample SP, and has a stage 2 that can move in the horizontal and vertical directions and a drive mechanism 3 that drives the stage 2.
  • a light source unit 4 that irradiates the cell sample SP on the stage 2 with illumination light, an imaging unit 5 that can image the cell sample SP on the stage 2, and an image based on the image data captured by the imaging unit 5 can be displayed.
  • each of the stage 2, the light source unit 4, the imaging unit 5, the display unit 6, the input unit 7, and the evaluation support device 8 are connected by wire so as to be able to communicate in both directions. It is not limited to, and may be connected so as to be able to communicate in both directions by wireless communication.
  • the cell sample SP is a human-derived sample obtained from a human by needle biopsy or the like, but may be an animal or the like. Further, the cell sample SP is subjected to staining such as rapid Papanicolaou stain and Diff-Quik stain after extracting a portion that is considered to be a cell-containing portion. Further, although the cell sample SP is fixed on the slide glass 1, it may be housed in, for example, a scenery.
  • Stage 2 has a mounting surface on which the cell sample SP is placed.
  • the stage 2 has an opening 21, and illumination light is emitted from the opening 21 through a light source unit 4 described later. Further, the stage 2 is provided so as to be movable in the horizontal direction (X direction and Y direction) and the vertical direction (Z direction) with reference to a predetermined position. Further, the stage 2 may be configured by using a transparent member such as plastic or glass. The configuration and material of the stage 2 can be changed as appropriate.
  • the drive mechanism 3 moves the stage 2 in the horizontal direction and the vertical direction under the control of the evaluation support device 8 described later.
  • the drive mechanism 3 includes a drive unit 31 and a position detection unit 32.
  • the drive unit 31 moves the stage 2 in the horizontal direction and the vertical direction under the control of the evaluation support device 8 described later.
  • the drive unit 31 is realized by using, for example, a stepping motor, a DC motor, a gear, or the like.
  • the position detection unit 32 detects the current position of the stage 2 in the horizontal direction and the vertical direction with reference to a predetermined position in the stage 2, and outputs the detection result to the evaluation support device 8.
  • the position detection unit 32 is realized by using, for example, an encoder or the like.
  • the light source unit 4 irradiates the cell sample SP placed on the stage 2 with illumination light under the control of the evaluation support device 8 described later.
  • the light source unit 4 irradiates, for example, white illumination light toward the cell sample SP.
  • the light source unit 4 is realized by using, for example, a white LED (Light Emitting Diode), a halogen lamp, or the like.
  • the light source unit 4 may be configured to be capable of irradiating, for example, infrared light, which is light in a predetermined wavelength band, other than white light.
  • a transmission illumination method for irradiating the light source unit 4 from directly below the stage 2 is used, but the present invention is not limited to this, and an epi-illumination method for irradiating the light source unit 4 from directly above the stage 2 may be used. good.
  • the imaging unit 5 generates image data by imaging the cell sample SP placed on the stage 2 at a predetermined magnification under the control of the evaluation support device 8 described later.
  • the image pickup unit 5 includes a high magnification objective lens group 51, a low magnification objective lens group 52, a switching unit 53, a magnification detection unit 54, and an image sensor 55.
  • the high-magnification objective lens group 51 has a plurality of high-magnification objective lenses 51a, 51b, 51c, and the high-magnification objective lenses 51a, 51b, 51c are detachably attached to a revolver or the like (not shown).
  • the magnifications of the high-magnification objective lenses 51a, 51b, and 51c are, for example, 20 times, 40 times, and 60 times, respectively. In the following, when any one of the high-magnification objective lenses 51a, 51b, and 51c is represented, it is simply expressed as the high-magnification objective lens 51z.
  • the low-magnification objective lens group 52 has a plurality of low-magnification objective lenses 52a, 52b, 52c, and the low-magnification objective lenses 52a, 52b, 52c are detachably attached to a revolver or the like (not shown).
  • the magnifications of the low-magnification objective lenses 52a, 52b, and 52c are 2 times, 4 times, and 10 times, respectively.
  • any one of the low-magnification objective lenses 52a, 52b, and 52c is represented, it is simply expressed as the low-magnification objective lens 52z.
  • any one of the high-magnification objective lenses 51a, 51b, 51c and the low-magnification objective lenses 52a, 52b, 52c is represented, it is simply referred to as an objective lens.
  • the switching unit 53 switches the objective lens arranged on the optical axis Q1 to either the high-magnification objective lens group 51 or the low-magnification objective lens group 52 under the control of the evaluation support device 8 described later. Specifically, the switching unit 53 drives either a high-magnification objective lens group 51 or a low-magnification objective lens group 52 on the optical axis Q1 by driving a revolver (not shown) under the control of the evaluation support device 8 described later. Place the objective lens.
  • the switching unit 53 is realized by using a stepping motor, a DC motor, or the like.
  • the magnification detection unit 54 detects the magnification of the objective lens arranged on the optical axis Q1 and outputs the detected detection result to the evaluation support device 8.
  • the magnification detection unit 54 is configured by using a reader or the like that reads information from an IC memory that records magnification information or the like attached to the encoder or the objective lens.
  • the image sensor 55 generates image data by capturing an image of the subject focused by the objective lens, and outputs this image data to the evaluation support device 8.
  • the image sensor 55 includes a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor and an AFE (Analog Front End) image processing chip that performs A / D conversion processing, noise reduction processing, gain-up processing, and the like. Is realized using.
  • the display unit 6 displays an image based on the image data input from the evaluation support device 8.
  • the display unit 6 is realized by using a display monitor such as a liquid crystal display or an organic EL (Electro Luminescence).
  • the input unit 7 receives the input according to the user's operation and outputs the content according to the received operation to the evaluation support device 8.
  • the input unit 7 is realized by using a keyboard, a mouse, a touch panel, or the like.
  • the evaluation support device 8 controls each part constituting the evaluation support system 100 and supports the evaluation of the cell sample SP.
  • the evaluation support device 8 has a recording unit 80 and a control unit 81.
  • the recording unit 80 records various programs executed by the evaluation support device 8 and data being processed.
  • the recording unit 80 includes a program recording unit 801 for recording various programs executed by the evaluation support device 8, and an image data recording unit 802 for recording image data generated by the imaging unit 5.
  • the control unit 81 controls each unit constituting the evaluation support system 100.
  • the control unit 81 is realized by using a memory and a processor having hardware such as a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), and an ASIC (Application Specific Integrated Circuit).
  • the control unit 81 includes an acquisition unit 811, an image pickup control unit 812, an image pickup control unit 812, a detection unit 813, and a display control unit 814.
  • the acquisition unit 811 acquires the image data generated by the image sensor 55 and the magnification information detected by the magnification detection unit 54.
  • the image pickup control unit 812 controls the drive of the image pickup unit 5 and the drive mechanism 3. Specifically, when the imaging control unit 812 causes the imaging unit 5 to image with an imaging magnification higher than the imaging magnification of the first image, the cell mass and the background region are formed in the imaging region corresponding to the high imaging magnification. By controlling at least one of the imaging unit 5 and the stage 2 so as to enter, the imaging unit 5 is aligned with the cell mass.
  • the detection unit 813 refers to a first image based on the first image data generated by imaging the cell sample SP placed on the movable stage 2 by the imaging unit 5 having a predetermined angle of view. , Detects at least one of a plurality of cell mass regions in which a cell mass composed of a plurality of cells appears and a background region in which the cell mass does not appear.
  • the display control unit 814 controls the display mode of the display unit 6.
  • the display control unit 814 displays an image based on the image data generated by the imaging unit 5 on the display unit 6, and displays various information about the evaluation support system 100 on the display unit 6.
  • FIG. 3 is a flowchart showing an outline of the processing executed by the evaluation support system 100.
  • the imaging control unit 812 arranges one of the low-magnification objective lens groups 52 on the optical axis Q1 by driving the switching unit 53 (step S101).
  • the image pickup control unit 812 arranges the low magnification objective lens 52b (4x) on the optical axis Q1 by driving the switching unit 53.
  • the imaging control unit 812 focuses on the cell sample SP by controlling each of the imaging unit 5 and the driving mechanism 3 (step S102). Specifically, first, the imaging control unit 812 acquires image data obtained by imaging the cell sample SP from the imaging unit 5 (process 1). Then, the image pickup control unit 812 calculates the contrast value of the image based on the image data acquired from the image pickup unit 5 (process 2).
  • the contrast value is, for example, a value calculated from the sum of the absolute values of the differences between the image sensor 55 and the adjacent pixels.
  • the image pickup control unit 812 drives the drive mechanism 3 to move the stage 2 in the Z-axis direction (optical axis Q1 direction) by a specified amount (process 3).
  • the imaging control unit 812 repeats processes 1 to 3 a plurality of times, determines the maximum value of the contrast value within the Z-axis direction possible range of the stage 2, and sets the maximum value as the focusing position with respect to the cell sample SP.
  • Move 2 contrast AF (Auto Focus) processing.
  • the cell sample SP is focused by the contrast AF process, but when the image sensor 55 is provided with the phase difference pixel, the cell sample SP is focused by the phase difference AF process. You may.
  • the imaging control unit 812 acquires the cell screening image data imaged at a low magnification from the imaging unit 5 (step S103), and transmits the screening image based on the cell screening data to the detection unit 813 (step S104).
  • Each of the image pickup control unit 812 and the detection unit 813 has the sensor size and the magnification of the objective lens used in the image sensor 55 of the image pickup unit 5 (actual magnification when the magnification is changed by a TV adapter or the like). It retains information and can calculate the size of the imaging range of a high-magnification image (cell mass image) on a cell screening image (low-magnification image). Further, each of the imaging control unit 812 or the detection unit 813 may hold information on the size of the imaging range set in advance without using the magnification information of the objective lens or the like.
  • the detection unit 813 identifies the cell mass region in which the cells are present from the cell screening image and identifies it as the background region in which the cells are not present (step S105). Specifically, when the cell sample SP is stained, the detection unit 813 distinguishes between a cell mass region and a background region from a cell screening image based on at least one of hue and saturation.
  • the detection unit 813 grayscales the cell screening image, binarizes the grayscale image, and then discriminates between the cell mass region and the background region using a predetermined threshold value.
  • the threshold value is a value of a region that is a clear background in the screening image or a value set in advance by the user.
  • the detection unit 813 has a relatively high contrast value as compared with the background region in which only the background is captured. Therefore, the detection unit 813 is a subject of the cell screening image based on the contrast value.
  • the cell mass region and the background region may be distinguished by estimating the ratio of (cell sample SP). The correlation between the cell mass region and the background region varies depending on the subject (cell sample SP).
  • the detection unit 813 may use a learning model in which the cell mass region and the background region are learned in advance by machine learning. In this case, the detection unit 813 may input a cell screening image regardless of the presence or absence of staining, and estimate the cell mass region and the background region as outputs. Machine learning can also be used to identify regions that are neither cells nor backgrounds.
  • the detection unit 813 executes an imaging range determination process for determining an imaging range in which both the cell mass region and the background region can be imaged at high magnification (step S106).
  • FIG. 4 is a flowchart showing an outline of the imaging range determination process.
  • FIG. 5 is a diagram showing an example of cell screening.
  • the large rectangular frame K1 shows the field area of the low-magnification objective lens 52b (4x)
  • the small rectangular frame K2 shows the field area of the high-magnification objective lens 51a (20x).
  • regions A, B, C, L, and S are cell clusters.
  • the detection unit 813 identifies the cell mass region on the cell screening image P1 and determines the bounding box of the cell mass region (step S201). Specifically, as shown in FIG. 5, the detection unit 813 determines the dotted line region around the cell mass A as the outer diameter rectangle W1 of the cell mass region.
  • the detection unit 813 acquires the relative imaging range (high-magnification visual field region K2 in FIG. 5) of the high-magnification image on the cell screening image P1 (step S202).
  • the detection unit 813 selects one or more circumscribed rectangles of the cell mass region within a certain area range with respect to the imaging range (step S203).
  • the detection unit 813 may exclude the region L of the cell mass whose circumscribing rectangle exceeds the imaging range.
  • the detection unit 813 may exclude the region S of the cell mass in which the region of the cell mass is too small to obtain sufficient information about the cells.
  • the detection unit 813 may exclude the region B of the cell mass in which the background region cannot secure a certain area or more.
  • the detection unit 813 determines an imaging range in which the center of gravity of the selected circumscribing rectangle W1 coincides with the center of gravity of the imaging range K2 of the high-magnification image (step S204). Specifically, the detection unit 813 determines the imaging range so that the center of gravity of the selected circumscribing rectangle W1 coincides with the optical axis Q1 of the high-magnification objective lens 51a described later. In this case, the detection unit 813 takes an image in which the center of gravity of the selected extrinsic rectangle W1 coincides with the optical axis Q1 of the high-magnification objective lens 51a based on the position information of the stage 2 input from the position detection unit 32 of the drive mechanism 3. Calculated as the coordinate information of the range. After step S204, the evaluation support system 100 returns to FIG. 3 and proceeds to step S107.
  • step S107 the detection unit 813 transmits the coordinate information of the imaging range to the imaging control unit 812.
  • the image pickup control unit 812 switches to a high magnification by arranging any one of the high magnification objective lens groups 51 on the optical axis Q1 by driving the switching unit 53 (step S108).
  • the image pickup control unit 812 arranges the high magnification objective lens 51a (20 times) on the optical axis Q1 by driving the switching unit 53.
  • the imaging control unit 812 drives the driving mechanism 3 based on the coordinate information of the imaging range received from the detection unit 813, and moves the stage 2 to the position of the cell sample SP (step S109). Specifically, the image pickup control unit 812 drives the drive unit 31 based on the coordinate information of the image pickup range received from the detection unit 813 and the position information of the stage 2 detected by the position detection unit 32, and the image pickup range. The stage 2 is moved to a position where the center position of the above and the optical axis Q1 coincide with each other.
  • the imaging control unit 812 generates high-magnification cell mass image data by controlling the imaging unit 5 to perform imaging (step S110).
  • step S111: Yes when it is determined by the imaging control unit 812 that all imaging has been completed (step S111: Yes), the evaluation support system 100 ends this process. On the other hand, when the imaging control unit 812 determines that all imaging has not been completed (step S111: No), the evaluation support system 100 returns to step S109 described above.
  • the imaging control unit 812 causes the imaging unit 5 to image at a higher magnification than the imaging magnification of the low-magnification screening image based on the detection result detected by the detection unit 813.
  • the alignment of the imaging unit 5 with respect to the cell mass is performed by controlling at least one of the imaging unit 5 and the stage 2 so that the cell mass and the background region are contained in the imaging region corresponding to the visual field region of the high-magnification objective lens 52a. Since the marginal region of the cell mass is reliably imaged, the cell mass structure and intranuclear structure can be observed by imaging the marginal region where the degree of cell stacking (overlapping degree) is low. It is possible to facilitate the observation of cell evaluation by.
  • the value of the area of at least one cell mass region in the imaging region and the value of the area of the background region are based on the detection result detected by the imaging control unit 812 by the detection unit 813.
  • the "cell mass margin region" at the boundary between the background region and the cell mass region and the periphery of the cell mass can be obtained. It is easy for observers to observe cell evaluations because it is easy to observe spilled "lonely cells” and it is possible to streamline cell evaluations for areas of interest when users manually perform cell evaluations. Can be.
  • FIG. 6 is a flowchart showing an outline of the processing executed by the evaluation support system 100 according to the first modification of the first embodiment.
  • the evaluation support system 100 executes steps S108A and S109A in place of steps S108 and S109 of FIG. 3 described above. Therefore, in the following, steps S108A and S109A will be described.
  • step S108A the image pickup control unit 812 drives the drive mechanism 3 based on the coordinate information of the image pickup range received from the detection unit 813, and moves the stage 2 to the position of the cell sample SP.
  • the imaging control unit 812 arranges any one of the high-magnification objective lens groups 51 on the optical axis Q1 by driving the switching unit 53 (step S109A).
  • the image pickup control unit 812 arranges the high-magnification objective lens 51a (20 times) on the optical axis Q1 by driving the switching unit 53.
  • the image pickup control unit 812 switches the low-magnification objective lens 53b and the high-magnification objective lens 51a so that the optical centers of both lenses coincide with each other by driving the switching unit 53.
  • the evaluation support system 100 shifts to step S110.
  • the marginal region of the cell mass is reliably imaged. Therefore, by imaging the marginal region having a low degree of cell stacking (overlapping degree), the cells are imaged. Since the mass structure and the nuclear structure can be observed, it is possible to facilitate the observation of the cell evaluation by the observer.
  • the evaluation support system according to the second embodiment has the same configuration as the evaluation support system 100 according to the first embodiment described above, and the imaging range determination process executed by the evaluation support system is different. Specifically, in the second embodiment, the cell mass that is not entirely visible in the low-magnification field of view is positioned and imaged.
  • the imaging range determination process executed by the evaluation support system according to the second embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 7 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system 100 according to the second embodiment.
  • FIG. 8 is a diagram showing an example of a cell screening image. As shown in FIG. 8, the center of gravity of the high-power field when the upper left apex of the low-power field K1 and the upper left apex of the relative high-power field K2'are overlapped is relative to the center of gravity P1 and the lower right apex of the low-power field. The center of gravity of the high-power field of view K2 ′′ when the lower right vertices of the high-power field of view are overlapped is expressed as the center of gravity P2.
  • the central region is a rectangular region R1 having the center of gravity P1 as the upper left apex and the center of gravity P2 as the lower right apex.
  • the region other than the central region is the peripheral region.
  • step S304 the detection unit 813 determines whether or not the center of gravity of the circumscribing rectangle of the cell mass region is within the central region of the cell screening image (low magnification image).
  • step S304: Yes the detection unit. 813 proceeds to step S305, which will be described later.
  • step S304: No when it is determined that the center of gravity of the circumscribing rectangle of the cell mass region is not within the central region of the cell screening image (low-magnification image) (for example, in the case of the cell mass H shown in FIG. 5) (step S304: No). , The detection unit 813 shifts to step S306 described later.
  • Step S305 corresponds to step S204 of FIG. 4 described above. After step S305, the evaluation support system 100 returns to the main routine of FIG. 3 described above.
  • step S306 the detection unit 314 selects the imaging range so that the distance between the center of gravity of the selected outer diameter rectangle and the center of gravity of the imaging range of the high-magnification image is minimized. Specifically, the detection unit 314 selects an imaging range in which the center of gravity of the imaging range K2 at high magnification is closest to the center of gravity of the circumscribed rectangle W1. After step S306, the evaluation support system 100 returns to the main routine of FIG. 3 described above.
  • the detection unit 314 selects the imaging range so that the distance between the center of gravity of the outer diameter rectangle W1 and the center of gravity of the imaging range K2 of the high-magnification image is minimized. Specifically, the detection unit 314 selects an imaging range in which the center of gravity of the imaging range K2 at high magnification is closest to the center of gravity of the circumscribing rectangular W1. Since the positioning can be performed, it is possible to facilitate the observation of the cell evaluation by the observer.
  • the evaluation support system according to the third embodiment has the same configuration as the evaluation support system 100 according to the first embodiment described above, and the imaging range determination process executed by the evaluation support system is different. Specifically, in the third embodiment, the imaging range is determined by distinguishing the regions.
  • the imaging range determination process executed by the evaluation support system according to the third embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 9 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system 100 according to the third embodiment.
  • FIG. 10 is a diagram showing an example of a cell screening image.
  • steps S401 and S402 correspond to steps S201 to S203 of FIG. 4 described above, respectively.
  • step S403 the detection unit 813 determines whether or not the circumscribed rectangle of the cell mass region exceeds the imaging range of the high-magnification image.
  • step S403: Yes the evaluation support system 100 shifts to step S404 described later.
  • step S406 the evaluation support system 100 shifts to step S406 described later. do.
  • step S404 the detection unit 813 selects a candidate for an imaging range of a high-magnification image in which the ratio of a part of the cell mass region and the background region falls within a certain range (step S404), and the contour line in the imaging range is the longest.
  • the imaging range is selected (step S405). Specifically, as shown in FIG. 10, when the ratio of a part of the cell mass region to the background region is 40% to 60%, the detection unit 813 selects the imaging range candidates as region R1, region R2, and region. Select R3.
  • the detection unit 813 Since the detection unit 813 identifies the cell mass region, the detection unit 813 acquires the vector information (coordinate information) of the contour of the cell mass region by using a well-known technique (for example, the above-mentioned binarization process). In this case, the detection unit 813 selects the region having the longest contour line (region R22 in FIG. 10) among the regions R1, the region R2, and the region R3. As a result, it is possible to obtain an image containing more marginal regions of the cell mass.
  • a well-known technique for example, the above-mentioned binarization process
  • the detection unit 813 may select a candidate for the imaging range of the high-magnification image so that the center of gravity of the imaging range of the high-magnification image is on a line segment in N-degree increments with the center of gravity of the circumscribing rectangle as the origin. good.
  • Steps S406 to S409 correspond to each of steps S303 to S306 in FIG. 7 described above. After step S408 or after step S409, the evaluation support system 100 returns to the main routine of FIG.
  • the ratio of the cell mass region to the background region can be kept within a certain range, so that the cell evaluation by the observer can be performed. Can be assisted.
  • the imaging control unit 812 determines the ratio of the cell mass region to the background region based on the detection result of the detection unit 813 even when the circumscribing rectangle of the cell mass does not fit in the high-power field.
  • the degree of cell stacking overlapping degree. More marginal areas with low are imaged, and improvement in evaluation accuracy can be expected.
  • the detection unit 813 selects from a plurality of candidates for the imaging range in which the ratio (area ratio) of the cell mass region to the background region is within the specified range, and evaluates the contour length.
  • the imaging range in which the ratio (area ratio) between the cell mass region and the background region is within the range and the contour length is maximized is simultaneously set without determining candidates. It may be determined by obtaining it, or the imaging range may be determined so that a specific region having a large fluctuation is narrowed down from the contour line and the ratio (area ratio) satisfies the condition.
  • the evaluation support system according to the fourth embodiment has the same configuration as the evaluation support system 100 according to the first embodiment described above, and the imaging range determination process executed by the evaluation support system is different. Specifically, in the fourth embodiment, the imaging range is determined so as to fit a plurality of cell clusters in the field of view, and imaging is performed. Hereinafter, the imaging range determination process executed by the evaluation support system according to the fourth embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 11 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system 100 according to the fourth embodiment.
  • FIG. 12 is a diagram showing an example of a cell screening image.
  • FIG. 13 is a table showing the coordinate position, contour length and area of the cell mass C1 of FIG.
  • FIG. 14 is a diagram showing an example of an imaging range determination method (field of view candidate A) by the detection unit 813.
  • FIG. 15 is a diagram showing an example of an imaging range determination method (field of view candidate B) by the detection unit 813.
  • FIG. 16 is a diagram showing an example of an imaging range determination method (field of view candidate C) by the detection unit 813.
  • the detection unit 813 identifies a cell mass region on the cell screening image P1 (step S501), and a small region corresponding to the relative imaging range of the high-magnification image on the cell screening image P1.
  • the range is specified (step S502).
  • the detection unit 813 divides the cell screening image P1 into N equal parts in the X direction and M equal parts in the Y direction to define a small region.
  • the detection unit 813 divides the cell screening image P1 into 25 equal parts in the X direction and 25 equal parts in the Y direction to define a small region.
  • the detection unit 813 specifies a range of a small region corresponding to the relative imaging range of the high-magnification image on the cell screening image P1.
  • the detection unit 813 specifies the range of the region C1.
  • the detection unit 813 calculates the area of each cell mass for each small region (step S503), and determines the cell mass of interest (step S504).
  • the detection unit 813 measures the contour length and area of the cell mass in pixel units for each small area because each small area shown in FIG. 12 is 160 ⁇ 120. calculate.
  • the detection unit 813 calculates the cell mass C1 (see Table T1 in FIG. 13).
  • the detection unit 813 determines a candidate for an imaging range in which the cell mass of interest is included in the imaging range with a small region as the minimum unit (step S505), and calculates the total cell mass area within the imaging range candidate. (Step S506).
  • the detection unit 813 selects a candidate whose total cell mass area in the imaging range candidate matches the specified condition (step S507). Specifically, the detection unit 813 pays attention to the cell mass C2 which has a large relative area and fits in the high-power field of view, and the cell mass C2 fits in the imaging range corresponding to the high-power field of view and includes the surrounding cell mass.
  • the total cell mass area is 20% or more and 50% or less of the visual field, and the one closest to 40% is selected.
  • the detection unit 813 selects the field of view candidate A (FIG. 14) from the imaging ranges D1 to D3 of FIGS. 14 to 16.
  • the detection unit 813 may determine the shooting field of view so that the total contour length is equal to or larger than a predetermined pixel.
  • the imaging control unit 812 photographs the surrounding cell mass even if the area of the single cell mass does not reach the specified area. Since the imaging unit 5 is aligned with the cell mass so as to be included in the cell mass, the specified area can be contained within the imaging field, and the evaluation accuracy can be expected to be improved, so that the cell evaluation by the observer can be supported. ..
  • the imaging range is determined so as to fit the plurality of cell clusters in the field of view, and the imaging range is determined.
  • the imaging range is determined so that
  • the imaging range determination process executed by the evaluation support system according to the first modification of the fourth embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 17 is a flowchart showing an outline of the imaging range determination process executed by the evaluation support system 100 according to the first modification of the fourth embodiment.
  • FIG. 18 is a diagram showing an example of a cell screening image.
  • FIG. 19 is a diagram showing an example of an imaging range determination method (field of view candidate A) by the detection unit 813.
  • FIG. 20 is a diagram showing an example of an imaging range determination method (field of view candidate B) by the detection unit 813.
  • FIG. 21 is a diagram showing an example of an imaging range determination method (field of view candidate C) by the detection unit 813.
  • the white cell mass region represents a cell mass region having an area of a specified value or less.
  • step S601 to step S605 in FIG. 17 correspond to each of step S501 to step S505 of FIG. 11 described above.
  • step S606 the detection unit 813 counts the number of cell mass regions equal to or less than the specified area within the imaging range candidate.
  • the detection unit 813 selects the candidate having the largest number of cell clump regions in the imaging range candidate (step S607).
  • the detection unit 813 pays attention to the cell mass C2 which has a large relative area and fits within the high-power field of view as in Example 4 described above.
  • the detection unit 813 sets the cell mass C2 within the imaging range and selects an imaging range that includes as many independent cell mass regions as possible. Specifically, when shown in the imaging ranges D1 to D3 of FIGS. 19 to 21, the detection unit 813 selects the field of view region A.
  • the evaluation support system 100 returns to the main routine of FIG.
  • the number of cell mass regions whose area is equal to or less than a preset threshold value is the largest in the imaging region. Since the positioning of the imaging unit 5 with respect to the cell mass region is performed, the evaluation accuracy can be expected to be improved by including the solitary cells having a small cell mass region in the evaluation target, so that it is possible to support the cell evaluation by the observer. ..
  • the evaluation support system according to the fifth embodiment has a different configuration from the evaluation support system 100 according to the first embodiment described above, and the processing to be executed is different. Specifically, the evaluation support system according to the fifth embodiment extracts feature amounts from the high-magnification image and displays them in order of priority according to the extracted feature amounts. In the following, after explaining the configuration of the evaluation support system according to the fifth embodiment, the processing executed by the evaluation support system will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 22 is a block diagram showing a functional configuration of the evaluation support system according to the fifth embodiment.
  • the evaluation support system 100B shown in FIG. 22 includes an evaluation support device 8B instead of the evaluation support device 8 of the evaluation support system 100 according to the first embodiment described above.
  • the evaluation support device 8B includes a control unit 81B instead of the control unit 81 according to the first embodiment described above.
  • the control unit 81B further includes a calculation unit 815 in addition to the configuration of the control unit 81 according to the first embodiment described above.
  • the control unit 81B includes a display control unit 814A instead of the display control unit 814 described above.
  • the calculation unit 815 calculates the feature amount of the cell mass region reflected in the second image based on the second image data generated by the image pickup unit 5 taking an image at a high imaging magnification. Specifically, the calculation unit 815 extracts the feature amount from the high-magnification image based on the second image data imaged by the imaging unit 5 using any one of the high-magnification objective lens groups 51. For example, the calculation unit 815 calculates the feature amount related to the complexity of the contour from the high-magnification image.
  • the display control unit 814A controls the display position of the image to be displayed on the display unit 6 based on the feature amount calculated by the calculation unit 815.
  • FIG. 23 is a flowchart showing an outline of the processing executed by the evaluation support system 100B.
  • FIG. 24 is a diagram showing an example of a screen displayed by the display unit 6. In FIG. 23, steps S701 to S711 correspond to each of the above-mentioned steps S101 to S111.
  • step S712 the imaging control unit 812 transmits the high-magnification cell mass image generated by the imaging unit 5 to the detection unit 813 and the calculation unit 815.
  • the detection unit 813 identifies the cell mass region, identifies the cell mass region and the background region in which no cell exists (step S713), and transmits the coordinate information of the cell mass region to the calculation unit 815 (step S714). ).
  • the calculation unit 815 extracts information on the contour line of the cell mass region based on the coordinate information of the cell mass region input from the detection unit 813 (step S715). Specifically, the calculation unit 815 calculates the contour line “1” of the cell mass region based on the coordinate information of the cell mass region. Then, the calculation unit 815 calculates the contour line “2” from which the high frequency component has been removed by a well-known closing process based on the coordinate information of the cell mass region.
  • the calculation unit 815 calculates the feature amount of the cell mass region based on the information regarding the contour line of the cell mass region (step S716). Specifically, the calculation unit 815 calculates the ratio of the contour line “1” and the contour line “2” of the cell mass region calculated in step S715 described above as a feature amount.
  • the calculation unit 815 transmits the feature amount of the cell mass region to the display control unit 814A in association with the high-magnification cell mass image (second image) (step S717).
  • the display control unit 814A controls the display of the high-magnification cell mass image on the display unit 6 based on the feature amount of the cell mass region (step S718).
  • the display unit 6 has a thumbnail display area 61 for displaying thumbnails of high-magnification cell mass images, and an enlarged image area 62 for displaying original images of thumbnails selected by the user.
  • the thumbnail image TM 1 is selected by the user, and the original image ST1 corresponding to the thumbnail image TM 1 is enlarged and displayed in the enlarged image area 62 by the display control unit 814.
  • the display control unit 814A may display a selection icon in the enlarged image area 62 so that the user can select the feature quantities.
  • the display control unit 814A sorts the thumbnail images according to the feature amount selected by the user via the input unit 7 and displays them in the thumbnail display area 61. Further, the display control unit 814A enables selection of a plurality of feature quantities, calculates a score for integrating the plurality of feature quantities, and sorts the thumbnail image into the thumbnail display area 61 based on the integrated score. May be displayed. The score may be calculated by summing the features, weighting by a coefficient, or based on a specific calculation formula.
  • a reference image (a sample image of normal cells or malignant cells as shown in the cell image atlas) is used as a reference. Can be evaluated as.
  • a skilled pathologist or cytotechnologist user can detect cancer cells by recognizing the difference between the current enlarged image and the normal cell in a pattern while comparing it with the normal cell image. ..
  • a normal cell image is obtained by storing an image of an atlas or comparing it with a normal part of the observed cell image. Users of pathologists and cytotechnologists can achieve the same thing by registering normal cell images to be compared in advance and extracting features, and are flexible, such as changing the reference image for each case. You can take action.
  • step S718 when an instruction signal instructing the end is input from the input unit 7 (step S719: Yes), the evaluation support system 100B ends this process. On the other hand, when the instruction signal for instructing the end is not input from the input unit 7 (step S719: No), the evaluation support system 100B returns to the above-mentioned step S718.
  • the display control unit 814A controls the display mode of the high-magnification cell mass image (second image) in the display unit 6 based on the feature amount calculated by the calculation unit 815. Therefore, it is expected that the evaluation accuracy of the observer can be improved by reflecting the feature amount on the display, so that the cell evaluation by the observer can be supported.
  • the feature amount itself when the feature amount itself is evaluated, it is possible to always perform a constant evaluation based on a specific criterion, and since the evaluation value is an absolute value, it is easy to compare with other cases. It can be carried out.
  • the fifth embodiment when the cell image of the patient specified by the user is used as a reference on the display area of the display unit 6, it is easy to evaluate how many similar cells are present in the observation field of view. Therefore, the accuracy and accuracy of the evaluation can be improved.
  • the calculation unit 815 calculates the feature amount related to the color distribution by dyeing
  • the display control unit 814A calculates the feature amount in the display unit 6 based on the magnitude value of the feature amount calculated by the calculation unit 815.
  • the staining methods often used in ROSE such as Diff-Quik
  • there is little change in color and the cell overlap often correlates with the staining concentration. Therefore, the user can evaluate the structural complexity in the Z direction by evaluating the shading. That is, the region where the concentration is high is thick, while the region where the concentration is low is thin.
  • the contour is the complexity of the cell mass shape projected onto the XY plane.
  • the stain density distribution can be thought of as complexity on the XZ or YZ plane.
  • the calculation unit 815 identifies a straight line passing through the place where the staining concentration is the highest and the place where the staining concentration is the lowest in the cell mass region, and the brightness (intensity) of the cell mass region existing on the straight line.
  • FIG. 25 is a diagram schematically explaining a method of calculating a feature amount by the calculation unit 815.
  • FIG. 26 is a diagram illustrating the relationship between the pixel A and the pixel B in the method of calculating the feature amount by the calculation unit 815.
  • the calculation unit 815 calculates a texture evaluation index indicating the periodicity of the staining concentration in the cell mass region as a feature amount. Specifically, first, the calculation unit 815 generates a grayscale image based on the brightness value of the RGB image. Then, the calculation unit 815 calculates a simultaneous occurrence matrix (Gray-Level Co-Occurrence Matrix: GLCM) for the grayscale image.
  • GLCM simultaneous occurrence matrix
  • the calculation unit 815 performs a process of adding the set of luminance pixels (i, j) for the pixel B in the four directions at a distance of 6 from the pixel A to the corresponding position of the GLCM for all the pixels in the image.
  • GLCM is constructed by.
  • the GLCM is also mapped to a pixel pair including pixels in the background portion and pixels that are deeply stained (deeply dyed) and whose cell structure is difficult to discriminate.
  • the calculation unit 815 excludes parts that are inappropriate as analysis targets, such as the background of the image (high brightness) and dark-stained areas (low brightness), so that many pixels can clearly discriminate the cell structure.
  • the submatrix A of the GLCM that is presumed to be included is analyzed.
  • the calculation unit 815 normalizes the submatrix A by the following equation (1).
  • the calculation unit 815 calculates the texture feature amount for the normalization matrix P.
  • the texture feature amount is, for example, the contrast obtained by the following equation (2).
  • the speed and accuracy of feature amount calculation can be expected to be improved by narrowing down the analysis target, and the evaluation accuracy of the observer can be expected by reflecting the feature amount on the display. Since the improvement is expected, it is possible to support the cell evaluation by the observer.
  • the evaluation support system according to the sixth embodiment has the same configuration as the evaluation support system 100 according to the first embodiment described above, and the processing to be executed is different. Specifically, the evaluation support system according to the sixth embodiment performs imaging without switching the objective lens to generate a screening image having a large visual field region.
  • the processing executed by the evaluation support system according to the sixth embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 27 is a flowchart showing an outline of the processing executed by the evaluation support system according to the sixth embodiment.
  • FIG. 28 is a diagram schematically showing an operation during processing executed by the evaluation support system.
  • the imaging control unit 812 drives the drive mechanism 3 to move the stage 2 to the imaging position (step S801), and executes an AF process for focusing on the cell sample SP. (Step S802).
  • the imaging control unit 812 acquires an image based on the image data obtained by the imaging unit 5 capturing the cell sample SP (step S803), and determines whether or not the number of images has reached the predetermined number (step S804).
  • the evaluation support system 100 shifts to step S805, which will be described later.
  • the evaluation support system 100 returns to step S801 described above. Specifically, as shown in FIG.
  • the imaging control unit 812 sequentially images while moving the stage 2 at the time of screening and moving the fields of view at adjacent positions on the XY plane. For example, as shown in FIG. 28, the image pickup control unit 812 moves the stage 2 in a spiral shape and causes the image pickup unit 5 to take an image while changing the image pickup position. Specifically, when one of the high-magnification objective lenses 51a (20x) is used, the imaging control unit 812 moves the stage 2 in a spiral shape to image a 6 ⁇ 5 region as shown in FIG. 28. By doing so, it is possible to cover the area corresponding to the visual field area of the low-magnification objective lens 52a (4 times).
  • step S805 the image pickup control unit 812 transmits all the captured images to the detection unit 813.
  • the detection unit 813 identifies a cell mass region in which cells exist for each captured image, and generates a mask image in which a background region in which cells do not exist is identified (step S806). Since the probability that the cell mass exists at the boundary of the captured image is inevitably high, it is necessary to detect the cell mass region even if there is a cell mass at the boundary. Therefore, the detection unit 813 identifies the cell mass region and the background region in each captured image, and generates a mask image in which the cell mass region is white and the background region is black.
  • the detection unit 813 After that, the detection unit 813 generates a mask image of the entire region captured by pasting all the mask images (step S807). Specifically, the detection unit 813 generates a mask image of the entire region captured by pasting all the mask images.
  • the detection unit 813 identifies the cell mass region in which cells exist from the mask image of the entire region, and identifies the background region in which cells do not exist (step S808). In this case, the detection unit 813 distinguishes between the cell mass region and the background region with respect to the mask image of the entire region generated by pasting all the mask images.
  • the detection unit 813 may generate a screening image of the entire region based on the vector information of the contour line of the cell mass, regardless of the mask image.
  • Steps S809 to S812 correspond to each of step S106, step S107, step 109, and step S110 in FIG. 3 described above. After step S812, the evaluation support system 100 ends this process.
  • the imaging unit 5 and the stage 2 so that the cell mass and the background region are included in the imaging region corresponding to the visual field region of the high-magnification objective lens 52a without switching the objective lens. Since the imaging unit 5 is aligned with the cell mass by controlling one of them, it is possible to support the cell evaluation by the observer with a simpler device configuration.
  • the evaluation support system according to the first modification of the sixth embodiment has the same configuration as the evaluation support system 100 according to the sixth embodiment described above, and the processing to be executed is different. Specifically, in the first modification of the sixth embodiment, each time one image is taken, the captured image is transmitted to the area detection unit to generate a mask image.
  • the processing executed by the evaluation support system according to the first modification of the sixth embodiment will be described.
  • the same components as those of the evaluation support system 100 according to the sixth embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.
  • FIG. 29 is a flowchart showing an outline of the processing executed by the evaluation support system according to the first modification of the sixth embodiment.
  • steps S901 to S903 correspond to each of the above-mentioned steps S801 to S803.
  • step S904 the image pickup control unit 812 transmits the captured image generated by the image pickup unit 5 to the detection unit 813.
  • the detection unit 813 identifies the cell mass region in which the cells exist in the captured image, generates a mask image in which the background region in which the cells do not exist is identified (step S905), and newly adds the mask image pasted in the past.
  • the mask images generated in the above are pasted together to generate a mask image of the entire area generated so far (step S906). That is, the detection unit 813 sequentially pastes the mask images and updates the entire mask image to the latest one.
  • the detection unit 813 counts the number of cell mass regions in the entire mask image (step S908), determines whether or not the number of cell mass regions has reached a predetermined number (step S909), and the detection unit 813 determines whether or not the number of cell mass regions has been reached.
  • the evaluation support system 100 shifts to step S910 described later.
  • the detection unit 813 determines that the number of cell mass regions has not reached the specified number (step S909: No)
  • the evaluation support system 100 returns to step S901 described above.
  • Steps S910 to S913 correspond to each of steps S809 to S812 in FIG. 27 described above. After step S913, the evaluation support system 100 ends this process.
  • the accuracy of the cell evaluation can be expected to be improved by providing the observer with an image in which a predetermined number of cell mass regions are photographed, and the cell evaluation by the observer is supported. Can be done.
  • the above-mentioned "part” can be read as “means” or "circuit".
  • the control unit can be read as a control means or a control circuit.
  • the programs to be executed by the evaluation support system according to the first to sixth embodiments are file data in an installable format or an executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile). It is provided by being recorded on a computer-readable recording medium such as a disk), a USB medium, or a flash memory.
  • the program to be executed by the evaluation support system according to the first to sixth embodiments may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program to be executed by the evaluation support system according to the first to sixth embodiments can be provided or distributed via a network such as the Internet.
  • signals are transmitted from various devices via a transmission cable, but for example, it does not have to be wired and may be wireless.
  • signals may be transmitted from each device in accordance with a predetermined wireless communication standard (for example, Wi-Fi (registered trademark) or Bluetooth (registered trademark)).
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • wireless communication may be performed according to other wireless communication standards.
  • the optical system is an upright microscope, but it can also be applied to an inverted microscope.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Biotechnology (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Sustainable Development (AREA)
  • Microbiology (AREA)
  • Biomedical Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Genetics & Genomics (AREA)
  • Analytical Chemistry (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

観察者による細胞評価を支援する評価支援装置、評価支援システム、評価支援方法およびプログラムを提供する。評価支援装置8は、移動可能なステージ2上に載置された細胞検体を所定の画角を有する撮像部5が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および細胞塊の写らない背景領域の少なくとも一方を検出する検出部813と、第1の画像の撮像倍率よりも高い撮像倍率によって撮像部5に撮像させる際に、高い撮像倍率に対応する撮像領域内に細胞塊と背景領域とが入るように撮像部5およびステージ2の少なくとも一方を制御することによって細胞塊に対する撮像部5の位置合わせを行う撮像制御部812と、を備える。

Description

評価支援装置、評価支援システム、評価支援方法およびプログラム
 本開示は、迅速術中細胞評価(Rapid On-site Evaluation :ROSE)における生体検査サンプルに対して、悪性度が高いと思われる細胞領域の候補を選択し、この選択した細胞領域の候補を病理医等に提示することによって細胞評価を支援する評価支援装置、評価支援システム、評価支援方法およびプログラムに関する。
 従来、細胞評価装置において、細胞群を撮像した細胞画像内における個々の細胞を評価する技術が知られている(特許文献1参照)。この技術では、細胞画像の細胞群における個々の細胞を認識し、この認識した個々の細胞のうちの評価対象の細胞と評価対象の細胞の周囲の細胞と、を特定した後、周囲の細胞の評価結果と、評価対象の細胞の評価結果と、に基づいて、評価対象の細胞の評価を確定する。
国際公開第2015/182382号
 しかしながら、上述した特許文献1では、評価対象の細胞の評価結果を自動的に行って表示しているに過ぎない。病理医等の観察者は、染色した細胞の写る細胞画像を見て評価する場合、診断対象となる細胞画像を観察しながら、細胞塊の辺縁領域や小さな細胞塊あるいは孤在性の細胞がある領域を経験的に細胞の悪性を評価するに適した領域として識別し細胞の悪性度の評価を行なう傾向がある。このため、細胞の塊がある細胞塊領域と細胞が存在しない背景領域とを目視で分離と識別をしなければならず、分離識別作業が膨大となることで、細胞評価の作業が煩雑になるという問題点があった。
 本開示は、上記に鑑みてなされたものであって、観察者による細胞評価の観察を容易にすることができる評価支援装置、評価支援システム、評価支援方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本開示に係る評価支援装置は、移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出する検出部と、前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行う撮像制御部と、を備える。
 また、本開示に係る評価支援装置は、上記開示において、前記撮像制御部は、前記撮像領域内における少なくとも1つの前記細胞塊領域の面積の値と、前記背景領域の面積の値と、の割合が予め設定された範囲内となるよう前記細胞塊に対する前記撮像部の位置合わせを行う。
 また、本開示に係る評価支援装置は、上記開示において、前記撮像制御部は、複数の前記細胞塊領域のうち最も面積が大きい前記細胞塊領域の輪郭線の全長の値および複数の前記細胞塊領域の各々の輪郭線の全長を合算した値の少なくとも一方が、予め設定された範囲内となるよう前記細胞塊に対する前記撮像部の位置合わせを行う。
 また、本開示に係る評価支援装置は、上記開示において、前記撮像制御部は、複数の前記細胞塊領域のうち、面積が予め設定された閾値以下となる前記細胞塊領域の数が前記撮像領域内において最も多くなるよう前記細胞塊に対する前記撮像部の位置合わせを行う。
 また、本開示に係る評価支援装置は、上記開示において、前記撮像部が前記高い撮像倍率で撮像することによって生成した第2の画像データに基づく第2の画像に写る前記細胞塊領域の特徴量を算出する算出部と、前記第2の画像を表示部に表示させ、かつ、前記特徴量に基づいて、前記表示部における前記第2の画像の表示態様を制御する表示制御部と、をさらに備える。
 また、本開示に係る評価支援装置は、上記開示において、前記検出部は、前記第2の画像に写る前記細胞塊の少なくとも一つに対して、前記細胞塊領域を検出し、前記算出部は、前記細胞塊領域内の染色による色の分布に関する情報に基づいて、前記特徴量を算出する。
 また、本開示に係る評価支援装置は、上記開示において、前記第1の画像の撮影倍率は、前記撮像部に設けられた所定の倍率の第1の対物レンズの倍率であり、前記第1の画像の撮像倍率よりも高い撮影倍率は、前記撮像部に設けられた所定の倍率より倍率が高い第2の対物レンズの倍率である。
 また、本開示に係る評価支援システムは、上記の評価支援装置と、前記ステージと、前記撮像部と、を備える。
 また、本開示に係る評価支援方法は、評価支援装置が実行する評価支援方法であって、移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出し、前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行う。
 また、本開示に係るプログラムは、評価支援装置に実行させるプログラムであって、移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出させ、前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行わせる。
 本開示によれば、観察者による細胞評価を支援することができるという効果を奏する。
図1は、実施の形態1に係る評価支援システムの概略構成を示す模式図である。 図2は、実施の形態1に係る評価支援システムの機能構成を示すブロック図である。 図3は、実施の形態1に係る評価支援システムが実行する処理の概要を示すフローチャートである。 図4は、実施の形態1に係る評価支援システムが実行する撮像範囲決定処理の概要を示すフローチャートである。 図5は、細胞スクリーニングの一例を示す図である。 図6は、実施の形態1の変形例1に係る評価支援システムが実行する処理の概要を示すフローチャートである。 図7は、実施の形態2に係る評価支援システムが実行する撮像範囲決定処理の概要を示すフローチャートである。 図8は、細胞スクリーニング画像の一例を示す図である。 図9は、実施の形態3に係る評価支援システムが実行する撮像範囲決定処理の概要を示すフローチャートである。 図10は、細胞スクリーニング画像の一例を示す図である。 図11は、実施の形態4に係る評価支援システムが実行する撮像範囲決定処理の概要を示すフローチャートである。 図12は、細胞スクリーニング画像の一例を示す図である。 図13は、図12の細胞塊の座標位置、輪郭長および面積を示す図表である。 図14は、検出部による撮像範囲決定方法(視野候補A)の一例を示す図である。 図15は、検出部による撮像範囲決定方法(視野候補B)の一例を示す図である。 図16は、検出部による撮像範囲決定方法(視野候補C)の一例を示す図である。 図17は、実施の形態4の変形例1に係る評価支援システムが実行する撮像範囲決定処理の概要を示すフローチャートである。 図18は、細胞スクリーニング画像の一例を示す図である。 図19は、検出部による撮像範囲決定方法(視野候補A)の一例を示す図である。 図20は、検出部による撮像範囲決定方法(視野候補B)の一例を示す図である。 図21は、検出部による撮像範囲決定方法(視野候補C)の一例を示す図である。 図22は、実施の形態5に係る評価支援システムの機能構成を示すブロック図である。 図23は、評価支援システムが実行する処理の概要を示すフローチャートである。 図24は、表示部が表示する画面の一例を示す図である。 図25は、算出部による特徴量の算出方法を模式的に説明する図である。 図26は、算出部による特徴量の算出方法における画素Aと画素Bとの関係を説明する図である。 図27は、実施の形態6に係る評価支援システムが実行する処理の概要を示すフローチャートである。 図28は、評価支援システムが実行する処理時における動作を模式的に示す図である。 図29は、実施の形態6の変形例1に係る評価支援システムが実行する処理の概要を示すフローチャートである。
 以下、本開示を実施するための形態(以下、「実施の形態」という)について説明する。本実施の形態では、迅速術中細胞評価における生体検査サンプルに対して、悪性度が高いと思われる細胞領域の候補を選択し、この選択した細胞領域の候補を病理医等の観察者に提示することによって細胞評価を支援するシステムについて説明する。また、以下の実施の形態により本開示が限定されるものでない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
(実施の形態1)
 〔評価支援システムの構成〕
 図1は、実施の形態1に係る評価支援システムの概略構成を示す模式図である。図2は、実施の形態1に係る評価支援システムの機能構成を示すブロック図である。図1および図2に示す評価支援システム100は、ROSEにおける生体検査サンプルに対して、悪性度が高いと思われる細胞領域の候補を選択し、この選択した細胞領域の候補を病理医等に提示することによって細胞評価を支援するシステムである。ここで、ROSEとは、診断すべき検体が採取できているか否かを臨床の検査現場で評価する方法である。
 ここで、ROSEの標準的なプロセスについて説明する。まず、臨床医等は、被検体(患者)に対して針でがんと思われる組織を採取する採取(針生検)を行う(採取工程)。続いて、病理医および細胞検査士(以下、単に「ユーザ」という)は、採取した組織をもとにスライド作成し、採取した組織に対して染色する(染色工程)。その後、ユーザは、弱拡大(低倍率の対物レンズ)で検鏡し、全体画像から「がんらしい」と思われる細胞塊を選択する(スクリーニング処理)。最後に、ユーザは、選択した細胞塊について、強拡大(高倍率の対物レンズ)に切り替えて拡大観察を行ない、細胞塊の特徴をより詳細に観察することで、観察細胞塊が、がんであるか否かの評価を確定する(評価処理)。即ち、図1および図2に示す評価支援システム100は、上述した評価処理において、ユーザによる画像評価を支援するシステムである。
 図1および図2に示す評価支援システム100は、観察可能な細胞検体SPを格納したスライドグラス1を保持し、水平方向および垂直方向に移動可能なステージ2と、ステージ2を駆動する駆動機構3と、ステージ2上の細胞検体SPに照明光を照射する光源部4と、ステージ2上の細胞検体SPを撮像可能な撮像部5と、撮像部5が撮像した画像データに基づく画像を表示可能な表示部6と、評価支援システム100の各種の操作の入力を受け付ける入力部7と、評価支援システム100の各部を制御するとともに、細胞検体SPの評価支援を行う評価支援装置8と、を備える。なお、実施の形態1では、ステージ2、光源部4、撮像部5、表示部6、入力部7および評価支援装置8の各々は、有線によって双方向に通信可能に接続されているが、これに限定されることなく、無線通信によって双方向に通信可能に接続されていてもよい。
 細胞検体SPは、ヒトから針生検等で取得されたヒト由来の標本であるが、動物等であってもよい。さらに、細胞検体SPは、細胞含有部分と思われる部分を抽出した後、迅速パパニコロウ染色(Papanicolaou Stain)、ディフ・クイック(Diff-Quik Stain)等の染色が施されている。さらに、細胞検体SPは、スライドグラス1上に固定されているが、例えばシャレー等に収容した状態であってもよい。
 ステージ2は、細胞検体SPが載置される載置面を有する。ステージ2は、開口部21を有し、この開口部21から後述する光源部4から照明光が照射される。また、ステージ2は、所定の位置を基準に水平方向(X方向およびY方向)および垂直方向(Z方向)に移動可能に設けられる。さらに、ステージ2は、透明な部材、例えばプラスチックやガラス等を用いて構成されてもよい。なお、ステージ2の構成や材質は、適宜変更することができる。
 駆動機構3は、後述する評価支援装置8の制御のもと、ステージ2を水平方向および垂直方向へ移動させる。駆動機構3は、駆動部31と、位置検出部32と、を有する。
 駆動部31は、後述する評価支援装置8の制御のもと、ステージ2を水平方向および垂直方向へ移動させる。駆動部31は、例えばステッピングモータ、DCモータおよびギア等を用いて実現される。
 位置検出部32は、ステージ2における所定の位置を基準に、水平方向および垂直方向におけるステージ2の現在の位置を検出し、この検出結果を評価支援装置8へ出力する。位置検出部32は、例えばエンコーダ等を用いて実現される。
 光源部4は、後述する評価支援装置8の制御のもと、ステージ2上に載置された細胞検体SPに向けて照明光を照射する。光源部4は、例えば白色の照明光を細胞検体SPに向けて照射する。光源部4は、例えば白色LED(Light Emitting Diode)やハロゲンランプ等を用いて実現される。なお、光源部4は、白色光以外、例えば所定の波長帯域の光である赤外光等を照射可能に構成してもよい。また、実施の形態1では、光源部4をステージ2の直下から照射する透過照明方式を用いているが、これに限定されることなく、ステージ2の直上から照射する落射照明方式を用いてもよい。
 撮像部5は、後述する評価支援装置8の制御のもと、ステージ2上に載置された細胞検体SPを所定の倍率で撮像することによって画像データを生成する。撮像部5は、高倍率対物レンズ群51と、低倍率対物レンズ群52と、切替部53と、倍率検出部54と、撮像素子55と、を有する。
 高倍率対物レンズ群51は、複数の高倍率対物レンズ51a,51b,51cを有し、高倍率対物レンズ51a,51b,51cが図示しないレボルバ等に着脱自在に取り付けられている。高倍率対物レンズ51a,51b,51cの各々の倍率は、例えば20倍、40倍および60倍である。なお、以下において、高倍率対物レンズ51a,51b,51cのいずれかを一つを表す場合、単に高倍率対物レンズ51zと表現する。
 低倍率対物レンズ群52は、複数の低倍率対物レンズ52a,52b,52cを有し、低倍率対物レンズ52a,52b,52cが図示しないレボルバ等に着脱自在に取り付けられている。低倍率対物レンズ52a,52b,52cの各々の倍率は、2倍、4倍、10倍である。なお、以下において、低倍率対物レンズ52a,52b,52cのいずれか一つを表す場合、単に低倍率対物レンズ52zと表現する。さらに、以下において、高倍率対物レンズ51a,51b,51cおよび低倍率対物レンズ52a,52b,52cのいずれか一つを表す場合、単に対物レンズと表現する。
 切替部53は、後述する評価支援装置8の制御のもと、光軸Q1に配置する対物レンズを、高倍率対物レンズ群51および低倍率対物レンズ群52のいずれかの対物レンズに切り替える。具体的には、切替部53は、後述する評価支援装置8の制御のもと、図示しないレボルバを駆動することによって、光軸Q1に高倍率対物レンズ群51および低倍率対物レンズ群52のいずれかの対物レンズを配置する。切替部53は、ステッピングモータやDCモータ等を用いて実現される。
 倍率検出部54は、光軸Q1上に配置された対物レンズの倍率を検出し、この検出した検出結果を評価支援装置8へ出力する。倍率検出部54は、エンコーダまたは対物レンズに添付された倍率情報等を記録するICメモリから情報を読み取るリーダ等を用いて構成される。
 撮像素子55は、対物レンズによって集光された被写体像を撮像することによって画像データを生成し、この画像データを評価支援装置8へ出力する。撮像素子55は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)のイメージセンサおよびA/D変換処理、ノイズ低減処理およびゲインアップ処理等を行うAFE(Analog Front End)の画像処理チップ等を用いて実現される。
 表示部6は、評価支援装置8から入力される画像データに基づく画像を表示する。表示部6は、液晶または有機EL(Electro Luminescence)等の表示モニタを用いて実現される。
 入力部7は、ユーザの操作に応じた入力を受け付け、受け付けた操作に応じた内容を評価支援装置8へ出力する。入力部7は、キーボード、マウス、タッチパネル等を用いて実現される。
 評価支援装置8は、評価支援システム100を構成する各部を制御し、かつ、細胞検体SPの評価支援を行う。評価支援装置8は、記録部80と、制御部81と、を有する。
 記録部80は、評価支援装置8が実行する各種のプログラムおよび処理中のデータ等を記録する。記録部80は、評価支援装置8が実行する各種のプログラムを記録するプログラム記録部801と、撮像部5が生成した画像データを記録する画像データ記録部802と、を有する。
 制御部81は、評価支援システム100を構成する各部を制御する。制御部81は、メモリと、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等のハードウェアを有するプロセッサと、を用いて実現される。制御部81は、取得部811と、撮像制御部812と、撮像制御部812と、検出部813と、表示制御部814と、を有する。
 取得部811は、撮像素子55が生成した画像データおよび倍率検出部54が検出した倍率情報を取得する。
 撮像制御部812は、撮像部5および駆動機構3の駆動を制御する。具体的には、撮像制御部812は、第1の画像の撮像倍率よりも高い撮像倍率によって撮像部5に撮像させる際に、高い撮像倍率に対応する撮像領域内に細胞塊と背景領域とが入るよう撮像部5およびステージ2の少なくとも一方を制御することによって細胞塊に対する撮像部5の位置合わせを行う。
 検出部813は、移動可能なステージ2上に載置された細胞検体SPを所定の画角を有する撮像部5が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および細胞塊の写らない背景領域の少なくとも一方を検出する。
 表示制御部814は、表示部6の表示態様を制御する。表示制御部814は、撮像部5が生成した画像データに基づく画像を表示部6に表示させたり、評価支援システム100に関する各種情報を表示部6に表示させたりする。
 〔評価支援システムの処理〕
 次に、評価支援システム100が実行する処理について説明する。図3は、評価支援システム100が実行する処理の概要を示すフローチャートである。
 図3に示すように、撮像制御部812は、切替部53を駆動することによって光軸Q1に低倍率対物レンズ群52のいずれかを配置する(ステップS101)。例えば、撮像制御部812は、切替部53を駆動することによって光軸Q1に低倍率対物レンズ52b(4倍)を配置する。
 続いて、撮像制御部812は、撮像部5および駆動機構3の各々を制御することによって、細胞検体SPに合焦させる(ステップS102)。具体的には、まず、撮像制御部812は、撮像部5から細胞検体SPを撮像した画像データを取得する(処理1)。そして、撮像制御部812は、撮像部5から取得した画像データに基づく画像のコントラスト値を算出する(処理2)。ここで、コントラスト値とは、例えば撮像素子55の隣接画素との差分の絶対値の和から算出した値である。続いて、撮像制御部812は、駆動機構3を駆動させてステージ2をZ軸方向(光軸Q1方向)に規定量移動させる(処理3)。その後、撮像制御部812は、処理1~処理3を複数回繰り返し行い、ステージ2のZ軸方向可能範囲内においてコントラスト値の最大値を判定し、最大値を細胞検体SPに対する合焦位置としてステージ2を移動させる(コントラストAF(Auto Focus)処理)。なお、実施の形態1では、コントラストAF処理によって細胞検体SPに対する合焦させているが、撮像素子55に位相差画素を設けている場合、位相差AF処理によって細胞検体SPに対して合焦させてもよい。
 その後、撮像制御部812は、撮像部5から低倍率で撮像した細胞スクリーニング画像データを取得し(ステップS103)、検出部813に細胞スクリーニングデータに基づくスクリーニング画像を送信する(ステップS104)。なお、撮像制御部812または検出部813の各々は、撮像部5の撮像素子55において使用されているセンササイズおよび対物レンズの倍率(テレビアダプタ等により倍率が変更されている場合は実倍率)の情報を保持しており、細胞スクリーニング画像(低倍率画像)上における高倍率画像(細胞塊画像)の撮像範囲の大きさを算出することができる。また、撮像制御部812または検出部813の各々は、対物レンズ等の倍率情報を用いず、予め設定された撮像範囲の大きさの情報を保持していてもよい。
 続いて、検出部813は、細胞スクリーニング画像から、細胞が存在する細胞塊領域を特定し、細胞が存在しない背景領域と識別する(ステップS105)。具体的には、検出部813は、細胞検体SPが染色されている場合、色相および彩度の少なくとも1つに基づいて、細胞スクリーニング画像から細胞塊領域と背景領域とを識別する。
 例えば、検出部813は、細胞スクリーニング画像に対して、グレースケール化を行い、このグレースケール画像に対して二値化を行った後に、所定の閾値を用いて細胞塊領域と背景領域とを識別する。ここで、閾値とは、スクリーニング画像における明らかな背景となる領域の値や予めユーザによって設定された値である。また、検出部813は、細胞スクリーニング画像に細胞塊が含まれている場合、背景のみが写る背景領域と比較して相対的にコントラスト値が高いため、コントラスト値に基づいて、細胞スクリーニング画像の被写体(細胞検体SP)の割合を推定することによって、細胞塊領域と背景領域とを識別してもよい。なお、被写体(細胞検体SP)によって細胞塊領域と背景領域との相関関係が変動する。さらに、被写体(細胞検体SP)の位置を特定することが難しい。また、検出部813は、予め機械学習により細胞塊領域と背景領域とを学習させた学習モデルを用いてもよい。この場合、検出部813は、染色の有無に関わらず、細胞スクリーニング画像を入力し、出力として細胞塊領域と背景領域とを推定してもよい。機械学習を用いれば、細胞でも背景でもない領域を識別することも可能である。
 その後、検出部813は、細胞塊領域と背景領域との両方が高倍率で撮像可能な撮像範囲を決定する撮像範囲決定処理を実行する(ステップS106)。
 〔撮像範囲決定処理の概要〕
 図4は、撮像範囲決定処理の概要を示すフローチャートである。図5は、細胞スクリーニングの一例を示す図である。なお、図5において、大きな矩形状の枠K1が低倍率対物レンズ52b(4倍)の視野領域を示し、小さい矩形状の枠K2が高倍率対物レンズ51a(20倍)の視野領域を示す。さらに、図5において、領域A,B,C,L,Sは、細胞塊とする。
 図4および図5に示すように、検出部813は、細胞スクリーニング画像P1上において細胞塊領域を特定し、細胞塊領域の外接矩形(bounding box)を決定する(ステップS201)。具体的には、図5に示すように、検出部813は、細胞塊Aの周囲の点線領域を細胞塊領域の外径矩形W1に決定する。
 続いて、検出部813は、細胞スクリーニング画像P1上での高倍率画像の相対的撮像範囲(図5の高倍率の視野領域K2)を取得する(ステップS202)。
 その後、検出部813は、撮像範囲に対して一定の面積範囲にある細胞塊領域の外接矩形を一つ以上選択する(ステップS203)。この場合、図5に示すように、検出部813は、外接矩形が撮像範囲を超えている細胞塊の領域Lを除外してもよい。さらに、図5に示すように、検出部813は、細胞塊の領域が小さすぎて、細胞に関する十分な情報取得が望めない細胞塊の領域Sを除外してもよい。さらにまた、図5に示すように、検出部813は、背景領域が一定面積以上確保できない細胞塊の領域Bを除外してもよい。
 続いて、検出部813は、選択した外接矩形W1の重心が、高倍率画像の撮像範囲K2の重心と一致する撮像範囲を決定する(ステップS204)。具体的には、検出部813は、選択した外接矩形W1の重心が、後述する高倍率対物レンズ51aの光軸Q1と一致するよう撮像範囲を決定する。この場合、検出部813は、駆動機構3の位置検出部32から入力されたステージ2の位置情報に基づいて、選択した外接矩形W1の重心が高倍率対物レンズ51aの光軸Q1と一致する撮像範囲の座標情報として算出する。ステップS204の後、評価支援システム100は、図3に戻り、ステップS107へ移行する。
 図3に戻り、ステップS107以降の説明を続ける。
 ステップS107において、検出部813は、撮像範囲の座標情報を撮像制御部812へ送信する。
 続いて、撮像制御部812は、切替部53を駆動することによって光軸Q1に高倍率対物レンズ群51のいずれかを配置することによって高倍率に切替を行う(ステップS108)。例えば、撮像制御部812は、切替部53を駆動することによって光軸Q1に高倍率対物レンズ51a(20倍)を配置する。
 その後、撮像制御部812は、検出部813から受信した撮像範囲の座標情報に基づいて、駆動機構3を駆動し、細胞検体SPの位置へステージ2を移動させる(ステップS109)。具体的には、撮像制御部812は、検出部813から受信した撮像範囲の座標情報と位置検出部32によって検出されたステージ2の位置情報とに基づいて、駆動部31を駆動し、撮像範囲の中心位置と光軸Q1とが一致する位置へステージ2を移動させる。
 続いて、撮像制御部812は、撮像部5を制御することによって撮像させることによって高倍率の細胞塊画像データを生成させる(ステップS110)。
 その後、撮像制御部812によって全ての撮像が終了したと判断された場合(ステップS111:Yes)、評価支援システム100は、本処理を終了する。これに対して、撮像制御部812によって全ての撮像が終了していないと判断された場合(ステップS111:No)、評価支援システム100は、上述したステップS109へ戻る。
 以上説明した実施の形態1によれば、撮像制御部812が検出部813によって検出された検出結果に基づいて、低倍率のスクリーニング画像の撮像倍率よりも高い高倍率によって撮像部5に撮像させる際に、高倍率対物レンズ52aの視野領域に対応する撮像領域内に細胞塊と背景領域とが入るよう撮像部5およびステージ2の少なくとも一方を制御することによって細胞塊に対する撮像部5の位置合わせを行い、細胞塊の辺縁領域が確実に撮像されるため、細胞の重積度(重なり具合)が低い辺縁領域を撮像することで、細胞塊構造、核内構造を観察できるので、観察者による細胞評価の観察を容易にすることができる。
 また、実施の形態1によれば、撮像制御部812が検出部813によって検出された検出結果に基づいて、撮像領域内における少なくとも1つの細胞塊領域の面積の値と、背景領域の面積の値と、の割合が予め設定された範囲内となるように細胞塊に対する撮像部5の位置合わせを行い、背景領域を確保することで、細胞間の結合性が低いがん細胞について個別の細胞が細胞塊周辺にこぼれ落ちた孤在性の細胞を見られる確率を高くすることができる。
 また、実施の形態1によれば、背景領域と細胞塊領域を含む評価画像を取得または提示することによって、背景領域と細胞塊領域の境界にある「細胞塊辺縁領域」や細胞塊周辺にこぼれ落ちた「孤在性の細胞」を観察することが容易となり、ユーザが手作業で細胞評価を実施するときに注目する領域に対する細胞評価を効率化できるため、観察者による細胞評価の観察を容易にすることができる。
(実施の形態1の変形例1)
 次に、実施の形態1の変形例1について説明する。上述した実施の形態1では、撮像範囲を決定した後に、高倍率対物レンズ51zに切り替えてから撮像範囲の位置合わせを行っていたが、実施の形態1の変形例1では、低倍率対物レンズ52zによって位置合わせを行った後に高倍率対物レンズ51zに切り替える。以下においては、実施の形態1の変形例1に係る評価支援システムが実行する処理について説明する。なお、上述した実施の形態1に係る評価支援システムと同一の構成には同一の符号を付して詳細な説明は省略する。
 〔評価支援システムの処理〕
 図6は、実施の形態1の変形例1に係る評価支援システム100が実行する処理の概要を示すフローチャートである。図6において、評価支援システム100は、上述した図3のステップS108およびステップS109に代えてステップS108AおよびステップS109Aを実行する。このため、以下においては、ステップS108AおよびステップS109Aについて説明する。
 ステップS108Aにおいて、撮像制御部812は、検出部813から受信した撮像範囲の座標情報に基づいて、駆動機構3を駆動し、細胞検体SPの位置へステージ2を移動させる。
 続いて、撮像制御部812は、切替部53を駆動することによって光軸Q1に高倍率対物レンズ群51のいずれかを配置する(ステップS109A)。例えば、撮像制御部812は、は、切替部53を駆動することによって光軸Q1に高倍率対物レンズ51a(20倍)を配置する。この場合、撮像制御部812は、切替部53を駆動することによって、低倍率対物レンズ53bと高倍率対物レンズ51aを切り替えたときに、両レンズの光学的な中心が一致するように切り替える。ステップS109Aの後、評価支援システム100は、ステップS110へ移行する。
 以上説明した実施の形態1の変形例1によれば、細胞塊の辺縁領域が確実に撮像されるため、細胞の重積度(重なり具合)が低い辺縁領域を撮像することで、細胞塊構造、核内構造を観察できるので、観察者による細胞評価の観察を容易にすることができる。
(実施の形態2)
 次に、実施の形態2について説明する。実施の形態2に係る評価支援システムは、上述した実施の形態1に係る評価支援システム100と同一の構成を有し、評価支援システムが実行する撮像範囲決定処理が異なる。具体的には、実施の形態2では、低倍視野内に全体が写っていない細胞塊に対して位置決めを行って撮像する。以下においては、実施の形態2に係る評価支援システムが実行する撮像範囲決定処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔撮像範囲決定処理の概要〕
 図7は、実施の形態2に係る評価支援システム100が実行する撮像範囲決定処理の概要を示すフローチャートである。図8は、細胞スクリーニング画像の一例を示す図である。図8に示すように、低倍率視野K1の左上頂点と相対的な高倍率視野K2′の左上頂点を重ね合わせた時の高倍率視野の重心を重心P1、低倍率視野の右下頂点と相対的な高倍率視野の右下頂点を重ね合わせた時の高倍率視野K2″の重心を重心P2として表現する。図8において、低倍率視野に中心領域と周辺領域を定める。具体的には、中心領域は、重心P1を左上頂点、重心P2を右下頂点とする矩形領域R1とする。低倍率視野K1のうち、中心領域以外の領域を周辺領域とする。さらに、図7において、ステップS301~ステップS303は、上述した図4のステップS201~ステップS203それぞれに対応する。
 ステップS304において、検出部813は、細胞塊領域の外接矩形の重心が細胞スクリーニング画像(低倍率画像)の中心領域内にあるか否かを判断する。細胞塊領域の外接矩形の重心が細胞スクリーニング画像(低倍率画像)の中心領域内にあると判断した場合((例えば図5に示す細胞塊Aの場合))(ステップS304:Yes)、検出部813は、後述するステップS305へ移行する。これに対して、細胞塊領域の外接矩形の重心が細胞スクリーニング画像(低倍率画像)の中心領域内にないと判断した場合(例えば図5に示す細胞塊Hの場合)(ステップS304:No)、検出部813は、後述するステップS306へ移行する。
 ステップS305は、上述した図4のステップS204に対応する。ステップS305の後、評価支援システム100は、上述した図3のメインルーチンへ戻る。
 ステップS306において、検出部314は、選択した外径矩形の重心と高倍率画像の撮像範囲の重心の距離が最小となるように撮像範囲を選択する。具体的には、検出部314は、高倍率での撮像範囲K2の重心が外接矩形W1の重心に最も近くなる撮像範囲を選択する。ステップS306の後、評価支援システム100は、上述した図3のメインルーチンへ戻る。
 以上説明した実施の形態2によれば、検出部314が外径矩形W1の重心と高倍率画像の撮像範囲K2の重心の距離が最小となるように撮像範囲を選択する。具体的には、検出部314は、高倍率での撮像範囲K2の重心が外接矩形W1の重心に最も近くなる撮像範囲を選択するため、スクリーニング画像内に全体が写っていない細胞塊に対して位置決めを行うことができるので、観察者による細胞評価の観察を容易にすることができる。
(実施の形態3)
 次に、実施の形態3について説明する。実施の形態3に係る評価支援システムは、上述した実施の形態1に係る評価支援システム100と同一の構成を有し、評価支援システムが実行する撮像範囲決定処理が異なる。具体的には、実施の形態3では、領域の区別を行って撮像範囲を決定する。以下においては、実施の形態3に係る評価支援システムが実行する撮像範囲決定処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔撮像範囲決定処理の概要〕
 図9は、実施の形態3に係る評価支援システム100が実行する撮像範囲決定処理の概要を示すフローチャートである。図10は、細胞スクリーニング画像の一例を示す図である。図9において、ステップS401およびステップS402は、上述した図4のステップS201~ステップS203それぞれに対応する。
 ステップS403において、検出部813は、細胞塊領域の外接矩形が高倍率画像の撮像範囲を超えているか否かを判断する。検出部813によって細胞塊領域の外接矩形が高倍率画像の撮像範囲を超えていると判断された場合(ステップS403:Yes)、評価支援システム100は、後述するステップS404へ移行する。これに対して、検出部813によって細胞塊領域の外接矩形が高倍率画像の撮像範囲を超えていないと判断された場合(ステップS403:No)、評価支援システム100は、後述するステップS406へ移行する。
 ステップS404において、検出部813は、細胞塊領域の一部と背景領域の割合が一定範囲に収まる高倍率画像の撮像範囲の候補を選択し(ステップS404)、撮像範囲中の輪郭線が最も長い撮像範囲を選択する(ステップS405)。具体的には、図10に示すように、検出部813は、細胞塊領域の一部と背景領域の割合を40%~60%とした場合、撮像範囲の候補を領域R1、領域R2、領域R3を選択する。検出部813は、細胞塊領域を識別しているため、細胞塊領域の輪郭のベクトル情報(座標情報)を周知の技術(例えば上述した2値化処理)を用いて取得する。この場合、検出部813は、領域R1、領域R2および領域R3のうち、輪郭線が最も長い領域(図10では、領域R22)を選択する。これにより、より細胞塊の辺縁領域をより多く含んだ画像を取得することができる。なお、検出部813は、高倍率画像の撮影範囲の重心が、外接矩形の重心を原点としたN度刻みの線分上にあるように、高倍率画像の撮像範囲の候補を選択してもよい。
 ステップS406~ステップS409は、上述した図7のステップS303~ステップS306それぞれに対応する。ステップS408の後、またはステップS409の後、評価支援システム100は、図3のメインルーチンへ戻る。
 以上説明した実施の形態3によれば、高倍率視野内に細胞塊の外接矩形が収まらない場合でも、細胞塊領域と背景領域の割合を一定範囲に収めることができるため、観察者による細胞評価を支援することができる。
 また、実施の形態3によれば、撮像制御部812が検出部813の検出結果に基づいて、高倍率視野内に細胞塊の外接矩形が収まらない場合でも、細胞塊領域と背景領域の割合を一定範囲に収めながら、視野内の細胞塊領域の輪郭線の全長が、探索可能な範囲で最も長くなるよう細胞塊に対する撮像部5の位置合わせを行うため、細胞の重積度(重なり具合)が低い辺縁領域がより多く撮像され、評価精度の向上が期待できる。
 なお、実施の形態3によれば、検出部813が細胞塊領域と背景領域との割合(面積比)が規定の範囲内である複数の撮像範囲の候補の中から選択して輪郭長の評価をしているが、これに限定することなく、候補を定めずに、細胞塊領域と背景領域との割合(面積比)が範囲内であり、かつ、輪郭長が最大になる撮像範囲を同時に求めて決定してもよいし、輪郭線のうち、変動が大きい特定の領域を絞り込み、その中で割合(面積比)が条件を満たすように撮像範囲を決定してもよい。
(実施の形態4)
 次に、実施の形態4について説明する。実施の形態4に係る評価支援システムは、上述した実施の形態1に係る評価支援システム100と同一の構成を有し、評価支援システムが実行する撮像範囲決定処理が異なる。具体的には、実施の形態4では、複数の細胞塊を視野に収まるように撮像範囲を決定して撮像する。以下においては、実施の形態4に係る評価支援システムが実行する撮像範囲決定処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔撮像範囲決定処理〕
 図11は、実施の形態4に係る評価支援システム100が実行する撮像範囲決定処理の概要を示すフローチャートである。図12は、細胞スクリーニング画像の一例を示す図である。図13は、図12の細胞塊C1の座標位置、輪郭長および面積を示す表である。図14は、検出部813による撮像範囲決定方法(視野候補A)の一例を示す図である。図15は、検出部813による撮像範囲決定方法(視野候補B)の一例を示す図である。図16は、検出部813による撮像範囲決定方法(視野候補C)の一例を示す図である。
 図11に示すように、検出部813は、細胞スクリーニング画像P1上で細胞塊領域を特定し(ステップS501)、細胞スクリーニング画像P1上での高倍率画像の相対的撮像範囲に相当する小領域の範囲を特定する(ステップS502)。具体的には、図12に示すように、検出部813は、細胞スクリーニング画像P1中をX方向にN等分、Y方向にM等分し、小領域を定義する。例えば、図12に示す場合、検出部813は、細胞スクリーニング画像P1中をX方向に25等分、Y方向に25等分し、小領域を定義する。図12では、細胞スクリーニング画像P1を4倍の対物レンズ(低倍率対物レンズ52a)、細胞塊画像を20倍の対物レンズ(高倍率対物レンズ51a)で撮影する場合、小領域の整数倍で細胞塊画像の撮影範囲を定義できるように、N=M=25とする。即ち、高倍率画像の撮像領域は、細胞スクリーニング画像P1の1/5の視野となるので、5×5の小領域で構成できる。撮影視野は、小領域の集合として定義する。そして、検出部813は、図13に示すように、細胞スクリーニング画像P1上での高倍率画像の相対的撮像範囲に相当する小領域の範囲を特定する。検出部813は、図13に示す場合、領域C1の範囲を特定する。
 続いて、検出部813は、各細胞塊について小領域毎に面積を算出し(ステップS503)、注目する細胞塊を決定する(ステップS504)。検出部813は、撮像素子55が4000×3000ピクセルで構成されている場合、図12に示す各小領域が160×120となるため、小領域毎に細胞塊の輪郭長と面積をピクセル単位で算出する。例えば、検出部813は、細胞塊C1について算出する(図13の表T1を参照)。
 続いて、検出部813は、小領域を最小単位とし、注目する細胞塊が撮像範囲に含まれる撮像範囲の候補を決定し(ステップS505)、撮像範囲候補内の細胞塊面積の合計を算出する(ステップS506)。
 その後、検出部813は、撮像範囲候補内の細胞塊面積の合計が規定の条件に合致する候補を選択する(ステップS507)。具体的には、検出部813は、相対面積が大きく、高倍率視野内に収まる細胞塊C2に注目し、細胞塊C2が高倍率の視野に対応する撮像範囲に収まり、周辺の細胞塊を含めた合計の細胞塊面積が視野の20%以上、50%以下とし、40%に最も近いものを選択する。例えば、検出部813は、図14~図16の撮像範囲D1~D3の中から視野候補A(図14)を選択する。なお、検出部813は、輪郭長の合計が所定のピクセル以上となるように撮影視野を決めてもよい。ステップS507の後、評価支援システム100は、図3のメインルーチンへ戻る。
 以上説明した実施の形態4によれば、撮像制御部812が検出部813の検出結果に基づいて、単一の細胞塊の面積が規定の面積に達していなくても周辺の細胞塊を撮影視野に含むように細胞塊に対する撮像部5の位置合わせを行うため、規定の面積を撮影視野内に収めることができ、評価精度の向上が期待できるので、観察者による細胞評価を支援することができる。
(実施の形態4の変形例1)
 次に、実施の形態4の変形例1について説明する。上述した実施の形態4では、複数の細胞塊を視野に収まるように撮像範囲を決定して撮像していたが、実施の形態4の変形例1では、複数の細胞塊のうち一つの領域面積が小さくなるように撮像範囲を決定して撮像する。以下においては、実施の形態4の変形例1に係る評価支援システムが実行する撮像範囲決定処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明を省略する。
 図17は、実施の形態4の変形例1に係る評価支援システム100が実行する撮像範囲決定処理の概要を示すフローチャートである。図18は、細胞スクリーニング画像の一例を示す図である。図19は、検出部813による撮像範囲決定方法(視野候補A)の一例を示す図である。図20は、検出部813による撮像範囲決定方法(視野候補B)の一例を示す図である。図21は、検出部813による撮像範囲決定方法(視野候補C)の一例を示す図である。なお、図18~図21において、白抜きの細胞塊領域は、面積が規定値以下の細胞小塊領域を表す。なお、図17におけるステップS601~ステップS605は、上述した図11のステップS501~ステップS505それぞれに対応する。
 ステップS606において、検出部813は、撮像範囲候補内で規定面積以下の細胞小塊領域の数をカウントする。
 続いて、検出部813は、撮像範囲候補内の細胞小塊領域の数が最も多い候補を選択する(ステップS607)。図18~図21において、検出部813は、細胞塊とセットで観察および評価するために、上述した実施例4と同様に相対面積が大きく、高倍率視野内に収まる細胞塊C2に注目する。この場合、検出部813は、細胞塊C2を撮影範囲内に収めるようにし、かつ独立した細胞小塊領域をできるだけ多く含む撮影範囲を選択する。具体的には、図19~図21の撮像範囲D1~D3に示す場合、検出部813は、視野領域Aを選択する。ステップS607の後、評価支援システム100は、図3のメインルーチンへ戻る。
 以上説明した実施の形態4の変形例1によれば、複数の細胞塊領域のうち、面積が予め設定された閾値以下となる細胞塊領域の数が撮像領域内において最も多くなるように細胞塊に対する撮像部5の位置合わせを行うため、細胞塊領域の面積が小さい孤在性細胞が評価対象に含まれることで評価精度の向上が期待できるので、観察者による細胞評価を支援することができる。
(実施の形態5)
 次に、実施の形態5について説明する。実施の形態5に係る評価支援システムは、上述した実施の形態1に係る評価支援システム100と構成が異なる上、実行する処理が異なる。具体的には、実施の形態5に係る評価支援システムは、高倍率画像から特徴量を抽出し、抽出した特徴量に応じた優先度順に表示する。以下においては、実施の形態5に係る評価支援システムの構成を説明後、評価支援システムが実行する処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔評価支援システムの構成〕
 図22は、実施の形態5に係る評価支援システムの機能構成を示すブロック図である。図22に示す評価支援システム100Bは、上述した実施の形態1に係る評価支援システム100の評価支援装置8に代えて、評価支援装置8Bを備える。評価支援装置8Bは、上述した実施の形態1に係る制御部81に代えて、制御部81Bを備える。制御部81Bは、上述した実施の形態1に係る制御部81の構成に加えて、算出部815をさらに備える。さらに、制御部81Bは、上述した表示制御部814に代えて、表示制御部814Aを備える。
 算出部815は、撮像部5が高い撮像倍率で撮像することによって生成した第2の画像データに基づく第2の画像に写る細胞塊領域の特徴量を算出する。具体的には、算出部815は、撮像部5が高倍率対物レンズ群51のいずれか一つを用いて撮像した第2の画像データに基づく高倍率画像から特徴量を抽出する。例えば、算出部815は、高倍率画像から輪郭の複雑度に関する特徴量を算出する。
 表示制御部814Aは、算出部815が算出した特徴量に基づいて、表示部6において表示する画像の表示位置を制御する。
 〔評価支援システムの処理〕
 次に、評価支援システム100Bが実行する処理について説明する。図23は、評価支援システム100Bが実行する処理の概要を示すフローチャートである。図24は、表示部6が表示する画面の一例を示す図である。図23において、ステップS701~ステップS711は、上述したステップS101~ステップS111それぞれに対応する。
 ステップS712において、撮像制御部812は、撮像部5が生成した高倍率の細胞塊画像を検出部813および算出部815へ送信する。
 続いて、検出部813は、細胞塊領域を特定し、細胞塊領域と細胞が存在しない背景領域とを識別し(ステップS713)、細胞塊領域の座標情報を算出部815へ送信する(ステップS714)。
 その後、算出部815は、検出部813から入力された細胞塊領域の座標情報に基づいて、細胞塊領域の輪郭線に関する情報を抽出する(ステップS715)。具体的には、算出部815は、細胞塊領域の座標情報に基づいて、細胞塊領域の輪郭線「1」を算出する。そして、算出部815は、細胞塊領域の座標情報に基づいて、周知のクロージング処理により高周波成分を除去した輪郭線「2」を算出する。
 続いて、算出部815は、細胞塊領域の輪郭線に関する情報に基づいて、細胞塊領域の特徴量を算出する(ステップS716)。具体的には、算出部815は、上述したステップS715において算出した細胞塊領域の輪郭線「1」と輪郭線「2」との比を特徴量として算出する。
 その後、算出部815は、細胞塊領域の特徴量を高倍率の細胞塊画像(第2の画像)と対応付けて表示制御部814Aへ送信する(ステップS717)。
 続いて、表示制御部814Aは、細胞塊領域の特徴量に基づいて、高倍率の細胞塊画像の表示部6での表示を制御する(ステップS718)。図24に示すように、表示部6は、高倍率の細胞塊画像のサムネイルを表示するサムネイル表示領域61と、ユーザが選択したサムネイルの元画像を表示する拡大画像領域62と、を有する。表示制御部814Aは、サムネイル画像TM~サムネイル画像TM(N=3以上の整数)の各々に対応付けられた特徴量の大きさ(値)に従って昇順ないし降順にサムネイル表示領域61にソートして表示させる。なお、図24においては、サムネイル画像TMがユーザによって選択されており、表示制御部814によってサムネイル画像TMに対応する元画像ST1が拡大画像領域62に拡大表示されている。なお、表示制御部814Aは、複数の特徴量が存在する場合、ユーザが特徴量を選択できるよう選択アイコンを拡大画像領域62に表示してもよい。この場合、表示制御部814Aは、ユーザが入力部7を経由して選択した特徴量に応じてサムネイル画像をソートしてサムネイル表示領域61に表示する。さらに、表示制御部814Aは、複数の特徴量を選択できるようにし、かつ、複数の特徴量を統合するスコアを算出し、この統合したスコアに基づいてサムネイル画像をサムネイル表示領域61にソートするようにして表示してもよい。スコアの算出は、特徴量の和でもよいし、係数による重みづけや特定の算出式に基づくものであってもよい。
 なお、特定の細胞画像に対応する特徴量を基準とし、基準特徴量との差異で評価するため、例えば基準画像(細胞画像アトラスに掲載されるような正常細胞や悪性細胞の見本画像)を基準として評価することができる。これにより、熟練の病理医や細胞検査士のユーザは、正常な細胞画像と照らし合わせながら、現在の拡大画像と正常細胞との差分をパターン認識することで、がん細胞を検出することができる。正常な細胞画像は、アトラスの画像を記憶していたり、観察している細胞像のうち正常な部分と比較したりすることで取得する。病理医や細胞検査士のユーザは、予め比較対象としたい正常細胞画像を登録し、特徴量を抽出しておくことで、同様のことが実現でき、症例ごとに基準画像を変更するなど柔軟な対応を行うことができる。
 ステップS718の後、入力部7から終了を指示する指示信号が入力された場合(ステップS719:Yes)、評価支援システム100Bは、本処理を終了する。これに対して、入力部7から終了を指示する指示信号が入力されていない場合(ステップS719:No)、評価支援システム100Bは、上述したステップS718へ戻る。
 以上説明した実施の形態5によれば、表示制御部814Aが算出部815によって算出された特徴量に基づいて、表示部6における高倍率の細胞塊画像(第2の画像)の表示態様を制御するため、特徴量を表示に反映させることで観察者の評価精度向上が見込めるので、観察者による細胞評価を支援することができる。
 また、実施の形態5によれば、特徴量そのものを評価する場合、特定の基準において、いつも一定した評価を行うことができるうえ、評価値が絶対値なので、他の症例との比較も容易に行うことができる。
 また、実施の形態5によれば、表示部6の表示領域上でユーザが特定した患者の細胞画像を基準にする場合、観察視野内に同様の細胞がどれくらい存在するかを評価しやすくすることで、評価の精度および正確度を高めることができる。
 なお、実施の形態5では、算出部815が染色による色の分布に関する特徴量を算出し、表示制御部814Aが算出部815によって算出された特徴量の大小の値に基づいて、表示部6における画像のレイアウトを制御してもよい。Diff-Quik等のROSEにおいて多用される染色方法の一部では、色味の変化が少なく、細胞の重なりが染色濃度と相関がある場合が多い。このため、ユーザは、濃淡の評価をすることでZ方向の構造的な複雑度を評価することができる。即ち、濃度の濃い領域は、厚みがある一方、低い部分は、薄くなる。輪郭は、XY平面上に投影された細胞塊形状の複雑度である。染色濃度分布は、XZ平面またはYZ平面上の複雑度と考えることができる。
 また、実施の形態5では、算出部815が細胞塊の領域中で、染色濃度の最も高い場所と最も低い場所を通過する直線を特定し、直線上に存在する細胞塊領域の輝度(強度)を抽出した後、細胞塊の構造(立体構造を構成しているかどうか)を判定するための特徴量として、単位距離あたりの輝度増減の回数および輝度の平均変化量の少なくとも一方を算出してもよい。
(実施の形態5の変形例1)
 次に、実施の形態5の変形例1について説明する。実施の形態5の変形例1では、別の方法によって特徴量を算出する。
 図25は、算出部815による特徴量の算出方法を模式的に説明する図である。図26は、算出部815による特徴量の算出方法における画素Aと画素Bとの関係を説明する図である。
 算出部815は、細胞塊の領域内の染色濃度の周期性を表すテクスチャ評価指標を特徴量として算出する。具体的には、まず、算出部815は、RGB画像の輝度値に基づいて、グレースケール画像を生成する。そして、算出部815は、グレースケール画像について同時生起行列(Gray-Level Co-Occurrence Matrix:GLCM)を算出する。
 GLCMは、図25に示すように、グレースケールの輝度iを持つ画素Aと、変異δ=(r,θ)の相対的位置関係にある画素Bがグレースケールの輝度jであるような画素ペアの数Pδ(i,j)を要素とする行列である。
 例えば、図26に示すように、算出部815は、rが6、θが0,45,90,135deg.とした場合、画素Aから距離6にある4方向の画素Bについて(i,j)の輝度ピクセルの組をGLCMの該当する位置に足し合わせていく。算出部815は、画素Aから距離6にある4方向の画素Bについて(i,j)の輝度ピクセルの組をGLCMの該当する位置に足し合わせていく処理を画像中のすべての画素について行うことによってGLCMを構成する。GLCMには、背景部分の画素や濃く染色(濃染)されて細胞構造が判別しづらい画素を含む画素ペアもマッピングされている。
 このため、算出部815は、画像の背景(輝度が高い)や濃染箇所(輝度が低い)など解析対象として不適切な部分を除外するため、細胞の構造を明瞭に判別可能な画素が多く含まれると推定されるGLCMの部分行列Aを解析対象とする。算出部815は、以下の式(1)によって部分行列Aについて正規化を行う。
Figure JPOXMLDOC01-appb-M000001
 続いて、算出部815は、正規化行列Pについて、テクスチャ特徴量を算出する。テクスチャ特徴量は、例えば下の式(2)で求められるコントラスト等である。
Figure JPOXMLDOC01-appb-M000002
 以上説明した実施の形態5の変形例1によれば、解析する対象を絞ることで特徴量算出の速度と精度の向上が見込め、かつ、特徴量を表示に反映させることで観察者の評価精度向上が見込めるので、観察者による細胞評価を支援することができる。
(実施の形態6)
 次に、実施の形態6について説明する。実施の形態6に係る評価支援システムは、上述した実施の形態1に係る評価支援システム100と同一の構成を有し、実行する処理が異なる。具体的には、実施の形態6に係る評価支援システムは、対物レンズを切り替えずに撮像を行って視野領域が大きいスクリーニング画像を生成する。以下においては、実施の形態6に係る評価支援システムが実行する処理について説明する。なお、上述した実施の形態1に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔評価支援システムの処理〕
 図27は、実施の形態6に係る評価支援システムが実行する処理の概要を示すフローチャートである。図28は、評価支援システムが実行する処理時における動作を模式的に示す図である。
 図27に示すように、まず、撮像制御部812は、駆動機構3を駆動することによって、ステージ2を撮像位置へ移動させ(ステップS801)、細胞検体SPに対して合焦させるAF処理を実行する(ステップS802)。
 続いて、撮像制御部812は、撮像部5が細胞検体SPを撮像した画像データに基づく画像を取得し(ステップS803)、撮像枚数が規定枚数に達したか否かを判断する(ステップS804)、撮像制御部812によって撮像枚数が規定数に達したと判断された場合(ステップS804:Yes)、評価支援システム100は、後述するステップS805へ移行する。これに対して、撮像制御部812によって撮像枚数が規定数に達してないと判断された場合(ステップS804:No)、評価支援システム100は、上述したステップS801へ戻る。具体的には、図28に示すように、撮像制御部812は、スクリーニング時にステージ2を移動させながら、XY平面上の隣り合う位置の視野を移動しつつ、順次撮像していく。例えば、図28に示すように、撮像制御部812は、ステージ2を渦巻状に移動させ、撮像位置を変更しながら撮像部5に撮像させる。具体的には、撮像制御部812は、高倍率対物レンズ51a(20倍)の1本を用いる場合、図28に示すように、ステージ2を渦巻状に移動させて6×5の領域を撮像することによって、低倍率対物レンズ52a(4倍)の視野領域相当の領域を賄うことができる。
 ステップS805において、撮像制御部812は、検出部813に全ての撮像画像を送信する。
 続いて、検出部813は、各撮像画像について細胞が存在する細胞塊領域を特定し、細胞が存在しない背景領域を識別したマスク画像を生成する(ステップS806)。細胞塊が撮像画像の境界に存在する確率が必然的に高くなるので、境界に細胞塊があっても細胞塊領域を検出する必要がある。このため、検出部813は、各撮像画像に細胞塊領域と背景領域とを識別し、細胞塊領域を白、背景領域を黒で二値化したマスク画像を生成する。
 その後、検出部813は、全てのマスク画像を貼り合わせて撮像した全領域のマスク画像を生成する(ステップS807)。具体的には、検出部813は、全てのマスク画像を貼り合わせて撮像した全領域のマスク画像を生成する。
 続いて、検出部813は、全領域のマスク画像から細胞が存在する細胞塊領域を特定し、細胞が存在しない背景領域を識別する(ステップS808)。この場合、検出部813は、全てのマスク画像を貼り合わせて生成した全領域のマスク画像に対して、細胞塊領域と背景領域とを識別する。なお、検出部813は、マスク画像によらず、細胞塊の輪郭線のベクトル情報を元に、全領域のスクリーニング画像を生成してもよい。
 ステップS809~ステップS812は、上述した図3のステップS106、ステップS107、ステップ109、ステップS110それぞれに対応する。ステップS812の後、評価支援システム100は、本処理を終了する。
 以上説明した実施の形態6によれば、対物レンズを切り替えずに、高倍率対物レンズ52aの視野領域に対応する撮像領域内に細胞塊と背景領域とが入るよう撮像部5およびステージ2の少なくとも一方を制御することによって細胞塊に対する撮像部5の位置合わせを行うため、より簡便な装置構成で観察者による細胞評価を支援することができる。
(実施の形態6の変形例1)
 次に、実施の形態6の変形例1について説明する。実施の形態6の変形例1に係る評価支援システムは、上述した実施の形態6に係る評価支援システム100と同一の構成を有し、実行する処理が異なる。具体的には、実施の形態6の変形例1では、一枚撮像するごとに、撮像画像を領域検出部に送信し、マスク画像を生成する。以下においては、実施の形態6の変形例1に係る評価支援システムが実行する処理について説明する。なお、上述した実施の形態6に係る評価支援システム100と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔評価支援システムの処理〕
 図29は、実施の形態6の変形例1に係る評価支援システムが実行する処理の概要を示すフローチャートである。図29において、ステップS901~ステップS903は、上述したステップS801~ステップS803それぞれに対応する。
 ステップS904において、撮像制御部812は、撮像部5が生成した撮影画像を検出部813へ送信する。
 続いて、検出部813は、撮像画像について細胞が存在する細胞塊領域を特定し、細胞が存在しない背景領域を識別したマスク画像を生成し(ステップS905)、過去に貼り合わせたマスク画像に新規に生成したマスク画像を貼り合わせて、これまでに生成した全領域のマスク画像を生成する(ステップS906)。即ち、検出部813は、マスク画像を順次貼り合わせて全体のマスク画像を最新のものに更新する。
 その後、検出部813は、全体のマスク画像における細胞塊領域の数をカウントし(ステップS908)、細胞塊領域が規定個数に達したか否かを判断する(ステップS909)、検出部813によって細胞塊領域が規定個数に達したと判断された場合(ステップS909:Yes)、評価支援システム100は、後述するステップS910へ移行する。これに対して、検出部813によって細胞塊領域が規定個数に達していないと判断された場合(ステップS909:No)、評価支援システム100は、上述したステップS901へ戻る。
 ステップS910~ステップS913は、上述した図27のステップS809~ステップS812それぞれに対応する。ステップS913の後、評価支援システム100は、本処理を終了する。
 以上説明した実施の形態6の変形例1によれば、細胞塊領域が規定個数撮影された画像を観察者に提供することで細胞評価の精度向上が見込め、観察者による細胞評価を支援することができる。
(その他の実施の形態)
 上述した実施の形態1~6に開示されている複数の構成要素を適宜組み合わせることによって、種々の形態を形成することができる。例えば、上述した実施の形態1~6に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1~6で説明した構成要素を適宜組み合わせてもよい。
 また、実施の形態1~6において、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
 また、実施の形態1~6に係る評価支援システムに実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
 また、実施の形態1~6に係る評価支援システムに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、実施の形態1~6に係る評価支援システムに実行させるプログラムをインターネット等のネットワーク経由で提供または配布することができる。
 また、実施の形態1~6に係る評価支援システムでは、伝送ケーブルを経由して各種機器から信号を送信していたが、例えば有線である必要はなく、無線であってもよい。この場合、所定の無線通信規格(例えばWi-Fi(登録商標)やBluetooth(登録商標))に従って、各機器から信号を送信するようにすればよい。もちろん、他の無線通信規格に従って無線通信を行ってもよい。
 また、実施の形態1~6に係る評価支援システムでは、光学系が正立顕微鏡であったが、倒立顕微鏡であっても適用することができる。
 なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本開示を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
 以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本開示を実施することが可能である。
 1 スライドグラス
 2 ステージ
 3 駆動機構
 4 光源部
 5 撮像部
 6 表示部
 7 入力部
 8,8B 評価支援装置
 31 駆動部
 32 位置検出部
 51 高倍率対物レンズ群
 51a~51c 高倍率対物レンズ
 52 低倍率対物レンズ群
 52a~52c 低倍率対物レンズ
 53 切替部
 54 倍率検出部
 55 撮像素子
 100,100B 評価支援システム
 811 取得部
 812 撮像制御部
 813 検出部
 814,814A 表示制御部
 815 算出部
 SP 細胞検体

Claims (10)

  1.  移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出する検出部と、
     前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行う撮像制御部と、
     を備える、
     評価支援装置。
  2.  請求項1に記載の評価支援装置であって、
     前記撮像制御部は、
     前記撮像領域内における少なくとも1つの前記細胞塊領域の面積の値と、前記背景領域の面積の値と、の割合が予め設定された範囲内となるように前記細胞塊に対する前記撮像部の位置合わせを行う、
     評価支援装置。
  3.  請求項1に記載の評価支援装置であって、
     前記撮像制御部は、
     複数の前記細胞塊領域のうち最も面積が大きい前記細胞塊領域の輪郭線の全長の値および複数の前記細胞塊領域の各々の輪郭線の全長を合算した値の少なくとも一方が、予め設定された範囲内となるよう前記細胞塊に対する前記撮像部の位置合わせを行う、
     評価支援装置。
  4.  請求項1~3のいずれか一つに記載の評価支援装置であって、
     前記撮像制御部は、
     複数の前記細胞塊領域のうち、面積が予め設定された閾値以下となる前記細胞塊領域の数が前記撮像領域内において最も多くなるように前記細胞塊に対する前記撮像部の位置合わせを行う、
     評価支援装置。
  5.  請求項1~4のいずれか一つに記載の評価支援装置であって、
     前記撮像部が前記高い撮像倍率で撮像することによって生成した第2の画像データに基づく第2の画像に写る前記細胞塊領域の特徴量を算出する算出部と、
     前記第2の画像を表示部に表示させ、かつ、前記特徴量に基づいて、前記表示部における前記第2の画像の表示態様を制御する表示制御部と、
     をさらに備える、
     評価支援装置。
  6.  請求項5に記載の評価支援装置であって、
     前記検出部は、
     前記第2の画像に写る前記細胞塊の少なくとも一つに対して、前記細胞塊領域を検出し、
     前記算出部は、
     前記細胞塊領域内の染色による色の分布に関する情報に基づいて、前記特徴量を算出する、
     評価支援装置。
  7.  請求項1~6のいずれか一つに記載の評価支援装置であって、
     前記第1の画像の撮影倍率は、
     前記撮像部に設けられた所定の倍率の第1の対物レンズの倍率であり、
     前記第1の画像の撮像倍率よりも高い撮影倍率は、
     前記撮像部に設けられた所定の倍率より倍率が高い第2の対物レンズの倍率である、
     評価支援装置。
  8.  請求項1~7のいずれか一つに記載の評価支援装置と、
     前記ステージと、
     前記撮像部と、
     を備える、
     評価支援システム。
  9.  評価支援装置が実行する評価支援方法であって、
     移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出し、
     前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行う、
     評価支援方法。
  10.  評価支援装置に実行させるプログラムであって、
     移動可能なステージ上に載置された細胞検体を所定の画角を有する撮像部が撮像することによって生成した第1の画像データに基づく第1の画像に対して、複数の細胞からなる細胞塊が写る複数の細胞塊領域および前記細胞塊の写らない背景領域の少なくとも一方を検出させ、
     前記第1の画像の撮像倍率よりも高い撮像倍率によって前記撮像部に撮像させる際に、前記高い撮像倍率に対応する撮像領域内に前記細胞塊と前記背景領域とが入るよう前記撮像部および前記ステージの少なくとも一方を制御することによって前記細胞塊に対する前記撮像部の位置合わせを行わせる、
     プログラム。
     
PCT/JP2020/006372 2020-02-18 2020-02-18 評価支援装置、評価支援システム、評価支援方法およびプログラム WO2021166089A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006372 WO2021166089A1 (ja) 2020-02-18 2020-02-18 評価支援装置、評価支援システム、評価支援方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006372 WO2021166089A1 (ja) 2020-02-18 2020-02-18 評価支援装置、評価支援システム、評価支援方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2021166089A1 true WO2021166089A1 (ja) 2021-08-26

Family

ID=77390656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006372 WO2021166089A1 (ja) 2020-02-18 2020-02-18 評価支援装置、評価支援システム、評価支援方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2021166089A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122852A (ja) * 2010-12-08 2012-06-28 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2015133185A1 (ja) * 2014-03-04 2015-09-11 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122852A (ja) * 2010-12-08 2012-06-28 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2015133185A1 (ja) * 2014-03-04 2015-09-11 富士フイルム株式会社 細胞画像取得装置および方法並びにプログラム

Similar Documents

Publication Publication Date Title
EP3776458B1 (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
US20210224541A1 (en) Augmented Reality Microscope for Pathology
JP5490568B2 (ja) 顕微鏡システム、標本観察方法およびプログラム
JP5161052B2 (ja) 顕微鏡システム、標本観察方法およびプログラム
US10444486B2 (en) Systems and methods for detection of blank fields in digital microscopes
JP6453298B2 (ja) 細胞診標本を観察および解析するためのシステムおよび方法
JP5451552B2 (ja) 顕微鏡システム、標本観察方法およびプログラム
JP6053327B2 (ja) 顕微鏡システム、標本画像生成方法及びプログラム
JP2024019639A (ja) 顕微鏡システム、プログラム、及び、投影画像生成方法
JP6951753B2 (ja) 情報探索システム及びプログラム
JP2011002341A (ja) 顕微鏡システム、標本観察方法およびプログラム
CN102073133A (zh) 虚拟显微镜系统
US11416997B2 (en) Systems, methods, and apparatuses for image capture and display
JP2014228755A (ja) 顕微鏡システム、画像生成方法及びプログラム
JP2013174823A (ja) 画像処理装置、顕微鏡システム、及び画像処理方法
WO2014196097A1 (ja) 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法
US20200074628A1 (en) Image processing apparatus, imaging system, image processing method and computer readable recoding medium
WO2021166089A1 (ja) 評価支援装置、評価支援システム、評価支援方法およびプログラム
JP7090171B2 (ja) 画像処理装置の作動方法、画像処理装置、及び画像処理装置の作動プログラム
JP5648366B2 (ja) 顕微鏡制御装置及び領域判定方法
Darmawan et al. Integration of Microscopic Image Capturing System for Automatic Detection of Mycobacterium Tuberculosis Bacteria
JP2016166941A (ja) 合焦位置検出装置、合焦位置検出方法、撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920334

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920334

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP