WO2014192184A1 - 画像処理装置、画像処理方法、プログラム、及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
WO2014192184A1
WO2014192184A1 PCT/JP2013/081012 JP2013081012W WO2014192184A1 WO 2014192184 A1 WO2014192184 A1 WO 2014192184A1 JP 2013081012 W JP2013081012 W JP 2013081012W WO 2014192184 A1 WO2014192184 A1 WO 2014192184A1
Authority
WO
WIPO (PCT)
Prior art keywords
cell
image
cell candidate
candidate region
learning
Prior art date
Application number
PCT/JP2013/081012
Other languages
English (en)
French (fr)
Inventor
加藤 典司
熊澤 幸夫
英人 織田
尾崎 良太
Original Assignee
富士ゼロックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士ゼロックス株式会社 filed Critical 富士ゼロックス株式会社
Priority to CN201380075656.3A priority Critical patent/CN105121620A/zh
Priority to EP13886123.2A priority patent/EP3006551B1/en
Publication of WO2014192184A1 publication Critical patent/WO2014192184A1/ja
Priority to US14/830,157 priority patent/US10395091B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/5005Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/30Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration
    • C12M41/36Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration of biomass, e.g. colony counters or by turbidity measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, a program, and a storage medium.
  • fetal nucleated red blood cells NRBCs, hereinafter referred to as target cells
  • target cells fetal nucleated red blood cells
  • An object of the present invention is to enable learning of a discriminator for identifying presence / absence of a target cell in an image in a process in which a user performs cell inspection work.
  • the invention according to claim 1 for solving the above-mentioned problem is characterized in that a feature quantity extracting means for extracting an image feature quantity of an image of a cell candidate area in a captured image obtained by imaging a sample including a target cell, and the cell candidate area Based on the image feature amount of the image, identification means for identifying whether or not the target cell is captured in the cell candidate region by a previously learned classifier, and the target cell is captured in the cell candidate region Display means for displaying an image of the cell candidate area when the target cell is identified, and when the target cell is identified as being reflected in the cell candidate area, the target cell is reflected in the cell candidate area.
  • the classifier learning using an image processing apparatus comprising: a classifier learning unit that performs, based on the user's input to the reception unit has received.
  • the image processing device is the image processing device according to claim 1, wherein the discriminator learning means determines that the target cell is reflected in the cell candidate region by the user.
  • the classifier is trained by using the image feature amount of the image of the cell candidate region as a positive example learning sample.
  • the image processing apparatus is the image processing apparatus according to claim 1 or 2, wherein the discriminator learning means determines that the target cell is not shown in the cell candidate region. In this case, the discriminator learning is performed using the image feature amount of the image of the cell candidate region as a negative example learning sample.
  • the image processing device is the image processing device according to any one of claims 1 to 3, wherein the user determines that the target cell is reflected in the cell candidate region.
  • An update unit that identifies a contour region corresponding to a cell wall in the cell candidate region and updates the cell candidate region based on the identified contour region is further provided, wherein the classifier learning unit includes the updated cell The discriminator learning is performed using the image feature amount of the image of the candidate area.
  • the image processing device is the image processing device according to claim 1, wherein the feature amount extraction unit extracts an image feature amount of each of the plurality of cell candidate regions, and performs the identification.
  • An image of a part of the cell candidate area is displayed, and the receiving unit receives a user input regarding whether or not the target cell is shown in the cell candidate area displayed by the display unit, and the classifier learning unit
  • the learning of the discriminator using the image feature amount of the image of the cell candidate region displayed by the display unit as a learning sample is performed based on the user input received by the receiving unit.
  • the image processing apparatus, which cell candidate region is characterized by that gave further comprising means for storing information indicating whether displayed by the display means.
  • the invention according to claim 6 for solving the above-described problem is characterized in that a feature amount extraction unit that extracts an image feature amount of an image of a cell candidate region in a captured image obtained by imaging a sample including a target cell, the cell candidate region Based on the image feature quantity of the image, identification means for identifying whether or not the target cell is reflected in the cell candidate area by a previously learned classifier, the target cell is reflected in the cell candidate area Display means for displaying an image of the cell candidate area when identified, and whether or not the target cell is reflected in the cell candidate area when it is identified that the target cell is reflected in the cell candidate area An accepting means for accepting an input from the user, and when the target cell is identified in the cell candidate region, the image feature amount of the image of the cell candidate region is used as a learning sample.
  • the learning of the serial identifier, the classifier learning unit that performs, based on the user's input to the reception unit receives a program for causing a computer to function as a.
  • the invention according to claim 7 for solving the above-described problem is characterized in that a feature amount extracting means for extracting an image feature amount of an image of a cell candidate region in a captured image obtained by imaging a sample including a target cell, the cell candidate region Based on the image feature quantity of the image, identification means for identifying whether or not the target cell is reflected in the cell candidate area by a previously learned classifier, the target cell is reflected in the cell candidate area Display means for displaying an image of the cell candidate area when identified, and whether or not the target cell is reflected in the cell candidate area when it is identified that the target cell is reflected in the cell candidate area An accepting means for accepting an input from the user, and when the target cell is identified in the cell candidate region, the image feature amount of the image of the cell candidate region is used as a learning sample.
  • the learning of the serial identifier which is the receiving unit classifier learning unit, a computer-readable storage medium storing a program which causes a computer to function as performed on the basis of the user input accepted.
  • the invention according to claim 8 for solving the above-described problem includes a feature quantity extraction step of extracting an image feature quantity of an image of a cell candidate area in a captured image obtained by imaging a sample including a target cell, and the cell candidate area An identifying step for identifying whether or not the target cell is captured in the cell candidate region based on an image feature amount of the image of the image, and a target cell is captured in the cell candidate region. A display step for displaying an image of the cell candidate area when the target cell is identified, and when the target cell is identified as being captured in the cell candidate area, the target cell is captured in the cell candidate area.
  • the discrimination accuracy of the discriminator can be improved as compared with the case where this configuration is not provided.
  • FIG. 1 is a system configuration diagram of an image processing system 1 according to the present embodiment.
  • the image processing system 1 includes an optical microscope 2, an image processing device 4, and a display device 6.
  • the image processing device 4 is connected to each of the optical microscope 2 and the display device 6 so that data communication is possible.
  • the optical microscope 2 images a sample on a slide glass placed on a sample stage with a CCD camera via an optical system such as an objective lens.
  • a sample obtained by applying maternal blood on a slide glass and performing May-Giemsa staining is used as the sample.
  • fetal nucleated red blood cells in maternal blood are stained blue-violet.
  • nucleated red blood cells are referred to as target cells.
  • the image processing apparatus 4 is a personal computer, for example, and acquires a captured image (hereinafter referred to as a test image) captured by the optical microscope 2.
  • FIG. 2 shows an example of a test image.
  • the test image includes images of various cells included in the maternal blood.
  • a cell having a darkly colored nucleus is a target cell.
  • the nuclei of target cells are stained slightly darker than nuclei of other cells by May Giemsa staining.
  • the image processing device 4 identifies a cell candidate region where the target cell is highly likely to be captured by a previously learned classifier, and displays a list of images of each identified cell candidate region on the display device 6.
  • the display device 6 displays a list of images of each cell candidate region specified by the image processing device 4.
  • FIG. 3 is a diagram illustrating an example of a screen displayed on the display device 6. As shown in the figure, a list of images of the specified cell candidate regions is displayed on the screen. In this embodiment, each image is grouped into a predetermined number of groups, and a list of images belonging to a group selected from these is displayed. Here, a plurality of buttons 7 corresponding to each group are displayed at the left end of the screen. A list of images of the group corresponding to the button 7 clicked by the user of the image processing apparatus 4 (for example, an examining doctor) is displayed.
  • the user performs the cell inspection work while referring to the screen for the prenatal diagnosis. That is, the user views each image displayed on the screen. Then, from the images displayed on the screen, an image that is determined to have a target cell is selected. For example, the user clicks on an image that is determined to contain the target cell. By doing this, the user aims the objective lens near the cell shown in the selected image and starts extracting the target cell.
  • the discriminator is used to identify a cell candidate region where the target cell is likely to be captured.
  • learning samples are automatically acquired in the course of the cell inspection work described above, and learning of the discriminator using the learning samples is performed. Therefore, the user does not have to perform the work for acquiring the learning sample separately from the work of the cell test.
  • FIG. 4 is a functional block diagram showing a group of functions realized by the image processing apparatus 4.
  • the test image acquisition unit 8 the nucleus candidate region extraction unit 10
  • the test image storage unit 12 the cell size estimation unit 14, the cell candidate region determination unit 16, the image feature quantity calculation unit 18, the NRBC identification unit 20,
  • An identification model storage unit 22 a cell coordinate database 24, an identification result display unit 26, an identification result selection unit 28, a cell alignment unit 30, a learning sample acquisition unit 32, and a classifier learning unit 34 are realized.
  • a control means such as a microprocessor, a storage means such as a memory, an input / output means for transmitting / receiving data to / from an external device such as an operation accepting means for accepting a user operation.
  • a program stored in a storage medium (for example, an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, a flash memory, etc.).
  • the program may be supplied to the image processing apparatus 4 as a computer via a data communication network such as the Internet.
  • the test image acquisition unit 8 acquires data of a test image (see FIG. 2) captured by the optical microscope 2 from the optical microscope 2 and stores it in the test image storage unit 12.
  • the nucleus candidate region extraction unit 10 extracts a nucleus candidate region corresponding to the nucleus of the target cell from the test image. For example, the nucleus candidate region extraction unit 10 extracts a pixel block of significant pixels from the test image. Here, a significant pixel is a pixel whose pixel value (RGB value) is within a predetermined range. Then, the nucleus candidate area extraction unit 10 extracts a circumscribed rectangular area of each pixel block as a nucleus candidate area.
  • FIG. 5 shows an example of the pixel block 36 and the nucleus candidate region 38 extracted from the test image. A blackened portion indicates the pixel block 36.
  • the cell size estimation unit 14 estimates a cell size range (rectangular region) from a projection size of the nucleus candidate region 38 extracted by the nucleus candidate region extraction unit 10 onto the slide glass surface according to a predetermined relational expression.
  • the cell candidate region determination unit 16 determines a plurality of the cell candidate regions that may include the target cell based on the nucleus candidate region 38. That is, the cell candidate region determination unit 16 determines a plurality of rectangular regions having a size within the range estimated by the cell size estimation unit 14 as a region centered on a point in the nucleus candidate region 38. Determine as.
  • FIG. 6 shows an example of the cell candidate region 40. In FIG. 6, a cell candidate region 40 centered on a point in the upper left nucleus candidate region 38 is shown.
  • the image feature amount calculation unit 18 extracts an image feature amount from the image of the cell candidate region 40 for each cell candidate region 40.
  • an HOG Heistograms of Oriented Gradients
  • any information may be used as the image feature amount as long as it is information related to the feature of the image.
  • the image feature quantity calculation unit 18 may extract an image feature quantity from an enlarged image or a reduced image of the image of the cell candidate region 40.
  • the NRBC discriminating unit 20 uses, for each cell candidate region 40, a discriminator that learns in advance whether or not the target cell is reflected in the cell candidate region 40 based on the image feature amount of the image of the cell candidate region 40. Identify.
  • a discriminator for example, an AdaBoost discriminator and a support vector machine are used. Note that the model parameters of the discriminator are read from the discriminating model storage unit 22.
  • the NRBC identifying unit 20 registers the cell candidate region 40 identified as the target cell in the cell coordinate database 24.
  • FIG. 7 shows an example of the contents stored in the cell coordinate database 24.
  • the cell coordinate database 24 includes a region ID field, a coordinate data field, a display presence / absence field, and a selection presence / absence field.
  • the NRBC identifying unit 20 stores the ID of the cell candidate region 40 identified as having the target cell in the region ID field.
  • the NRBC identifying unit 20 stores coordinate data indicating the cell candidate region 40 identified as having the target cell in the coordinate data field in association with the ID of the cell candidate region 40.
  • the coordinate data includes the position coordinates of the representative point (for example, the center or the upper left vertex) of the cell candidate region 40 and the size (length of one side) of the cell candidate region 40.
  • the NRBC identifying unit 20 displays the value of the displayed flag indicating whether or not the image of the cell candidate area 40 identified as the target cell is displayed in association with the ID of the cell area 40.
  • the value “0” indicates that the image of the cell candidate region 40 has not been displayed, and the value “1” indicates that the image of the cell candidate region 40 has been displayed.
  • the value “0” indicates that the user has not viewed the image of the cell candidate region 40, and the value “1” indicates that the user has viewed the image of the cell candidate region 40. Initially, the value “0” is stored.
  • the NRBC identifying unit 20 associates the value of the selected flag indicating whether or not the image of the cell candidate region 40 identified as the target cell is captured by the user with the ID of the cell region 40.
  • the value “0” indicates that the image of the cell candidate region 40 has not been selected, and the value “1” indicates that the image of the cell candidate region 40 has been selected.
  • the value “0” indicates that the user has determined that the target cell is not captured in the cell candidate region 40, and the value “1” is that the user determines that the target cell is captured in the cell candidate region 40. Indicates that Initially, the value “0” is stored.
  • the cell candidate area 40 registered in the cell coordinate database 24 will be referred to as a registered cell candidate area 40 and the description will be continued.
  • the identification result display unit 26 displays an image of the registered cell candidate region 40 on the display device 6.
  • the registered cell candidate areas 40 registered in the cell coordinate database 24 are grouped into a predetermined number of groups, and images of the registered cell candidate areas 40 of the groups selected by the user among these groups are listed. Is displayed (see FIG. 3). Therefore, an image of at least a part of the registered cell candidate regions 40 among the registered cell candidate regions 40 registered in the cell coordinate database 24 is displayed.
  • the identification result display unit 26 updates the value of the displayed flag associated with the ID of the registered cell candidate area 40 displayed on the display device 26 to “1”.
  • the identification result selection unit 28 receives a user input regarding whether or not the target cell is shown in the registered cell candidate area 40.
  • region 40 displayed on the display apparatus 6 is received.
  • the identification result selection unit 28 selects at least one registered cell candidate region 40 from the registered cell candidate regions 40 displayed on the display device 6 by the user (here, the registered cell candidate region 40). Click on the image).
  • the registered cell candidate area 40 that the user himself / herself has determined that the target cell is shown is selected.
  • the identification result selection unit 28 updates the value of the selected flag associated with the ID of the registered cell candidate region 40 selected by the user to “1”.
  • the cell alignment unit 30 analyzes the image of the registered cell candidate region 40 when the user determines that the target cell is reflected in the registered cell candidate region 40, and based on the analysis result, the registered cell candidate region 40 is updated. Specifically, the cell alignment unit specifies and specifies a cell wall region corresponding to the contour of the cell wall in the registered cell candidate region 40 according to a known contour extraction algorithm for the registered cell candidate region 40 selected by the user. The registered cell candidate area 40 is updated based on the cell wall area. For example, the cell alignment unit 30 may update the registered cell candidate region 40 to a circumscribed rectangular region of the cell wall region. For example, the cell alignment unit 30 may update the registered cell candidate region 40 so that the center of the registered cell candidate region 40 matches the center (center of gravity) of the cell wall region. Alternatively, the center of gravity of the nucleus candidate region 38 may be set as a rectangle including the cell wall region.
  • the learning sample acquisition unit 32 acquires the image feature amount of the image of the registered cell candidate region 40 in the same manner as the image feature amount calculation unit 18. In the present embodiment, the learning sample acquisition unit 32 acquires an image feature amount regarding the displayed registered cell candidate region 40. Specifically, the learning sample acquisition unit 32 refers to the cell coordinate database 24 and identifies the registered cell candidate region 40 whose displayed flag value is “1”, and an image of the identified registered cell candidate region 40 image. Extract features.
  • the discriminator learning unit 34 learns the discriminator using the image feature amount acquired by the learning sample acquisition unit 32 as a learning sample. Further, the model parameter obtained as a learning result is stored in the identification model storage unit 22. The learning sample is also called learning data.
  • learning of the classifier is performed based on the user input received by the identification result selection unit 28. That is, when the user determines that the target cell is shown in the registered cell candidate region 40, the image feature amount of the image of the registered cell candidate region 40 acquired by the learning sample acquisition unit 32 is used as a positive example learning sample. Used. That is, the image feature amount of the image of the registered cell candidate region 40 whose selected flag value is “1” is used as a positive example learning sample. On the other hand, when the user determines that the target cell is not shown in the registered cell candidate region 40, the image feature amount of the image of the registered cell candidate region 40 acquired by the learning sample acquisition unit 32 is a negative learning sample. Used.
  • the image feature amount of the image of the registered cell candidate region 40 whose selected flag value is “0” is used as a negative example learning sample.
  • the discriminator may be learned by only one of the positive example learning sample and the negative example learning sample. In addition, learning of the discriminator may be performed only in a part of the positive example and the negative example.
  • the learning sample is acquired by the learning sample acquisition unit 32 and the discriminator learning unit 34 in the process of performing the cell examination, and the discriminator is learned by using the learning sample. Is called. Further, in this image processing device 4, not all images of the cell candidate regions 40 are used as learning samples, but only images that are identified as target cell images by the NRBC identifying unit are used as learning samples. Therefore, the identification accuracy of the classifier can be improved.
  • FIG. 8 and 9 are flowcharts showing an example of processing executed by the image processing apparatus 4.
  • the image processing apparatus 4 acquires a test image (see FIG. 2) from the optical microscope 2 by the test image acquisition unit 8 (S101).
  • the test image is stored in the test image storage unit 12.
  • the image processing apparatus 4 extracts a plurality of nucleus candidate regions 38 by the nucleus candidate region extracting unit 10 (S102).
  • S102 the image processing apparatus 4 creates a binary image in which the pixel value of the pixel within the predetermined range of the RGB value in the test image is “1” and the pixel value of the other pixel is “0”. Generate.
  • the image processing apparatus 4 specifies a pixel block 36 (see FIG. 5) of a pixel having a pixel value “1”, and extracts a circumscribed rectangular region of each pixel block 36 as a nucleus candidate region 38.
  • the image processing apparatus 4 sequentially selects each nucleus candidate region 38 as the nucleus candidate region (i), and executes steps S103 to S110 for the nucleus candidate region (i). That is, the image processing apparatus 4 uses the cell size estimation unit 14 to calculate the size (length of one side) of the cell candidate region 40 according to a predetermined relational expression from the projection size of the nucleus candidate region (i) onto the slide glass surface. The minimum value Smin and the maximum value Smax are calculated (S103). Further, the image processing device 4 sets the value of the size S of the cell candidate region 40 to the minimum value Smin (S104).
  • the image processing apparatus 4 sequentially selects each pixel in the nucleus candidate region (i) as a pixel (k), and executes steps S105 to S108 for the pixel (k). That is, the image processing apparatus 4 sets the cell candidate region 40 having a size S centered on the pixel (k) by the cell candidate region determining unit 16 (S105). Then, the image processing device 4 calculates the image feature amount of the image of the cell candidate region 40 by the image feature amount extraction unit 18 (S106). For example, in S106, the image processing apparatus 4 calculates the HOG feature amount of the image of the cell candidate region 40.
  • the image processing apparatus 4 uses the NRBC identifying unit 20 to identify whether or not the target cell is shown in the cell candidate region 40 based on the image feature amount calculated in S106 (S107). That is, the image processing apparatus 4 reads out the model parameters from the identification model storage unit 22 and identifies whether or not the target cell is captured in the cell candidate region 40 by the classifier based on the image feature amount calculated in S106. . Specifically, in S106, the image processing apparatus 4 inputs the calculated image feature amount to the classifier and obtains an output value of the classifier.
  • the output value is equal to or greater than the threshold value, it is identified that the target cell is reflected in the cell candidate region 40, and when the output value is less than the threshold value, it is identified that the target cell is not reflected in the cell candidate region 40. It will be done.
  • the image processing apparatus 4 registers the cell candidate area 40 in the cell coordinate database 24 (see FIG. 7) by the NRBC identifying unit 20. (S108). That is, in S108, the image processing apparatus 4 stores a record including the ID of the cell candidate region 40, the coordinate data of the cell candidate region 40, the value “0” of the displayed flag, and the value “0” of the selected flag in the cell coordinate database. 24. Then, the image processing device 4 executes the steps after S105 with the next pixel as the pixel (k). On the other hand, when it is not identified that the target cell is shown in the cell candidate area 40 (N in S107), the registration of the cell candidate area 40 is not performed, and the steps after S105 are performed with the next pixel as the pixel (k). Execute.
  • the image processing apparatus 4 increments the size S by ⁇ S in S109 (S109), and the incremented size S exceeds Smax. It is determined whether or not (S110). When the incremented size S exceeds Smax (Y in S110), the image processing apparatus 4 executes the steps after S103 with the next candidate nuclear region 38 as the candidate nuclear region (i). On the other hand, if the incremented size S does not exceed Smax (N in S110), the steps S105 to S108 are re-executed for all the pixels in the nucleus candidate region (i).
  • a plurality of cell candidate regions 40 that are identified as having the target cell reflected are registered in the cell coordinate database 24.
  • the registered cell candidate regions 40 are grouped into a predetermined number of groups.
  • the processing shown in FIG. 9 is performed after the processing shown in FIG. Steps S201 to S203 are performed each time the user selects a group by clicking the button 7 (see FIG. 3). That is, the image processing device 4 displays a list of images of the registered cell candidate regions 40 of the group selected by the user on the display device 6 by the identification result display unit 26 (S201).
  • the image processing device 4 updates the value of the displayed flag corresponding to the registered cell candidate region 40 displayed on the display device to “1” by the identification result display unit 26 (S202). In addition, the image processing device 4 selects the selected flag corresponding to the selected registered cell candidate region 40 each time the user selects (clicks) an image of any registered cell candidate region 40 by the identification result selection unit 28. Is updated to “1” (S203).
  • the steps after S204 are executed, for example, when the user performs a predetermined learning instruction operation.
  • the image processing apparatus 4 performs alignment processing by the cell alignment unit 30 (S204). That is, in the alignment process, the image processing apparatus 4 specifies the registered cell candidate region 40 whose selected flag value is “1” with reference to the cell coordinate database 24. In addition, by reading out the test image from the test image storage unit 12 and analyzing the identified image of the registered cell candidate region 40 according to a known contour extraction algorithm, the cell wall corresponding to the contour of the cell wall in the registered cell candidate region 40 Identify the area. Further, the specified registered cell candidate region 40 is updated based on the cell wall region.
  • the image processing apparatus 4 may update the specified registered cell candidate area 40 to a circumscribed rectangular area of the cell wall area. Further, for example, the image processing apparatus 4 may update the registered cell candidate region 40 so that the center of the specified registered cell candidate region 40 and the center (center of gravity) of the cell wall region match. Further, the registered cell candidate region 40 may be updated to a rectangle including the cell wall region with the center of gravity of the nucleus candidate region 38 as the center. The update of the registered cell candidate area 40 is realized by updating the coordinate data of the registered cell candidate area 40 stored in the cell coordinate database 24.
  • the image processing apparatus 4 acquires the image feature amount of the image of the displayed registered cell candidate region 40 by the learning sample acquisition unit 32 (S205). That is, in S205, the image processing apparatus 4 refers to the cell coordinate database 24, identifies the registered cell candidate region 40 whose displayed flag value is “1”, and image characteristics of the image of the identified registered cell candidate region 40. The amount is calculated in the same manner as in step S106.
  • the image processing device 4 learns the discriminator by using the image feature amount acquired in S205 as a learning sample by the discriminator learning unit 34 (S206), and identifies the model parameter obtained as a learning result. Save in the model storage unit 22.
  • the image of the registered cell candidate region 40 whose selected flag value is “1” is used as a positive example learning sample, otherwise it is a negative example. Used as a learning sample.
  • the embodiment of the present invention is not limited to the above embodiment.
  • nucleated red blood cells are target cells
  • cells other than nucleated red blood cells may be target cells. That is, the present invention can also be applied when cells other than nucleated red blood cells are target cells.
  • the cell alignment unit 30 is not necessarily required and may be omitted. That is, step S205 may be omitted.
  • 1 image processing system 1 image processing system, 2 optical microscope, 4 image processing device, 6 display device, 7 button, 8 test image acquisition unit, 10 nucleus candidate region extraction unit, 12 test image storage unit, 14 cell size estimation unit, 16 cell candidate region Determination unit, 18 image feature amount calculation unit, 20 NRBC identification unit, 22 identification model storage unit, 24 cell coordinate database, 26 identification result display unit, 28 identification result selection unit, 30 cell alignment unit, 32 learning sample acquisition unit, 34 discriminator learning unit, 36 pixel block, 38 nucleus candidate region, 40 cell candidate region.

Abstract

 ユーザが細胞検査の作業を行う過程で、画像における標的細胞の有無を識別する識別器の学習が行われるようにするため、画像特徴量算出部18は、細胞候補領域の画像の画像特徴量を抽出する。NRBC識別部20は、細胞候補領域の画像の画像特徴量に基づいて、細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する。識別結果表示部26は、細胞候補領域に標的細胞が写っていると識別された場合に、細胞候補領域の画像を表示する。識別器学習部34は、細胞候補領域に標的細胞が写っていると識別された場合に、細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、細胞候補領域に標的細胞が写っているか否かに関するユーザの入力に基づいて行う。

Description

画像処理装置、画像処理方法、プログラム、及び記憶媒体
 本発明は、画像処理装置、画像処理方法、プログラム、及び記憶媒体に関する。
 出生前の胎児の診断を行う場合に、母体血中に極微量に含まれる胎児由来の有核赤血球(NRBCs、以下標的細胞)を検出し、利用することが行われている。母体血中に存在するNRBCsの数は極めて少ないため、NRBCsを目視により検出するのは負担が大きい。そこで、下記の特許文献1に記載されているように、NRBCsの色、形状、位置関係、面積比等の条件に合致する細胞を対象画像から探索することにより、NRBCsを機械的に検出する技術が提案されている。
特許第4346923号公報
 本発明の目的は、ユーザが細胞検査の作業を行う過程で、画像における標的細胞の有無を識別する識別器の学習が行われるようにすることである。
 上記課題を解決するための請求項1に記載の発明は、標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段と、前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段と、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段と、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段と、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段と、を含む画像処理装置である。
 また、請求項2に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記識別器学習手段が、前記細胞候補領域に前記標的細胞が写っているとユーザにより判断された場合、前記細胞候補領域の画像の画像特徴量を正例の学習サンプルとして用いて前記識別器の学習を行うこと、を特徴としている。
 また、請求項3に記載の画像処理装置は、請求項1又は2に記載の画像処理装置において、前記識別器学習手段が、前記細胞候補領域に前記標的細胞が写っていないとユーザにより判断された場合、前記細胞候補領域の画像の画像特徴量を負例の学習サンプルとして用いて前記識別器の学習を行うことを特徴としている。
 また、請求項4に記載の画像処理装置は、請求項1乃至3のいずれかに記載の画像処理装置に、前記細胞候補領域に前記標的細胞が写っているとユーザにより判断された場合に、前記細胞候補領域のうちで細胞壁に対応する輪郭領域を特定し、特定した輪郭領域に基づいて前記細胞候補領域を更新する更新手段をさらに備えさせ、前記識別器学習手段が、更新後の前記細胞候補領域の画像の画像特徴量として用いて前記識別器の学習を行うこと、を特徴としている。
 また、請求項5に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記特徴量抽出手段が、複数の前記細胞候補領域それぞれの画像の画像特徴量を抽出し、前記識別手段が、各細胞候補領域につき、その細胞候補領域に前記標的細胞が写っているか否かを識別し、前記表示手段が、前記標的細胞が写っていると識別された細胞候補領域のうちの少なくとも一部の細胞候補領域の画像を表示し、前記受付手段が、前記表示手段により表示された細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付け、前記識別器学習手段が、前記表示手段により表示された細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行い、前記画像処理装置に、前記表示手段によりどの細胞候補領域が表示されたかを示す情報を記憶する手段をさらに備えさせたことを特徴としている。
 上記課題を解決するための請求項6に記載の発明は、標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段、前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段、としてコンピュータを機能させるためのプログラムである。
 上記課題を解決するための請求項7に記載の発明は、標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段、前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段、としてコンピュータを機能させるプログラムを記録したコンピュータ読み取り可能な記憶媒体である。
 上記課題を解決するための請求項8に記載の発明は、標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出ステップと、前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別ステップと、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示ステップと、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付ステップと、前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付ステップにて受け付けたユーザの入力に基づいて行う識別器学習ステップと、を含む画像処理方法である。
 請求項1、6、7、8の発明によれば、ユーザが細胞検査の作業を行う過程で、画像における標的細胞の有無を識別する識別器の学習が行われるようにすることができる。
 請求項2、3の発明によれば、本構成を有しない場合と比較して、識別器の識別精度を向上させることができる。
 請求項4の発明によれば、位置やサイズの揃った学習サンプルを取得できる。
 請求項5の発明によれば、学習に用いる細胞候補領域を指定する手間を省くことができる。
本実施形態に係る画像処理システムのシステム構成図を示す図である。 テスト画像の一例を示す図である。 表示装置に表示される画面を示す図である。 画像処理装置で実現される機能群を示す機能ブロック図である。 画素塊及び核候補領域の一例を示す図である。 細胞候補領域の例を示す図である。 細胞座標データベースの記憶内容の一例を示す図である。 画像処理装置が実行する処理の一例を示すフロー図である。 画像処理装置が実行する処理の一例を示すフロー図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。
 図1は、本実施形態に係る画像処理システム1のシステム構成図を示す。図1に示すように、画像処理システム1は、光学顕微鏡2、画像処理装置4、表示装置6を含む。画像処理装置4は、光学顕微鏡2と表示装置6の各々とデータ通信可能に接続されている。
 光学顕微鏡2は、試料台に配置されたスライドグラス上の試料を、対物レンズ等の光学系を介してCCDカメラで撮像する。本実施形態では、試料には、母体血をスライドグラスに塗布し、メイ・ギムザ染色を施したものを用いる。これにより、母体血中の胎児由来有核赤血球が青紫色に染色される。以下、有核赤血球を標的細胞と称する。
 画像処理装置4は、例えばパーソナルコンピュータであり、光学顕微鏡2に撮像された撮像画像(以下、テスト画像と表記する)を取得する。図2は、テスト画像の一例を示す。図2に示すように、テスト画像は、母体血中に含まれる各種細胞の画像を含む。濃く着色された核を有する細胞が標的細胞である。なお、標的細胞(有核赤血球)の核は、メイ・ギムザ染色により他の細胞の核よりわずかに濃く染色される。
 また、画像処理装置4は、予め学習された識別器により標的細胞が写っている可能性が高い細胞候補領域を特定し、特定した細胞候補領域それぞれの画像の一覧を表示装置6に表示する。
 表示装置6は、画像処理装置4により特定された細胞候補領域それぞれの画像の一覧を表示する。図3は、表示装置6に表示される画面の一例を示す図である。同図に示すように、画面には、特定された細胞候補領域の画像の一覧が表示される。本実施形態では、各画像が所定数のグループにグループ分けされており、これらのうちから選択されたグループに属する画像の一覧が表示される。ここでは、画面の左端に、各グループに対応する複数のボタン7が表示される。画像処理装置4のユーザ(例えば、検査医師)によりクリックされたボタン7に対応するグループの画像の一覧が表示される。
 ユーザは、出生前診断にあたり、画面を参照しながら細胞検査の作業を行う。すなわち、ユーザは、画面に表示される各画像を目視する。そして、画面に表示される画像のうちで、標的細胞が写っていると判断した画像を選択する。例えば、ユーザは、標的細胞が写っていると判断した画像をクリックする。こうすることで、ユーザは、選択した画像に写っている細胞付近に対物レンズの照準を合わせ、標的細胞の抽出に取りかかる。
 標的細胞が写っている可能性が高い細胞候補領域の特定に識別器が使用されることは上述した。この画像処理システム1では、以上で説明した細胞検査の作業の過程で、自動的に学習サンプルが取得され、これを用いた上記識別器の学習が行われるようになっている。そのため、学習サンプルの取得のための作業をユーザが細胞検査の作業とは別個に行わなくても済むようになっている。
 以下、細胞検査の作業の過程で、上記識別器の学習が行われるようにするための技術について説明する。
 図4は、画像処理装置4で実現される機能群を示す機能ブロック図である。画像処理装置4では、テスト画像取得部8、核候補領域抽出部10、テスト画像保存部12、細胞サイズ推定部14、細胞候補領域決定部16、画像特徴量算出部18、NRBC識別部20、識別モデル保存部22、細胞座標データベース24、識別結果表示部26、識別結果選択部28、細胞位置合わせ部30、学習サンプル取得部32、及び識別器学習部34が実現される。これらの機能は、マイクロプロセッサ等の制御手段、メモリ等の記憶手段、ユーザの操作を受け付ける操作受付手段等の外部デバイスとデータを送受信する入出力手段等を備えたコンピュータが、コンピュータ読み取り可能な情報記憶媒体(例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等)に格納されるプログラムを読み込み実行することで実現される。なお、プログラムは、インターネット等のデータ通信網を介してコンピュータたる画像処理装置4に供給されてもよい。
 以下、各機能について説明する。テスト画像取得部8は、光学顕微鏡2で撮像されたテスト画像(図2参照)のデータを光学顕微鏡2から取得し、テスト画像保存部12に保存する。
 核候補領域抽出部10は、テスト画像のうちで、標的細胞の核に対応する核候補領域を抽出する。例えば、核候補領域抽出部10は、テスト画像のうちで、有意な画素の画素塊を抽出する。ここで、有意な画素とは、画素値(RGB値)が予め定めた範囲内にある画素のことである。そして、核候補領域抽出部10は、各画素塊の外接矩形領域を核候補領域として抽出する。図5に、テスト画像から抽出された画素塊36及び核候補領域38の一例を示した。黒く塗りつぶされている部分が画素塊36を示している。
 細胞サイズ推定部14は、核候補領域抽出部10により抽出された核候補領域38のスライドグラス面への射影サイズから、予め定められた関係式により細胞サイズの範囲(矩形領域)を推定する。
 細胞候補領域決定部16は、核候補領域38に基づいて、標的細胞を含む可能性のある複数の上記細胞候補領域を決定する。すなわち、細胞候補領域決定部16は、核候補領域38内の点を中心とする領域であって、細胞サイズ推定部14により推定された範囲内のサイズを有する複数の矩形領域を、細胞候補領域として決定する。図6に細胞候補領域40の例を示した。図6では、左上の核候補領域38内の点を中心とする細胞候補領域40が示されている。
 画像特徴量算出部18は、細胞候補領域40ごとに、その細胞候補領域40の画像から画像特徴量を抽出する。ここでは、画像特徴量としてHOG(Histograms of Oriented Gradients)特徴量が算出されることとするが、画像の特徴に関する情報であれば、画像特徴量としてどのような情報が用いられてもよい。なお、画像特徴量算出部18は、細胞候補領域40の画像の拡大画像又は縮小画像から画像特徴量を抽出してもよい。
 NRBC識別部20は、細胞候補領域40ごとに、その細胞候補領域40の画像の画像特徴量に基づいて、その細胞候補領域40に標的細胞が写っているか否かを予め学習された識別器により識別する。識別器としては例えばアダブースト(AdaBoost)識別器及びサポートベクターマシン(Support Vector Machine)等が用いられる。なお、識別器のモデルパラメータは、識別モデル保存部22から読み出される。
 また、NRBC識別部20は、標的細胞が写っていると識別した細胞候補領域40を細胞座標データベース24に登録する。図7に、細胞座標データベース24の記憶内容の一例を示した。同図に示すように、細胞座標データベース24は、領域IDフィールド、座標データフィールド、表示有無フィールド、及び選択有無フィールドを含む。NRBC識別部20は、標的細胞が写っていると識別した細胞候補領域40のIDを領域IDフィールドに格納する。また、NRBC識別部20は、標的細胞が写っていると識別した細胞候補領域40を示す座標データを、その細胞候補領域40のIDに関連づけて座標データフィールドに格納する。座標データは、細胞候補領域40の代表点(例えば、中心又は左上頂点)の位置座標と、細胞候補領域40のサイズ(一辺の長さ)と、を含む。
 また、NRBC識別部20は、標的細胞が写っていると識別した細胞候補領域40の画像が表示済であるか否かを示す表示済フラグの値を、その細胞領域40のIDに関連づけて表示有無フィールドに格納する。値「0」は、細胞候補領域40の画像が表示済でないことを示し、値「1」は、細胞候補領域40の画像が表示済であることを示す。言い換えれば、値「0」は、ユーザが細胞候補領域40の画像を目視済でないことを示し、値「1」は、ユーザが細胞候補領域40の画像を目視済であることを示す。最初は、値「0」が格納される。また、NRBC識別部20は、標的細胞が写っていると識別した細胞候補領域40の画像がユーザにより選択済であるか否かを示す選択済フラグの値を、その細胞領域40のIDに関連づけて選択有無フィールドに格納する。値「0」は、細胞候補領域40の画像が選択済でないことを示し、値「1」は、細胞候補領域40の画像が選択済であることを示す。言い換えれば、値「0」は、細胞候補領域40に標的細胞が写っていないとユーザが判断したことを示し、値「1」は、細胞候補領域40に標的細胞が写っているとユーザが判断したことを示す。最初は、値「0」が格納される。
 細胞座標データベース24に登録された細胞候補領域40を登録細胞候補領域40と称して、説明を続ける。
 識別結果表示部26は、登録細胞候補領域40の画像を表示装置6に表示する。本実施形態では、細胞座標データベース24に登録されている登録細胞候補領域40が所定数のグループにグループ化され、これらのグループのうちユーザにより選択されたグループの登録細胞候補領域40の画像が一覧表示される(図3参照)。そのため、細胞座標データベース24に登録されている登録細胞候補領域40のうちの少なくとも一部の登録細胞候補領域40の画像が表示される。
 また、識別結果表示部26は、表示装置26に表示した登録細胞候補領域40のIDに関連づけられた表示済フラグの値を「1」に更新する。
 識別結果選択部28は、登録細胞候補領域40に標的細胞が写っているか否かに関するユーザの入力を受け付ける。本実施形態では、表示装置6に表示された登録細胞候補領域40につき、標的細胞が写っているか否かに関するユーザの入力を受け付ける。具体的には、識別結果選択部28は、ユーザによる、表示装置6に表示された登録細胞候補領域40のうちからの少なくとも1つの登録細胞候補領域40の選択(ここでは、登録細胞候補領域40の画像のクリック)、を受け付ける。標的細胞が写っているとユーザ自身が判断した登録細胞候補領域40が選択される。また、識別結果選択部28は、ユーザが選択した登録細胞候補領域40のIDに関連づけられた選択済フラグの値を「1」に更新する。
 細胞位置合わせ部30は、登録細胞候補領域40に標的細胞が写っているとユーザにより判断された場合に、該登録細胞候補領域40の画像を解析し、解析結果に基づいて該登録細胞候補領域40を更新する。具体的に、細胞位置合わせ部は、ユーザが選択した登録細胞候補領域40に関し、該登録細胞候補領域40のうちで細胞壁の輪郭に対応する細胞壁領域を公知の輪郭抽出アルゴリズムに従って特定し、特定した細胞壁領域に基づいて該登録細胞候補領域40を更新する。例えば、細胞位置合わせ部30は、登録細胞候補領域40を細胞壁領域の外接矩形領域へと更新してよい。また、例えば、細胞位置合わせ部30は、登録細胞候補領域40の中心と細胞壁領域の中心(重心)とが一致するように、該登録細胞候補領域40を更新してよい。また、核候補領域38の重心を中心とし、細胞壁領域を含む矩形に設定してもよい。
 学習サンプル取得部32は、登録細胞候補領域40の画像の画像特徴量を、画像特徴量算出部18と同様にして取得する。本実施形態では、学習サンプル取得部32は、表示済の登録細胞候補領域40に関し、画像特徴量を取得する。具体的に、学習サンプル取得部32は、細胞座標データベース24を参照して表示済フラグの値が「1」である登録細胞候補領域40を特定し、特定した登録細胞候補領域40の画像の画像特徴量を抽出する。
 識別器学習部34は、学習サンプル取得部32により取得された画像特徴量を学習サンプルとして用いて、上記識別器の学習を行う。また、学習結果として得られたモデルパラメータを識別モデル保存部22に保存する。なお、学習サンプルは学習データとも呼ばれる。
 ここで、上記識別器の学習は、識別結果選択部28が受け付けたユーザの入力に基づき行われる。すなわち、登録細胞候補領域40に標的細胞が写っているとユーザが判断した場合、学習サンプル取得部32により取得された該登録細胞候補領域40の画像の画像特徴量は、正例の学習サンプルとして用いられる。つまり、選択済フラグの値が「1」である登録細胞候補領域40の画像の画像特徴量は、正例の学習サンプルとして用いられる。一方、登録細胞候補領域40に標的細胞が写っていないとユーザが判断した場合、学習サンプル取得部32により取得された該登録細胞候補領域40の画像の画像特徴量は、負例の学習サンプルとして用いられる。つまり、選択済フラグの値が「0」である登録細胞候補領域40の画像の画像特徴量は、負例の学習サンプルとして用いられる。なお、正例の学習サンプル及び負例の学習サンプルの一方のみで、上記識別器の学習が行われてもよい。また、上記正例および負例の一部のみで、上記識別器の学習が行われてもよい。
 このように、この画像処理装置4では、学習サンプル取得部32及び識別器学習部34により、細胞検査の作業が行われる過程で、学習サンプルが取得され、それを用いて識別器の学習が行われる。また、この画像処理装置4では、すべての細胞候補領域40の画像が学習サンプルとして用いられるのではなく、NRBC識別部により標的細胞の画像であると識別された画像のみが学習サンプルとして用いられる。よって、識別器の識別精度の向上も図られる。
 図8及び図9は、画像処理装置4が実行する処理の一例を示すフロー図である。まず、図8について説明する。画像処理装置4は、テスト画像取得部8により光学顕微鏡2からテスト画像(図2参照)を取得する(S101)。また、テスト画像をテスト画像保存部12に保存する。そして、画像処理装置4は、核候補領域抽出部10により核候補領域38を複数抽出する(S102)。すなわち、S102で画像処理装置4は、テスト画像中のRGB値が予め定められた範囲内の画素の画素値を「1」とし、他の画素の画素値を「0」とした二値画像を生成する。また、S102で画像処理装置4は、画素値が「1」の画素の画素塊36(図5参照)を特定し、各画素塊36の外接矩形領域を核候補領域38として抽出する。
 そして、画像処理装置4は、一つ一つの核候補領域38を核候補領域(i)として順番に選択し、核候補領域(i)につきS103~S110のステップを実行する。すなわち、画像処理装置4は、細胞サイズ推定部14により、核候補領域(i)のスライドグラス面への射影サイズから、予め定められた関係式に従って細胞候補領域40のサイズ(一辺の長さ)の最小値Smin及び最大値Smaxを算出する(S103)。また、画像処理装置4は、細胞候補領域40のサイズSの値を最小値Sminに設定する(S104)。
 そして、画像処理装置4は、核候補領域(i)内の画素一つ一つを画素(k)として順番に選択し、画素(k)につきS105~S108のステップを実行する。すなわち、画像処理装置4は、細胞候補領域決定部16により画素(k)を中心とするサイズSの細胞候補領域40を設定する(S105)。そして、画像処理装置4は、画像特徴量抽出部18により細胞候補領域40の画像の画像特徴量を算出する(S106)。例えば、S106で画像処理装置4は、細胞候補領域40の画像のHOG特徴量を算出する。
 そして、画像処理装置4は、NRBC識別部20により、細胞候補領域40に標的細胞が写っているか否かを、S106で算出した画像特徴量に基づき識別する(S107)。すなわち、画像処理装置4は、識別モデル保存部22からモデルパラメータを読み出し、S106で算出した画像特徴量に基づいて、上記識別器により細胞候補領域40に標的細胞が写っているか否かを識別する。具体的に、S106で画像処理装置4は、算出した画像特徴量を識別器に入力し、識別器の出力値を得る。例えば、出力値が閾値以上であるとき細胞候補領域40に標的細胞が写っていると識別されたことになり、出力値が閾値未満であるとき細胞候補領域40に標的細胞が写っていないと識別されたことになる。
 細胞候補領域40に標的細胞が写っていると識別された場合(S107のY)、画像処理装置4は、NRBC識別部20により、細胞候補領域40を細胞座標データベース24(図7参照)に登録する(S108)。すなわち、S108で画像処理装置4は、細胞候補領域40のID、細胞候補領域40の座標データ、表示済フラグの値「0」、及び選択済フラグの値「0」を含むレコードを細胞座標データベース24に格納する。そして、画像処理装置4は、次の画素を画素(k)としてS105以降のステップを実行する。一方、細胞候補領域40に標的細胞が写っていると識別されなかった場合(S107のN)、細胞候補領域40の登録を行わずに、次の画素を画素(k)としてS105以降のステップを実行する。
 S105~S108のステップが核候補領域(i)内の全画素につき実行されると、S109で画像処理装置4は、サイズSをΔSだけインクリメントし(S109)、インクリメントされたサイズSがSmaxを超えたか否かを判定する(S110)。インクリメントされたサイズSがSmaxを超えた場合(S110のY)、画像処理装置4は、次の核候補領域38を核候補領域(i)としてS103以降のステップを実行する。一方、インクリメントされたサイズSがSmaxを超えていない場合(S110のN)、核候補領域(i)内の全画素につきS105~S108のステップを再実行する。
 図8に示す処理により、標的細胞が写っていると識別された複数の細胞候補領域40が細胞座標データベース24に登録される。登録細胞候補領域40は所定数のグループにグループ分けされる。
 図9に示す処理は、図8に示す処理の後に行われる。S201~S203のステップは、ボタン7(図3参照)のクリックによりユーザがグループを選択するたびに行われる。すなわち、画像処理装置4は、識別結果表示部26により、ユーザが選択したグループの登録細胞候補領域40の画像の一覧を、表示装置6に表示する(S201)。
 また、画像処理装置4は、識別結果表示部26により、表示装置に表示された登録細胞候補領域40に対応する表示済フラグの値を「1」に更新する(S202)。また、画像処理装置4は、識別結果選択部28により、いずれかの登録細胞候補領域40の画像をユーザが選択(クリック)するたびに、選択された登録細胞候補領域40に対応する選択済フラグの値を「1」に更新する(S203)。
 S204以降のステップは、例えばユーザが所定の学習指示操作を行った場合に実行される。画像処理装置4は、細胞位置合わせ部30により、位置合わせ処理を実行する(S204)。すなわち、位置合わせ処理において画像処理装置4は、選択済フラグの値が「1」である登録細胞候補領域40を細胞座標データベース24を参照して特定する。また、テスト画像保存部12からテスト画像を読み出し、特定した登録細胞候補領域40の画像を公知の輪郭抽出アルゴリズムに従い解析することで、該登録細胞候補領域40のうちで細胞壁の輪郭に対応する細胞壁領域を特定する。また、特定した登録細胞候補領域40を細胞壁領域に基づいて更新する。例えば、画像処理装置4は、特定した登録細胞候補領域40を細胞壁領域の外接矩形領域へと更新してよい。また、例えば、画像処理装置4は、特定した登録細胞候補領域40の中心と細胞壁領域の中心(重心)とが一致するように、該登録細胞候補領域40を更新してよい。また、核候補領域38の重心を中心とし、細胞壁領域を含む矩形に該登録細胞候補領域40を更新してもよい。登録細胞候補領域40の更新は、細胞座標データベース24に格納される該登録細胞候補領域40の座標データの更新により実現される。
 また、画像処理装置4は、表示済の登録細胞候補領域40の画像の画像特徴量を、学習サンプル取得部32により取得する(S205)。すなわち、S205で画像処理装置4は、細胞座標データベース24を参照して表示済フラグの値が「1」である登録細胞候補領域40を特定し、特定した登録細胞候補領域40の画像の画像特徴量をS106のステップと同様にして算出する。
 そして、画像処理装置4は、識別器学習部34により、S205で取得された画像特徴量を学習サンプルとして用いて上記識別器の学習を行い(S206)、学習結果として得られたモデルパラメータを識別モデル保存部22に保存する。学習の際、S205で取得された画像特徴量のうち選択済フラグの値が「1」である登録細胞候補領域40の画像によるものは、正例の学習サンプルとして用いられ、それ以外は負例の学習サンプルとして用いられる。
 なお、本発明の実施形態は、上記実施形態だけに限らない。例えば、以上では、有核赤血球が標的細胞である場合について述べたが、有核赤血球以外の細胞が標的細胞であってもよい。すなわち、本発明は、有核赤血球以外の細胞が標的細胞である場合にも適用可能である。
 例えば、細胞位置合わせ部30は必ずしも必要ではなく、省略されてもよい。すなわち、S205のステップが省略されてもよい。
 1 画像処理システム、2 光学顕微鏡、4 画像処理装置、6 表示装置、7 ボタン、8 テスト画像取得部、10 核候補領域抽出部、12 テスト画像保存部、14 細胞サイズ推定部、16 細胞候補領域決定部、18 画像特徴量算出部、20 NRBC識別部、22 識別モデル保存部、24 細胞座標データベース、26 識別結果表示部、28 識別結果選択部、30 細胞位置合わせ部、32 学習サンプル取得部、34 識別器学習部、36 画素塊、38 核候補領域、40 細胞候補領域。

Claims (8)

  1.  標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段と、
     前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段と、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段と、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段と、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段と、
     を含む画像処理装置。
  2.  前記識別器学習手段は、
     前記細胞候補領域に前記標的細胞が写っているとユーザにより判断された場合、前記細胞候補領域の画像の画像特徴量を正例の学習サンプルとして用いて前記識別器の学習を行うこと、
     を特徴とする請求項1に記載の画像処理装置。
  3.  前記識別器学習手段は、
     前記細胞候補領域に前記標的細胞が写っていないとユーザにより判断された場合、前記細胞候補領域の画像の画像特徴量を負例の学習サンプルとして用いて前記識別器の学習を行うこと、
     を特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記細胞候補領域に前記標的細胞が写っているとユーザにより判断された場合に、前記細胞候補領域のうちで細胞壁に対応する輪郭領域を特定し、特定した輪郭領域に基づいて前記細胞候補領域を更新する更新手段をさらに含み、
     前記識別器学習手段は、
     更新後の前記細胞候補領域の画像の画像特徴量として用いて前記識別器の学習を行うこと、
     を特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
  5.  前記特徴量抽出手段は、
     複数の前記細胞候補領域それぞれの画像の画像特徴量を抽出し、
     前記識別手段は、
     各細胞候補領域につき、その細胞候補領域に前記標的細胞が写っているか否かを識別し、
     前記表示手段は、
     前記標的細胞が写っていると識別された細胞候補領域のうちの少なくとも一部の細胞候補領域の画像を表示し、
     前記受付手段は、
     前記表示手段により表示された細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付け、
     前記識別器学習手段は、
     前記表示手段により表示された細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行い、
     前記画像処理装置は、
     前記表示手段によりどの細胞候補領域が表示されたかを示す情報を記憶する手段をさらに含むこと、
     を特徴とする請求項1に記載の画像処理装置。
  6.  標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段、
     前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段、
     としてコンピュータを機能させるプログラム。
  7.  標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出手段、
     前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付手段、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付手段が受け付けたユーザの入力に基づいて行う識別器学習手段、
     としてコンピュータを機能させるプログラムを記録したコンピュータ読み取り可能な記憶媒体。
  8.  標的細胞を含む試料を撮像した撮像画像内の細胞候補領域の画像の画像特徴量を抽出する特徴量抽出ステップと、
     前記細胞候補領域の画像の画像特徴量に基づいて、前記細胞候補領域に前記標的細胞が写っているか否かを、予め学習された識別器により識別する識別ステップと、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像を表示する表示ステップと、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの入力を受け付ける受付ステップと、
     前記細胞候補領域に前記標的細胞が写っていると識別された場合に、前記細胞候補領域の画像の画像特徴量を学習サンプルとして用いた前記識別器の学習を、前記受付ステップにて受け付けたユーザの入力に基づいて行う識別器学習ステップと、
     を含む画像処理方法。
     
PCT/JP2013/081012 2013-05-31 2013-11-18 画像処理装置、画像処理方法、プログラム、及び記憶媒体 WO2014192184A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380075656.3A CN105121620A (zh) 2013-05-31 2013-11-18 图像处理设备、图像处理方法、程序和存储介质
EP13886123.2A EP3006551B1 (en) 2013-05-31 2013-11-18 Image processing device, image processing method, program, and storage medium
US14/830,157 US10395091B2 (en) 2013-05-31 2015-08-19 Image processing apparatus, image processing method, and storage medium identifying cell candidate area

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013115443A JP2014235494A (ja) 2013-05-31 2013-05-31 画像処理装置及びプログラム
JP2013-115443 2013-05-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/830,157 Continuation US10395091B2 (en) 2013-05-31 2015-08-19 Image processing apparatus, image processing method, and storage medium identifying cell candidate area

Publications (1)

Publication Number Publication Date
WO2014192184A1 true WO2014192184A1 (ja) 2014-12-04

Family

ID=51988244

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081012 WO2014192184A1 (ja) 2013-05-31 2013-11-18 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Country Status (5)

Country Link
US (1) US10395091B2 (ja)
EP (1) EP3006551B1 (ja)
JP (1) JP2014235494A (ja)
CN (1) CN105121620A (ja)
WO (1) WO2014192184A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021009906A1 (ja) * 2019-07-18 2021-01-21 株式会社島津製作所 細胞画像解析方法および細胞画像解析装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223412A1 (en) * 2016-06-24 2017-12-28 Beckman Coulter, Inc. Image atlas systems and methods
CN110366707A (zh) * 2016-11-04 2019-10-22 医学诊断公司 用于通过卷积字典学习和编码进行全息无透镜成像中的对象检测的系统和方法
WO2018123607A1 (ja) * 2016-12-27 2018-07-05 ソニー株式会社 対空標識、画像処理装置、画像処理方法、及び、プログラム
JPWO2018128091A1 (ja) * 2017-01-05 2019-11-07 コニカミノルタ株式会社 画像解析プログラム及び画像解析方法
JP7009864B2 (ja) * 2017-09-20 2022-01-26 カシオ計算機株式会社 輪郭検出装置及び輪郭検出方法
JP7054436B2 (ja) * 2017-12-14 2022-04-14 オムロン株式会社 検出システム、情報処理装置、評価方法及びプログラム
JP6947905B2 (ja) * 2018-02-15 2021-10-13 ヤマハ発動機株式会社 撮像システム及び生体対象物移動装置
EP3844781A4 (en) 2018-08-30 2022-05-11 Applied Materials, Inc. SYSTEM FOR AUTOMATIC DETECTION AND CLASSIFICATION OF TUMORS

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4346923B2 (ja) 2003-02-21 2009-10-21 晴夫 高林 標的細胞自動探索システム
JP2012080802A (ja) * 2010-10-08 2012-04-26 Hitachi High-Technologies Corp 細菌コロニーの釣菌方法及び釣菌装置
WO2012091056A1 (ja) * 2010-12-28 2012-07-05 エスシーワールド株式会社 血液中の標的細胞の検査方法、標的細胞検索装置、及びバイオチップ
JP2012254042A (ja) * 2011-06-09 2012-12-27 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313532A (en) * 1990-01-23 1994-05-17 Massachusetts Institute Of Technology Recognition of patterns in images
JPH07319681A (ja) * 1994-05-23 1995-12-08 Nec Corp 例示によるプログラミング方式
JP2002541438A (ja) * 1999-02-18 2002-12-03 バイオ−ヴィユー リミテッド 混合細胞個体群内の希少な細胞型の同定及び分析用システム及び方法
US6859802B1 (en) * 1999-09-13 2005-02-22 Microsoft Corporation Image retrieval based on relevance feedback
US7958063B2 (en) * 2004-11-11 2011-06-07 Trustees Of Columbia University In The City Of New York Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector
US20080253611A1 (en) * 2007-04-11 2008-10-16 Levi Kennedy Analyst cueing in guided data extraction
WO2009072098A1 (en) * 2007-12-04 2009-06-11 University College Dublin, National University Of Ireland Method and system for image analysis
JP2009237640A (ja) * 2008-03-26 2009-10-15 National Institute Of Information & Communication Technology 情報抽出装置、情報抽出方法および情報抽出プログラム
JP5266476B2 (ja) * 2009-07-23 2013-08-21 日本電信電話株式会社 行動記録保存システム、サーバ装置、行動記録保存方法及びコンピュータプログラム
US20110286654A1 (en) * 2010-05-21 2011-11-24 Siemens Medical Solutions Usa, Inc. Segmentation of Biological Image Data
JP5804194B2 (ja) * 2012-03-30 2015-11-04 コニカミノルタ株式会社 医用画像処理装置及びプログラム
CN104718552B (zh) * 2012-09-13 2017-11-28 多伦多大学理事会 用于胎儿和母体红细胞计数的系统和方法
US8908945B2 (en) * 2012-10-22 2014-12-09 General Electric Company Biological unit identification based on supervised shape ranking
EP2731051A1 (en) * 2012-11-07 2014-05-14 bioMérieux Bio-imaging method
JP2015031831A (ja) * 2013-08-02 2015-02-16 オリンパス株式会社 細胞追跡装置及び方法、細胞追跡プログラム
WO2015112932A1 (en) * 2014-01-25 2015-07-30 Handzel Amir Aharon Automated histological diagnosis of bacterial infection using image analysis
CA2944829C (en) * 2014-05-23 2022-10-25 Ting Chen Systems and methods for detection of biological structures and/or patterns in images
JP6650453B2 (ja) * 2014-12-03 2020-02-19 ベンタナ メディカル システムズ, インコーポレイテッド 早期癌予知のための計算病理学システム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4346923B2 (ja) 2003-02-21 2009-10-21 晴夫 高林 標的細胞自動探索システム
JP2012080802A (ja) * 2010-10-08 2012-04-26 Hitachi High-Technologies Corp 細菌コロニーの釣菌方法及び釣菌装置
WO2012091056A1 (ja) * 2010-12-28 2012-07-05 エスシーワールド株式会社 血液中の標的細胞の検査方法、標的細胞検索装置、及びバイオチップ
JP2012254042A (ja) * 2011-06-09 2012-12-27 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KOSUKE AOKI ET AL.: "Auto-Detection of Nucleated Red Blood Cells from Massive Microscopy Images", THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN, vol. 37, no. 5, 2008, pages 609 - 616, XP008175854 *
MASAKO SUZUKI ET AL.: "ENRICHMENT AND AUTOMATED DETECTION OF NRBC FROM MATERNAL BLOOD", JOURNAL OF THE SHOWA MEDICAL ASSOCIATION, vol. 72, no. 4, 2012, pages 471 - 478, XP008180999 *
See also references of EP3006551A4
YOSUKE SHIMIZU ET AL.: "Detection and Retrieval of Nucleated Red Blood Cells Using Linear Subspaces", THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN, vol. 40, no. 1, 2011, pages 67 - 73, XP008175840 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021009906A1 (ja) * 2019-07-18 2021-01-21 株式会社島津製作所 細胞画像解析方法および細胞画像解析装置
JPWO2021009906A1 (ja) * 2019-07-18 2021-01-21
JP7342950B2 (ja) 2019-07-18 2023-09-12 株式会社島津製作所 細胞画像解析方法および細胞画像解析装置

Also Published As

Publication number Publication date
CN105121620A (zh) 2015-12-02
EP3006551A1 (en) 2016-04-13
EP3006551B1 (en) 2019-11-13
US20150356342A1 (en) 2015-12-10
EP3006551A4 (en) 2017-02-15
US10395091B2 (en) 2019-08-27
JP2014235494A (ja) 2014-12-15

Similar Documents

Publication Publication Date Title
WO2014192184A1 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US9934571B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
US10445876B2 (en) Methods and systems for assessing cell morphology
US9704017B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
US10169861B2 (en) Image processing apparatus, non-transitory computer readable medium, and image processing method
US11226280B2 (en) Automated slide assessments and tracking in digital microscopy
WO2014087689A1 (ja) 画像処理装置、画像処理システム及びプログラム
US20220012884A1 (en) Image analysis system and analysis method
WO2014196097A1 (ja) 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法
CN112703531A (zh) 生成组织图像的注释数据
WO2017145172A1 (en) System and method for extraction and analysis of samples under a microscope
JP2014235033A (ja) 画像処理装置及びプログラム
US10146042B2 (en) Image processing apparatus, storage medium, and image processing method
JP2013142859A (ja) 画像処理装置、画像処理方法、プログラム及びデジタル顕微鏡システム
CN115345828A (zh) 一种基于人工智能算法的免疫荧光染色图片病灶标识方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886123

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013886123

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE