WO2022004198A1 - 病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム - Google Patents

病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム Download PDF

Info

Publication number
WO2022004198A1
WO2022004198A1 PCT/JP2021/019793 JP2021019793W WO2022004198A1 WO 2022004198 A1 WO2022004198 A1 WO 2022004198A1 JP 2021019793 W JP2021019793 W JP 2021019793W WO 2022004198 A1 WO2022004198 A1 WO 2022004198A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
pathological diagnosis
evaluation information
fibrosis
fibrotic
Prior art date
Application number
PCT/JP2021/019793
Other languages
English (en)
French (fr)
Inventor
俊弼 富永
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022533741A priority Critical patent/JP7436666B2/ja
Priority to CN202180045590.8A priority patent/CN115769073A/zh
Priority to EP21833599.0A priority patent/EP4177605A4/en
Publication of WO2022004198A1 publication Critical patent/WO2022004198A1/ja
Priority to US18/146,030 priority patent/US20230125525A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/68Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving proteins, peptides or amino acids
    • G01N33/6893Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving proteins, peptides or amino acids related to diseases not provided for elsewhere
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2800/00Detection or diagnosis of diseases
    • G01N2800/08Hepato-biliairy disorders other than hepatitis
    • G01N2800/085Liver diseases, e.g. portal hypertension, fibrosis, cirrhosis, bilirubin
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Definitions

  • the technology of the present disclosure relates to a pathological diagnosis support device, an operation method of the pathological diagnosis support device, and an operation program of the pathological diagnosis support device.
  • a pathologist observes a specimen collected from a living tissue under a microscope and visually evaluates the degree of fibrosis.
  • a pathologist observes a specimen collected from a living tissue under a microscope and visually evaluates the degree of fibrosis.
  • an evaluation method imposes a heavy burden on the pathologist.
  • the evaluation may change depending on the skill level of the pathologist.
  • Non-Patent Document 1 an image of a sample (hereinafter referred to as a sample image) is image-analyzed by a computer to detect a fibrotic region, and an area occupancy rate of the fibrotic region is derived for pathology.
  • a method of presenting to a user such as a doctor has been proposed.
  • Non-Patent Document 1 uses a specimen image of a specimen in which a fibrotic region is stained with a dye such as Sirius red. Then, the fibrous region is detected by comparing the pixel values of each RGB (Red, Green, Blue) color channel of the sample image with the threshold value set in advance by the user.
  • RGB Red, Green, Blue
  • the fibrotic region is not uniformly dyed in the same color by dyeing with a dye such as sirius red.
  • a dye such as sirius red.
  • the hue changes depending on the surrounding environment such as the density of the pigment or the temperature and humidity.
  • the hue changes depending on the device for taking the sample image. Therefore, the method of detecting the fibrotic region by a simple comparison between the pixel value of each RGB color channel of the sample image and the threshold value as in Non-Patent Document 1 has low detection accuracy of the fibrotic region.
  • the pathological diagnosis support device of the present disclosure includes at least one processor, in which the processor is a sample image of a sample of a living tissue stained with a dye, and pixels of a plurality of color channels.
  • the processor is a sample image having a value is acquired, and a fibrotic region of a living tissue is detected by comparing the ratio of the pixel values of two color channels among a plurality of color channels with a preset threshold value, and the detected fibrosis. Based on the chemical region, evaluation information indicating the degree of fibrosis of living tissue is derived, and the evaluation information is output.
  • the processor calculates the ratio of the pixel values of the two color channels corresponding to the two color regions having a relatively large difference in absorption rate in the absorption spectrum of the dye.
  • the processor derives the evaluation information separately for the perivascular region including the perimeter of the blood vessel passing through the living tissue and the non-perivascular region other than the perivascular region.
  • the specimen was taken from the liver, and the processor derives evaluation information separately for the pericentral vein region including the perimeter of the central vein passing through the liver and the non-vascular perivascular region.
  • the processor preferably derives numerical values for at least one of the area and length of the fibrotic region as evaluation information.
  • the processor performs compression processing on the acquired sample image and then detects the fibrotic region.
  • the method of operating the pathological diagnosis support device of the present disclosure is a sample image of a sample of a living tissue stained with a dye, an acquisition process for acquiring a sample image having pixel values of a plurality of color channels, and a plurality of colors.
  • the processor executes a derivation process for deriving evaluation information indicating the degree of fibrosis and an output process for outputting the evaluation information.
  • the operation program of the pathological diagnosis support device of the present disclosure is a sample image of a specimen of a living tissue stained with a dye, an acquisition process for acquiring a sample image having pixel values of a plurality of color channels, and a plurality of colors.
  • the processor is made to execute the derivation process for deriving the evaluation information indicating the degree of fibrosis and the output process for outputting the evaluation information.
  • a pathological diagnosis support device an operation method of the pathological diagnosis support device, and an operation program of the pathological diagnosis support device capable of improving the detection accuracy of the fibrotic region.
  • FIG. 29A is a diagram showing another example of the evaluation information of the third embodiment
  • FIG. 29A is an evaluation information including an area occupancy rate and a length ratio of a fibrotic region in the portal vein peripheral region
  • FIG. The evaluation information including the number of the number and the number of PC bridging is shown respectively.
  • the pathological diagnosis is performed, for example, through the following steps.
  • a biopsy needle 10 is pierced into the liver LV from outside the body of patient P, and an elongated sample 11 is collected from the liver LV.
  • the sample 11 is embedded in paraffin, it is sliced into a plurality of sections 12 by a microtome, and the sliced sections 12 are attached to the glass 13.
  • the paraffin is removed, the section 12 is stained with a dye, and the stained section 12 is covered with a cover glass 14 to complete the specimen 20.
  • Sirius Red is used as the dye.
  • the liver LV is an example of "living tissue" according to the technique of the present disclosure.
  • Each specimen 20 is set in an imaging device (not shown) such as a digital optical microscope and photographed.
  • the sample image 21 of each sample 20 thus obtained is input to the pathological diagnosis support device 25 as the sample image group 21G.
  • a patient ID (Identification Data) for uniquely identifying the patient P, a shooting date and time, and the like are attached to the sample image 21.
  • the sample image 21 is a full-color image.
  • the pixel value is, for example, a numerical value in the range of 0 to 255.
  • the sample image 21 shows the sample 20 including the section 12.
  • Section 12 has a vascular region 32 and a parenchymal region 33.
  • the vascular region 32 is a region of blood vessels passing through the liver LV, such as the portal vein and the central vein.
  • the vascular region 32 is hollow in section 12.
  • the parenchymal region 33 is a region in which hepatocytes of liver LV are present.
  • fibrotic regions 35 are present in places of the perivascular region 36, which is the region surrounding the blood vessel region 32, and the parenchymal region 33.
  • a fibrotic region 35 connecting the two blood vessels that is, crosslinkable fibrosis, is also seen so as to be surrounded by the frame 37 of the two-dot chain line.
  • Crosslinkable fibrosis is called PP bridging when the two blood vessels are both in the area of the portal vein and PC bridging when the two blood vessels are in the portal vein and the central vein.
  • the pathological diagnosis support device 25 is, for example, a desktop personal computer, and has a display 40 and an input device 41.
  • the input device 41 is a keyboard, a mouse, a touch panel, or the like.
  • the pathological diagnosis support device 25 analyzes the sample image 21 and detects the fibrotic region 35. Then, the evaluation information 71 (see FIG. 3 and the like) such as the area occupancy of the fibrosis region 35 is derived, and the evaluation information 71 is displayed on the display 40.
  • the computer constituting the pathological diagnosis support device 25 includes a storage device 45, a memory 46, a CPU (Central Processing Unit) 47, and a communication unit 48 in addition to the display 40 and the input device 41 described above. .. These are interconnected via a bus line 49.
  • a storage device 45 a memory 46, a CPU (Central Processing Unit) 47, and a communication unit 48 in addition to the display 40 and the input device 41 described above. ..
  • a CPU Central Processing Unit
  • the storage device 45 is a hard disk drive built in the computer constituting the pathological diagnosis support device 25, or connected via a cable or a network. Alternatively, the storage device 45 is a disk array in which a plurality of hard disk drives are connected. The storage device 45 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of the hard disk drive.
  • the memory 46 is a work memory for the CPU 47 to execute a process.
  • the CPU 47 comprehensively controls each part of the computer by loading the program stored in the storage device 45 into the memory 46 and executing the processing according to the program.
  • the communication unit 48 is a network interface that controls transmission of various information via a network such as a LAN (Local Area Network).
  • the display 40 displays various screens.
  • the computer constituting the pathological diagnosis support device 25 receives input of an operation instruction from the input device 41 through various screens.
  • the operation program 55 is stored in the storage device 45 of the pathological diagnosis support device 25.
  • the operation program 55 is an application program for making the computer function as the pathological diagnosis support device 25. That is, the operation program 55 is an example of the "operation program of the pathological diagnosis support device" according to the technique of the present disclosure.
  • the storage device 45 also stores the sample image group 21G, the threshold value TH, and the like.
  • the CPU 47 of the computer constituting the pathological diagnosis support device 25 cooperates with the memory 46 and the like to read / write (hereinafter abbreviated as RW (Read Write)) control unit 60 and receive instructions. It functions as a unit 61, a detection unit 62, a derivation unit 63, and a display control unit 64.
  • the CPU 47 is an example of a "processor" according to the technique of the present disclosure.
  • the RW control unit 60 controls the storage of various data in the storage device 45 and the reading of various data in the storage device 45.
  • the RW control unit 60 receives the sample image group 21G transmitted from the photographing device and stores it in the storage device 45. Further, the RW control unit 60 reads out the sample image group 21G in which the user's instruction for image analysis via the input device 41 is received by the instruction reception unit 61 from the storage device 45, and the detection unit 62, the derivation unit 63, and the derivation unit 63. Output to the display control unit 64. That is, the RW control unit 60 is responsible for the "acquisition process" according to the technique of the present disclosure. The user gives an instruction for image analysis via the input device 41, for example, by inputting and designating the patient ID and the shooting date and time attached to the sample image 21.
  • the RW control unit 60 reads the threshold value TH from the storage device 45 and outputs it to the detection unit 62.
  • the instruction receiving unit 61 receives various instructions by the user via the input device 41.
  • the various instructions include the aforementioned image analysis instructions.
  • the detection unit 62 detects the fibrosis region 35 from each of the plurality of sample images 21 constituting the sample image group 21G based on the threshold value TH. That is, the detection unit 62 is responsible for the "detection process" according to the technique of the present disclosure.
  • the detection unit 62 outputs the detection result 70 of the fibrosis region 35 to the derivation unit 63 and the display control unit 64.
  • the derivation unit 63 derives evaluation information 71 indicating the degree of fibrosis of liver LV based on the detection result 70. That is, the out-licensing unit 63 is responsible for the "deriving process" according to the technique of the present disclosure.
  • the derivation unit 63 outputs the evaluation information 71 to the display control unit 64.
  • the display control unit 64 controls to display various screens on the display 40.
  • the various screens include an analysis result display screen 90 (see FIG. 12) showing the result of image analysis.
  • the display control unit 64 generates an analysis result display screen 90 based on the sample image group 21G, the detection result 70, and the evaluation information 71.
  • the detection unit 62 calculates the ratio PV_R / PV_G of the pixel value PV_G of the G channel corresponding to the G region and the pixel value PV_R of the R channel corresponding to the R region for each pixel 30 of the sample image 21.
  • the detection unit 62 logarithmically converts the ratio PV_R / PV_G into a log (PV_R / PV_G) in order to make the numerical value easy to handle by a computer (see FIG. 5). It should be noted that the ratio PV_G / PV_R may be calculated by reversing the denominator and the numerator instead of the ratio PV_R / PV_G.
  • the detection unit 62 compares the magnitude of the log (PV_R / PV_G) with the threshold value TH.
  • the detection unit 62 detects the pixel 30 whose log (PV_R / PV_G) is equal to or higher than the threshold value TH as the fibrosis region 35.
  • the detection unit 62 detects the pixel 30 whose log (PV_R / PV_G) is less than the threshold value TH as a non-fibrotic region.
  • the threshold value TH is a value empirically obtained from past findings.
  • the detection unit 62 outputs the binarized image 80 as the detection result 70.
  • the derivation unit 63 derives a numerical value relating to at least one of the area and the length of the fibrosis region 35 as the evaluation information 71. More specifically, the evaluation information 71 includes the area occupancy of the fibrotic region 35 and the length ratio of the fibrotic region 35.
  • the area occupancy of the fibrotic region 35 is a value obtained by dividing the area of the fibrotic region 35 by the area of the section 12.
  • the length ratio of the fibrotic region 35 is a value obtained by dividing the length of the fibrotic region 35 by the area of the section 12.
  • the derivation unit 63 detects a region (hereinafter referred to as a section region) 82 of each section 12 of the plurality of sample images 21 constituting the sample image group 21G (step ST10). For example, the derivation unit 63 determines that the portion where the difference between the pixel values of the two adjacent pixels 30 is equal to or greater than the threshold value is the boundary between the section 12 and the glass 13 outside the section 12, and detects the inside of the boundary as the section region 82. ..
  • the derivation unit 63 derives the area of the section 12 reflected in each sample image 21 by counting the number of pixels of the pixels 30 existing in the section area 82 of each sample image 21 (step ST11). Further, the derivation unit 63 derives the area of the fibrosis region 35 by counting the number of pixels of the pixels 30 existing in the fibrosis region 35 of each binarized image 80 corresponding to each sample image 21 (step). ST12).
  • the derivation unit 63 exists in the section region 82 of each sample image 21 counted in step ST11 the number of pixels of the pixels 30 existing in the fibrous region 35 of each binarized image 80 counted in step ST12. By dividing by the number of pixels of the pixel 30, the area occupancy of the fibrous region 35 is derived (step ST13).
  • Steps ST10 and ST11 show a procedure for deriving the length ratio of the fibrosis region 35 in the deriving unit 63.
  • Steps ST10 and ST11 are the same as the procedure for deriving the area occupancy of the fibrotic region 35 shown in FIGS. 8 and 9.
  • the derivation unit 63 After deriving the area of the intercept 12 reflected in each sample image 21 in step ST11, the derivation unit 63 performs a thinning process on the fibrotic region 35 of each binarized image 80 corresponding to each sample image 21 (.
  • Step ST20 The thinning process is a process of converting the fibrotic region 35 into a line 83 having a width of 1 pixel passing through the center of the width of the fibrotic region 35.
  • the derivation unit 63 derives the length of the fibrosis region 35 by counting the number of pixels of the pixel 30 of the fibrosis region 35 after the thinning process, that is, the number of pixels of the pixels 30 constituting the line 83. (Step ST21). At this time, as shown in the frame 84A of the alternate long and short dash line, the out-licensing unit 63 counts the number of pixels of the pixels 30 connected vertically, horizontally, and diagonally as 1. Alternatively, as shown in the frame 84B of the alternate long and short dash line, the derivation unit 63 sets the number of pixels of the pixels 30 connected vertically and horizontally among the pixels 30 constituting the line 83 to 1, and the number of pixels of the pixels 30 diagonally connected. Is counted as ⁇ 2. As for the length of the fibrotic region 35, the method shown in the frame 84B is more accurate.
  • the derivation unit 63 counts the number of pixels of the pixels 30 of the fibrosis region 35 after the thinning process counted in step ST21, and the pixels of the pixels 30 existing in the section region 82 of each sample image 21 counted in step ST11. By dividing by a number, the length ratio of the fibrotic region 35 is derived (step ST22).
  • FIG. 12 shows an analysis result display screen 90 displayed on the display 40 under the control of the display control unit 64.
  • a sample image 21 in which the fibrosis region 35 detected by the detection unit 62 is filled with blue is displayed.
  • the display of the sample image 21 can be switched by operating the frame back button 91A and the frame advance button 91B.
  • Evaluation information 71 is displayed at the bottom of the analysis result display screen 90. That is, the display control unit 64 is responsible for the "output processing" according to the technique of the present disclosure.
  • a confirmation button 92 is provided next to the evaluation information 71.
  • the display control unit 64 turns off the display of the analysis result display screen 90.
  • the sample image 21 in which the fibrosis region 35 is color-coded and the evaluation information 71 can be stored in the storage device 45 according to the user's instruction.
  • the CPU 47 of the pathological diagnosis support device 25 includes a RW control unit 60, an instruction reception unit 61, a detection unit 62, and a derivation unit. It functions as 63 and a display control unit 64.
  • the RW control unit 60 reads out the sample image group 21G instructed by the user to analyze the image from the storage device 45 (step ST100).
  • the sample image group 21G is output from the RW control unit 60 to the detection unit 62, the derivation unit 63, and the display control unit 64. Further, the RW control unit 60 reads out the threshold value TH from the storage device 45 and outputs the threshold value TH to the detection unit 62.
  • step ST100 is an example of "acquisition processing" according to the technique of the present disclosure.
  • the ratio PV_R / PV_G of the pixel value PV_G of the G channel and the pixel value PV_R of the R channel is calculated for each pixel 30 of the sample image 21 (step ST110).
  • the magnitude of the logarithmic log (PV_R / PV_G) of the ratio PV_R / PV_G and the threshold value TH is compared.
  • step ST120 the pixel 30 whose log (PV_R / PV_G) is equal to or higher than the threshold value TH is detected as the fibrotic region 35, and the pixel 30 whose log (PV_R / PV_G) is less than the threshold value TH is detected as the non-fibrotic region (step ST120).
  • the detection unit 62 generates the binarized image 80 shown in FIG. 6 as the detection result 70 of the fibrosis region 35.
  • the detection result 70 is output from the detection unit 62 to the derivation unit 63 and the display control unit 64.
  • step ST120 is an example of "detection processing" according to the technique of the present disclosure.
  • the derivation unit 63 derives the area occupancy of the fibrosis region 35 and the length ratio of the fibrosis region 35 as evaluation information 71 (step ST130).
  • the evaluation information 71 is output from the derivation unit 63 to the display control unit 64.
  • step ST130 is an example of the "derivation process" according to the technique of the present disclosure.
  • step ST140 Under the control of the display control unit 64, the analysis result display screen 90 shown in FIG. 12 is displayed on the display 40 (step ST140). As a result, the fibrosis region 35 and the evaluation information 71 are presented to the user. The user grasps the degree of fibrosis of the liver LV of the patient P to be diagnosed by the analysis result display screen 90. Note that step ST140 is an example of "output processing" according to the technique of the present disclosure.
  • the pathological diagnosis support device 25 includes a RW control unit 60, a detection unit 62, a derivation unit 63, and a display control unit 64.
  • the RW control unit 60 acquires a sample image 21 showing a sample 20 of the liver LV stained with Sirius Red by reading it from the storage device 45.
  • the detection unit 62 compares the ratio PV_R / PV_G of the pixel values PV_G and PV_R of the G channel and the R channel among the three RGB color channels of the sample image 21 with the preset threshold value TH, and determines the liver LV.
  • the fibrotic region 35 of the liver is detected.
  • the derivation unit 63 derives the evaluation information 71 indicating the degree of fibrosis of the liver LV based on the detected fibrosis region 35.
  • the display control unit 64 outputs the evaluation information 71 by displaying the analysis result display screen 90 including the evaluation information 71 on the display 40.
  • the ratio PV_R / PV_G is more robust than the pixel values PV_G and PV_R itself with respect to changes in dyeing hue due to differences in the density of Sirius red, the surrounding environment, the imaging device of the sample image 21, and the like. Therefore, it is possible to improve the detection accuracy of the fibrotic region 35. For this reason, the fibrotic region 35, which has been interrupted and detected due to the low detection accuracy of the fibrotic region 35, although it is actually crosslinked fibrosis, is surely regarded as crosslinkable fibrosis. Can be done.
  • the detection unit 62 calculates the ratio PV_R / PV_G of the pixel values PV_G and PV_R of the G channel and the R channel corresponding to the G region and the R region where the difference in absorption rate is relatively large in the absorption spectrum 75 of Sirius Red. Therefore, the dynamic range of the ratio can be widened, and the detection accuracy of the fibrosis region 35 can be further improved.
  • the derivation unit 63 is a numerical value relating to at least one of the area and the length of the fibrosis region 35, specifically, the area occupancy ratio of the fibrosis region 35 and the length ratio of the fibrosis region 35. Is derived. Therefore, the degree of fibrosis of liver LV can be objectively evaluated. When the numerical value regarding the length of the fibrotic region 35 is relatively large, it can be estimated that fibrosis has progressed to a relatively wide range of the liver LV.
  • the pigment is not limited to the exemplified Sirius Red.
  • iron hematoxylin, ponsoxylysine, fuchsin acid, and aniline blue used for Masson's trichrome staining may be used.
  • the dye used for Masson's trichrome staining as shown in the absorption spectrum 95 of FIG. 14, the absorption rate in the G region is relatively high, and the absorption rate in the B region and the R region is relatively low. .. Further, there is almost no difference in the absorption rates of the B region and the R region.
  • the detection unit 62 has the ratio PV_B / PV_G of the pixel value PV_B of the B channel corresponding to the B region and the pixel value PV_G of the G channel corresponding to the G region, and the pixels of the G channel corresponding to the G region.
  • the ratio PV_R / PV_G of the value PV_G and the pixel value PV_R of the R channel corresponding to the R region is calculated for each pixel 30 of the sample image 21.
  • the detection unit 62 logarithmically converts the ratio PV_B / PV_G into a log (PV_B / PV_G), and logarithmically converts the ratio PV_R / PV_G into a log (PV_R / PV_G) (see FIG. 15).
  • the ratio PV_G / PV_B and the ratio PV_G / PV_R may be calculated.
  • the detection unit 62 compares the magnitude of the log (PV_B / PV_G) with the first threshold value TH1. Further, the detection unit 62 compares the magnitude of the log (PV_R / PV_G) with the second threshold value TH2. The detection unit 62 detects pixels 30 having a log (PV_B / PV_G) of the first threshold value TH1 or higher and a log (PV_R / PV_G) of the second threshold value TH2 or higher as the fibrosis region 35.
  • the detection unit 62 detects the pixel 30 whose log (PV_B / PV_G) is less than the first threshold value TH1 or whose log (PV_R / PV_G) is less than the second threshold value TH2 as a non-fibrotic region.
  • the first threshold value TH1 and the second threshold value TH2 are values empirically obtained from past findings, as in the case of the threshold value TH.
  • the ratio of the pixel values of the two color channels calculated to detect the fibrosis region 35 is not limited to one type.
  • the pixel 30 having a log (PV_B / PV_G) of less than the first threshold value TH1 and a log (PV_R / PV_G) of less than the second threshold value TH2 is detected as a non-fibrotic region, and the log (PV_B / PV_G) is the first.
  • a pixel 30 having a threshold value TH1 or higher or a log (PV_R / PV_G) of a second threshold value TH2 or higher may be detected as the fibrous region 35.
  • the evaluation information 71 is not limited to the area occupancy rate of the fibrosis region 35 exemplified above and the length ratio of the fibrosis region 35.
  • the area occupancy of the fibrosis region 35 is changed to five levels indicating the degree of fibrosis with reference to Table 97 shown in FIG. 16, and the level is derived as evaluation information 101 (see FIG. 17). You may.
  • the levels corresponding to the range of the area occupancy of the fibrotic region 35 are registered. For example, when the area occupancy of the fibrotic region 35 is 0% or more and less than 5%, level 0 is registered, when it is 20% or more and less than 30%, level 3 is registered, and when it is 30% or more, level 4 is registered.
  • the table 97 is stored in the storage device 45, is read out by the RW control unit 60, and is output to the derivation unit 63.
  • FIG. 17 shows an analysis result display screen 100 in which a level indicating the degree of fibrosis is displayed as evaluation information 101.
  • the stage of a known fibrosis evaluation index such as the new Inuyama classification and the METAVIR score may be derived and output as the evaluation information 106.
  • Each stage of the new Inuyama classification and the METAVIR score is derived from an estimation formula that solves the stage, for example, using the area occupancy rate of the fibrosis region 35 and the length ratio of the fibrosis region 35 as parameters.
  • NAS Non-Alcoholic Fatty Liver Disease; non-alcoholic fatty liver disease activity score
  • the like may be derived and output as evaluation information.
  • the evaluation information 113 is derived separately for the perivascular region 36 and the non-perivascular region 115 other than the perivascular region 36.
  • the CPU of the pathological diagnosis support device of the second embodiment is in addition to the respective units 60 to 64 of the first embodiment (in FIG. 19, the derivation unit 63 and the display control unit 64 are not shown).
  • the extraction unit 110 extracts the perivascular region 36 and the non-perivascular region 115 from each specimen image 21 constituting the specimen image group 21G by using the machine learning model 111.
  • the machine learning model 111 is a convolutional neural network such as U-Net (U-Shaped Neural Network), SegNet, ResNet (Residal Network), and DenseNet (Densely Connected Convolutional Network).
  • the machine learning model 111 is stored in the storage device 45, is read out by the RW control unit 60, and is output to the extraction unit 110.
  • the machine learning model 111 uses the sample image 21 as an input image, and as shown in FIG. 20, for example, a binarized image in which the pixel 30 in the perivascular region 36 is replaced with white and the pixel 30 in the non-perivascular region 115 is replaced with black. This is a model to be used as an output image.
  • the machine learning model 111 extracts a region surrounding the blood vessel region 32, for example, a region having a width of about 20 pixels, as the blood vessel peripheral region 36. Further, the machine learning model 111 extracts the pixels 30 of the section 12 other than the pixels 30 extracted as the perivascular region 36 as the non-perivascular region 115. Therefore, the non-perivascular region 115 includes the vascular region 32 and most of the parenchymal region 33.
  • the machine learning model 111 is learned by using a plurality of pairs of a sample image 21 for learning and a correct answer image in which the blood vessel peripheral region 36 of the sample image 21 for learning is designated by the user.
  • the extraction unit 110 extracts a binarized image in which the pixel 30 of the blood vessel peripheral region 36 is replaced with white and the pixel 30 of the non-blood vessel peripheral region 115 is replaced with black as the extraction result 112, and the extraction unit 63 and the display control unit 64. Output to.
  • the derivation unit 63 uses the area occupancy rate of the fibrosis region 35 in the perivascular region 36 and the perivascular region 36 as evaluation information 113.
  • the length ratio of the fibrotic region 35 in the above is derived.
  • the derivation unit 63 derives the area occupancy rate of the fibrotic region 35 in the non-vascular peripheral region 115 and the length ratio of the fibrotic region 35 in the non-vascular peripheral region 115 as the evaluation information 113.
  • the area occupancy of the fibrous region 35 in the perivascular region 36 is determined by counting the number of pixels of the pixels 30 existing in the fibrous region 35 in the perivascular region 36 in step ST12 shown in FIGS. 8 and 9. It is derived by dividing by the number of pixels of the pixels 30 existing in the section region 82 of each sample image 21 counted in step ST11.
  • the length ratio of the fibrotic region 35 in the perivascular region 36 counts the number of pixels 30 of the fibrotic region 35 in the perivascular region 36 after the thinning treatment in step ST21 shown in FIGS. 10 and 11. This is derived by dividing by the number of pixels of the pixels 30 existing in the section region 82 of each sample image 21 counted in step ST11.
  • the area occupancy of the fibrotic region 35 in the non-perivascular region 115 and the length ratio of the fibrotic region 35 in the non-perivascular region 115 are the same.
  • the display control unit 64 displays the analysis result display screen 120 shown in FIG. 21 on the display 40.
  • the fibrotic region 35 in the perivascular region 36 is, for example, green
  • the fibrotic region 35 in the non-perivascular region 115 is, for example, blue.
  • the filled specimen image 21 is displayed. Further, as the evaluation information 113, the area occupancy rate and the length ratio of the fibrotic region 35 in the perivascular region 36 and the area occupancy ratio and the length ratio of the fibrotic region 35 in the non-vascular peripheral region 115 are displayed.
  • the evaluation information 71 is derived separately for the perivascular region 36 and the non-perivascular region 115. Therefore, it is possible to distinguish and evaluate the pathological conditions of the disease in which the progress of fibrosis is mainly observed in the perivascular region 36 and the disease in which the progress of fibrosis is mainly observed in the non-vascular region 115.
  • the perivascular region 36 is apt to develop fibrosis due to the influence of the drug. Therefore, if the evaluation information 71 is derived separately for the perivascular region 36 and the non-perivascular region 115 as in the second embodiment, the degree of fibrosis excluding the influence of the drug can be evaluated.
  • the fibrotic region 35 in the perivascular region 36 and the fibrotic region 35 in the non-perivascular region 115 are color-coded and used as evaluation information 113 in the perivascular region 36.
  • the area occupancy and length ratio of the fibrotic region 35 and the area occupancy and length ratio of the fibrotic region 35 in the non-vascular peripheral region 115 are displayed, but are not limited to this.
  • the analysis result display screen 125 shown in FIG. 23 only the fibrosis region 35 in the perivascular region 36 is painted in green, for example (see also FIG. 24 which is an enlarged view of the frame 126), and the fibrosis region in the perivascular region 36 is also shown.
  • Only the area occupancy rate and the length rate of 35 may be displayed as the evaluation information 127.
  • only the fibrotic region 35 in the non-vascular region 115 is filled with, for example, blue, and the area occupancy and length of the fibrotic region 35 in the non-vascular region 115. Only the rate may be displayed as evaluation information.
  • the display mode shown in FIG. 21, the display mode shown in FIG. 23, and the display mode opposite to the case of FIG. 23 may be switchably configured.
  • the perivascular region 36 may be extracted without using the machine learning model 111.
  • a blood vessel region 32 is extracted using a well-known image recognition technique, and a region surrounding the extracted blood vessel region 32, for example, a region having a width of 20 pixels is extracted as a blood vessel peripheral region 36.
  • the user may be allowed to specify the perivascular region 36.
  • the evaluation information 133 is derived separately for the central vein peripheral region 36C including the periphery of the central vein passing through the liver LV and the non-vascular peripheral region 115.
  • the extraction unit 130 of the third embodiment uses the machine learning model 131 to form the central vein peri-region 36C, the portal vein peri-region 36P, and the portal vein perimeter region 36P from each specimen image 21 constituting the specimen image group 21G.
  • the non-vascular area 115 is extracted.
  • the machine learning model 131 is a convolutional neural network such as U-Net, similar to the machine learning model 111 of the second embodiment.
  • the machine learning model 131 is stored in the storage device 45, is read out by the RW control unit 60, and is output to the extraction unit 130.
  • the machine learning model 131 uses the sample image 21 as an input image, and as shown in FIG. 26, for example, a binarized image in which the pixel 30 in the central vein peripheral region 36C is replaced with white and the pixel 30 in the non-vascular peripheral region 115 is replaced with black. Is a model whose output image is.
  • the machine learning model 131 extracts a region surrounding the region 32C of the central vein, for example, a region having a width of about 20 pixels, as the region around the central vein 36C. Similarly, the machine learning model 131 extracts a region surrounding the portal vein region 32P, for example, a region having a width of about 20 pixels, as the portal vein peripheral region 36P. Further, the machine learning model 131 extracts the pixels 30 of the section 12 other than the pixels 30 extracted as the central vein peripheral region 36C and the portal vein peripheral region 36P as the non-vascular peripheral region 115. The machine learning model 131 uses a plurality of pairs of a sample image 21 for learning and a correct image in which the central vein peripheral region 36C and the portal vein peripheral region 36P of the sample image 21 for learning are designated by the user. Be learned.
  • the extraction unit 130 uses the binarized image in which the pixel 30 in the central vein peripheral region 36C is replaced with white and the pixel 30 in the non-blood vessel peripheral region 115 is replaced with black as the extraction result 132, and the derivation unit 63 and the display control unit. Output to 64.
  • the derivation unit 63 Based on the extraction result 132 from the extraction unit 130 and the detection result 70 from the detection unit 62, the derivation unit 63 provides evaluation information 133 such as the area occupancy rate of the fibrosis region 35 in the peripheral vein region 36C and the circumference of the central vein. The length ratio of the fibrotic region 35 in the region 36C is derived. Further, the derivation unit 63 derives the area occupancy rate of the fibrotic region 35 in the non-vascular peripheral region 115 and the length ratio of the fibrotic region 35 in the non-vascular peripheral region 115 as evaluation information 133.
  • the area occupancy of the fibrous region 35 in the central vein peripheral region 36C is determined by counting the number of pixels of the pixels 30 existing in the fibrous region 35 in the central vein peripheral region 36C in step ST12 shown in FIGS. 8 and 9. This is derived by dividing by the number of pixels of the pixels 30 existing in the section region 82 of each sample image 21 counted in step ST11.
  • the length ratio of the fibrotic region 35 in the central vein peripheral region 36C counts the number of pixels 30 of the fibrotic region 35 in the fibrotic region 36 after the thinning treatment in step ST21 shown in FIGS. 10 and 11. Then, this is derived by dividing by the number of pixels of the pixels 30 existing in the section region 82 of each sample image 21 counted in step ST11.
  • the display control unit 64 displays the analysis result display screen 140 shown in FIG. 27 on the display 40.
  • the fibrotic region 35 in the central vein peripheral region 36C is, for example, green
  • the fibrotic region 35 in the non-vascular peripheral region 115 is, for example, blue.
  • the sample image 21 filled with is displayed. Further, as the evaluation information 133, the area occupancy rate and the length ratio of the fibrotic region 35 in the central vein peripheral region 36C and the area occupancy ratio and the length ratio of the fibrotic region 35 in the non-vascular peripheral region 115 are displayed.
  • the evaluation information 71 is derived separately for the central vein peripheral region 36C and the non-vascular peripheral region 115. Therefore, it is possible to correctly evaluate the pathological condition of a disease such as non-alcoholic steatohepatitis (NASH: Non-Alcoholic Steatohepatitis) in which fibrosis progresses from the central venous peri-region 36C toward the non-vascular peri-vessel region 115.
  • NASH Non-alcoholic steatohepatitis
  • the fibrotic region 35 in the peripheral vein region 36C is painted in green, for example, and only the area occupancy rate and the length ratio of the fibrotic region 35 in the peripheral peripheral region 36C are evaluated. May be displayed as.
  • This display mode and the display mode shown in FIG. 27 may be configured to be switchable. Further, the region around the central vein 36C may be extracted without using the machine learning model 111 by having the user specify the region around the central vein 36C.
  • the evaluation information 142 shown in FIG. 29A not only the area occupancy rate and length rate of the fibrotic region 35 in the central vein peripheral region 36C, but also the area occupancy rate and length of the fibrotic region 35 in the portal vein peripheral region 36P.
  • the rate may be derived.
  • the number of cross-linking fibrosis between the portal veins that is, PP bridging
  • the number of cross-linking fibrosis between the portal vein and the central vein that is, the number of CC bridging. It may be derived.
  • the CPU of the pathological diagnosis support device of the fourth embodiment functions as a compression unit 150 in addition to each unit 60 to 64 of the first embodiment (not shown in FIG. 30 except for the detection unit 62).
  • the sample image group 21G read from the storage device 45 by the RW control unit 60 is input to the compression unit 150.
  • the compression unit 150 performs a compression process on each of the plurality of sample images 21 constituting the sample image group 21G.
  • the compression unit 150 outputs the sample image group 21G after the compression process to the detection unit 62.
  • the detection unit 62 detects the fibrosis region 35 from the compressed sample image 21, and outputs the detection result 70 to the derivation unit 63 and the like.
  • the sample image 21 acquired by the RW control unit 60 is compressed by the compression unit 150, and then the fibrosis region 35 is detected by the detection unit 62. Therefore, the processing load can be reduced as compared with the case where the fibrosis region 35 is detected from the full-size specimen image 21.
  • the sample 20 collected from the liver LV of the patient P is exemplified, but the present invention is not limited to this.
  • it may be a sample 156 prepared from a sample 155 collected from the lung LG of patient P using a biopsy needle 10. Further, it may be a specimen collected from the skin, breast, stomach, large intestine and the like.
  • the color channel of the pixel value of the sample image 21 is not limited to the illustrated RGB color channel. It may be a four-color channel of CMYG (Cyan, Magenta, Yellow, Green).
  • the output form of evaluation information is not limited to the form displayed on the analysis result display screen.
  • the evaluation information may be printed out on a paper medium, or the evaluation information data file may be transmitted and output by e-mail or the like.
  • the hardware configuration of the computer that constitutes the pathological diagnosis support device can be modified in various ways. It is also possible to configure the pathological diagnosis support device with a plurality of computers separated as hardware for the purpose of improving processing capacity and reliability. For example, the functions of the RW control unit 60 and the instruction reception unit 61, and the functions of the detection unit 62, the derivation unit 63, and the display control unit 64 are distributed to two computers. In this case, the pathological diagnosis support device is configured by two computers.
  • the hardware configuration of the computer of the pathological diagnosis support device can be appropriately changed according to the required performance such as processing capacity, safety, and reliability.
  • application programs such as the operation program 55 can be duplicated or distributed and stored in multiple storage devices for the purpose of ensuring safety and reliability. be.
  • a processing unit that executes various processes such as an RW control unit 60, an instruction receiving unit 61, a detection unit 62, a derivation unit 63, a display control unit 64, an extraction unit 110, 130, and a compression unit 150.
  • various processors processors shown below can be used.
  • the CPU 47 which is a general-purpose processor that executes software (operation program 55) and functions as various processing units, after manufacturing an FPGA (Field Programgable Gate Array) or the like.
  • Dedicated processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose circuit configuration can be changed. Includes electrical circuits and the like.
  • One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • the processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC system On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • the technique of the present disclosure can be appropriately combined with the various embodiments described above and various modifications. Further, it is of course not limited to each of the above embodiments, and various configurations can be adopted as long as they do not deviate from the gist. Further, the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be A alone, B alone, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.
  • Pathological diagnosis support device 10 Biopsy needle 11, 155 Specimen 12 Section 13 Glass 14 Cover glass 20, 156 Specimen 21 Specimen image 21G Specimen image group 25 Pathological diagnosis support device 30 pixels 31 Table 32 Vascular region 32C Central vein region 32P Portal vein region 33 Parenchymal region 35 Fibrotic region 36 Perivascular region 36C Perivascular region 36P Periportal vein region 37, 84A, 84B, 121, 126, 141 Frame 40 Display 41 Input device 45 Storage device 46 Memory 47 CPU (processor) 48 Communication unit 49 Bus line 55 Operation program (operation program of pathological diagnosis support device) 60 Read / write control unit (RW control unit) 61 Instruction reception unit 62 Detection unit 63 Derivation unit 64 Display control unit 70 Detection result 71, 101, 106, 113, 127, 133, 142, 143 Evaluation information 75, 95 Absorption spectrum 80 Binary image 82 Section area 83 Line 90 , 100, 105, 120, 125, 140 Analysis result display screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Urology & Nephrology (AREA)
  • Molecular Biology (AREA)
  • Hematology (AREA)
  • Quality & Reliability (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Biophysics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Biotechnology (AREA)
  • Cell Biology (AREA)
  • Microbiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

線維化領域の検出精度を高めることが可能な病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラムを提供する。病理診断支援装置のRW制御部は、シリウスレッドで染色された肝臓の標本を写した標本画像を、ストレージデバイスから読み出すことで取得する。検出部は、標本画像のRGBの3色の色チャンネルのうちのGチャンネルおよびRチャンネルの画素値の比と、予め設定された閾値との比較により、肝臓の線維化領域を検出する。導出部は、検出した線維化領域に基づいて、肝臓の線維化の程度を表す評価情報を導出する。表示制御部は、評価情報を含む解析結果表示画面をディスプレイに表示することで、評価情報を出力する。

Description

病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム
 本開示の技術は、病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラムに関する。
 病理診断において、癌等の疾患のリスクに繋がる生体組織の線維化の程度を評価することが行われている。従来は、生体組織から採取した標本を病理医が顕微鏡で観察して、線維化の程度を目視で評価していた。しかし、こうした評価方法では病理医の負担が大きかった。また、病理医の熟練度等によって評価が変わってしまうことがあった。
 そこで、例えば非特許文献1のように、標本を写した画像(以下、標本画像という)をコンピュータで画像解析して線維化領域を検出し、線維化領域の面積占有率等を導出して病理医等のユーザに提示する方法が提案されている。非特許文献1では、シリウスレッド等の色素で線維化領域が染色された標本の標本画像を用いている。そして、当該標本画像のRGB(Red、Green、Blue)の各色チャンネルの画素値と、予めユーザが設定した閾値との比較により、線維化領域を検出している。
Vincenza Calvaruso他、「Computer-Assisted Image Analysis of Liver Collagen:Relationship to ishak scoring and hepatic venous pressure Gradien」、2009年4月発行、HEPATOLOGY(49)、P1236-1244
 線維化領域は、シリウスレッド等の色素による染色によって、一様に同じ色に染まる訳ではない。例えば色素の濃度、あるいは温湿度といった周囲環境によって色合いは変わる。また、標本画像の撮影装置の違いによっても、色合いは変わる。したがって、非特許文献1のように、標本画像のRGB各色チャンネルの画素値と閾値との単純な比較によって線維化領域を検出する方法は、線維化領域の検出精度が低かった。
 本開示の技術は、線維化領域の検出精度を高めることが可能な病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラムを提供することを目的とする。
 上記目的を達成するために、本開示の病理診断支援装置は、少なくとも1つのプロセッサを備え、プロセッサは、色素で染色された生体組織の標本を写した標本画像であり、複数の色チャンネルの画素値を有する標本画像を取得し、複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、生体組織の線維化領域を検出し、検出した線維化領域に基づいて、生体組織の線維化の程度を表す評価情報を導出し、評価情報を出力する。
 プロセッサは、色素の吸収スペクトルにおいて、吸収率の差が相対的に大きい2つの色領域に対応する2つの色チャンネルの画素値の比を算出することが好ましい。
 プロセッサは、生体組織を通る血管の周囲を含む血管周囲領域と、血管周囲領域以外の非血管周囲領域とに分けて評価情報を導出することが好ましい。
 標本は肝臓から採取されたものであり、プロセッサは、肝臓を通る中心静脈の周囲を含む中心静脈周囲領域と、非血管周囲領域とに分けて評価情報を導出する。
 プロセッサは、評価情報として、線維化領域の面積および長さのうちの少なくともいずれかに関する数値を導出することが好ましい。
 プロセッサは、取得した標本画像に対して圧縮処理を施した後、線維化領域の検出を行うことが好ましい。
 本開示の病理診断支援装置の作動方法は、色素で染色された生体組織の標本を写した標本画像であり、複数の色チャンネルの画素値を有する標本画像を取得する取得処理と、複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、生体組織の線維化領域を検出する検出処理と、検出した線維化領域に基づいて、生体組織の線維化の程度を表す評価情報を導出する導出処理と、評価情報を出力する出力処理と、をプロセッサが実行する。
 本開示の病理診断支援装置の作動プログラムは、色素で染色された生体組織の標本を写した標本画像であり、複数の色チャンネルの画素値を有する標本画像を取得する取得処理と、複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、生体組織の線維化領域を検出する検出処理と、検出した線維化領域に基づいて、生体組織の線維化の程度を表す評価情報を導出する導出処理と、評価情報を出力する出力処理と、をプロセッサに実行させる。
 本開示の技術によれば、線維化領域の検出精度を高めることが可能な病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラムを提供することができる。
病理診断の工程、標本画像、および病理診断支援装置を示す図である。 病理診断支援装置を構成するコンピュータを示すブロック図である。 病理診断支援装置のCPUの処理部を示すブロック図である。 シリウスレッドの吸収スペクトルに応じた、検出部の処理を示す図である。 シリウスレッドで染色した場合の検出部の処理を示す図である。 検出結果を示す図である。 評価情報を示す図である。 線維化領域の面積占有率を導出する手順を示すフローチャートである。 線維化領域の面積占有率を導出する手順を示す図である。 線維化領域の長さ率を導出する手順を示すフローチャートである。 線維化領域の長さ率を導出する手順を示す図である。 解析結果表示画面を示す図である。 病理診断支援装置の処理手順を示すフローチャートである。 マッソン・トリクローム染色に用いられる色素の吸収スペクトルに応じた、検出部の処理を示す図である。 マッソン・トリクローム染色の場合の検出部の処理を示す図である。 線維化領域の面積占有率の範囲に対応する線維化の程度を表すレベルが登録されたテーブルを示す図である。 解析結果表示画面の別の例を示す図である。 解析結果表示画面の別の例を示す図である。 第2実施形態の処理部を示す図である。 機械学習モデルによって、血管周囲領域および非血管周囲領域を抽出する様子を示す図である。 第2実施形態の解析結果表示画面を示す図である。 図21に示す解析結果表示画面に表示される標本画像の拡大図である。 第2実施形態の解析結果表示画面の別の例を示す図である。 図23に示す解析結果表示画面に表示される標本画像の拡大図である。 第3実施形態の処理部を示す図である。 機械学習モデルによって、中心静脈周囲領域、門脈周囲領域、および非血管周囲領域を抽出する様子を示す図である。 第3実施形態の解析結果表示画面を示す図である。 図27に示す解析結果表示画面に表示される標本画像の拡大図である。 第3実施形態の評価情報の別の例を示す図であり、図29Aは、門脈周囲領域における線維化領域の面積占有率と長さ率を含む評価情報、図29Bは、P-P bridgingの本数、およびP-C bridgingの本数を含む評価情報をそれぞれ示す。 第4実施形態の処理部を示す図である。 患者の肺から採取した標本を示す図である。
 [第1実施形態]
 図1において、病理診断は、例えば以下の工程を経て行われる。まず、超音波観測装置(図示省略)の監視下において、患者Pの体外から肝臓LVに生検針10を刺して、肝臓LVから細長の検体11を採取する。そして、検体11をパラフィンに包埋した後、ミクロトームによって複数枚の切片12にスライスし、スライスした切片12をガラス13に貼り付ける。その後、パラフィンを脱して切片12を色素で染色し、染色後の切片12をカバーガラス14で覆って、標本20を完成させる。本例では、色素としてシリウスレッドが用いられる。なお、肝臓LVは、本開示の技術に係る「生体組織」の一例である。
 各標本20は、デジタル光学顕微鏡等の撮影装置(図示省略)にセットされて撮影される。これにより得られた各標本20の標本画像21は、標本画像群21Gとして病理診断支援装置25に入力される。標本画像21には、患者Pを一意に識別するための患者ID(Identification Data)、撮影日時等が付される。
 標本画像21の画素30には、表31に示すように、RGBの3色の各色チャンネルの画素値が割り当てられている。このため標本画像21はフルカラー画像である。画素値は例えば0~255の範囲の数値である。
 標本画像21には、切片12を含む標本20が写されている。切片12は、血管領域32および実質領域33を有する。血管領域32は、門脈、中心静脈といった、肝臓LVを通る血管の領域である。血管領域32は、切片12においては空洞となっている。実質領域33は、肝臓LVの肝細胞が存在する領域である。
 シリウスレッドは、線維化領域35(より詳しくは膠原線維の領域)を赤く染色する。図1に例示する標本画像21においては、血管領域32の周囲の領域である血管周囲領域36、および実質領域33の所々に、線維化領域35が存在している。また、二点鎖線の枠37で囲むように、2つの血管の間を繋ぐ線維化領域35、すなわち架橋性線維化も見られる。架橋性線維化は、2つの血管がともに門脈の領域であった場合はP-P bridging、2つの血管が門脈と中心静脈であった場合はP-C bridgingと呼ばれる。
 病理診断支援装置25は、例えばデスクトップ型のパーソナルコンピュータであり、ディスプレイ40および入力デバイス41を有する。入力デバイス41は、キーボード、マウス、タッチパネル等である。病理診断支援装置25は、標本画像21を画像解析して線維化領域35を検出する。そして、線維化領域35の面積占有率といった評価情報71(図3等参照)を導出し、評価情報71をディスプレイ40に表示する。
 図2において、病理診断支援装置25を構成するコンピュータは、前述のディスプレイ40と入力デバイス41に加えて、ストレージデバイス45、メモリ46、CPU(Central Processing Unit)47、および通信部48を備えている。これらはバスライン49を介して相互接続されている。
 ストレージデバイス45は、病理診断支援装置25を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス45は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス45には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。
 メモリ46は、CPU47が処理を実行するためのワークメモリである。CPU47は、ストレージデバイス45に記憶されたプログラムをメモリ46へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
 通信部48は、LAN(Local Area Network)等のネットワークを介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ40は各種画面を表示する。病理診断支援装置25を構成するコンピュータは、各種画面を通じて、入力デバイス41からの操作指示の入力を受け付ける。
 図3において、病理診断支援装置25のストレージデバイス45には、作動プログラム55が記憶されている。作動プログラム55は、コンピュータを病理診断支援装置25として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム55は、本開示の技術に係る「病理診断支援装置の作動プログラム」の一例である。ストレージデバイス45には、標本画像群21Gおよび閾値TH等も記憶される。
 作動プログラム55が起動されると、病理診断支援装置25を構成するコンピュータのCPU47は、メモリ46等と協働して、リードライト(以下、RW(Read Write)と略す)制御部60、指示受付部61、検出部62、導出部63、および表示制御部64として機能する。CPU47は、本開示の技術に係る「プロセッサ」の一例である。
 RW制御部60は、ストレージデバイス45への各種データの記憶、およびストレージデバイス45内の各種データの読み出しを制御する。例えばRW制御部60は、撮影装置から送信された標本画像群21Gを受け取り、ストレージデバイス45に記憶する。また、RW制御部60は、入力デバイス41を介したユーザによる画像解析の指示が指示受付部61にて受け付けられた標本画像群21Gをストレージデバイス45から読み出し、検出部62、導出部63、および表示制御部64に出力する。すなわち、RW制御部60は、本開示の技術に係る「取得処理」を担う。なお、入力デバイス41を介したユーザによる画像解析の指示は、例えば標本画像21に付された患者IDおよび撮影日時を入力指定することで行われる。
 さらに、RW制御部60は、閾値THをストレージデバイス45から読み出し、検出部62に出力する。
 指示受付部61は、入力デバイス41を介したユーザによる様々な指示を受け付ける。様々な指示には、前述の画像解析の指示が含まれる。
 検出部62は、閾値THに基づいて、標本画像群21Gを構成する複数枚の標本画像21の各々から、線維化領域35を検出する。すなわち、検出部62は、本開示の技術に係る「検出処理」を担う。検出部62は、線維化領域35の検出結果70を導出部63および表示制御部64に出力する。
 導出部63は、検出結果70に基づいて、肝臓LVの線維化の程度を表す評価情報71を導出する。すなわち、導出部63は、本開示の技術に係る「導出処理」を担う。導出部63は、評価情報71を表示制御部64に出力する。
 表示制御部64は、ディスプレイ40に各種画面を表示する制御を行う。各種画面には、画像解析の結果を表す解析結果表示画面90(図12参照)が含まれる。表示制御部64は、標本画像群21G、検出結果70、および評価情報71に基づいて、解析結果表示画面90を生成する。
 図4において、シリウスレッドの吸収スペクトル75は、G領域の吸収率が最も高く、次いでB領域、R領域の順に吸収率が低くなっている。このためシリウスレッドの吸収スペクトル75においては、B領域およびG領域、B領域およびR領域よりも、G領域およびR領域のほうが、吸収率の差が相対的に大きい。したがって検出部62は、G領域に対応するGチャンネルの画素値PV_Gと、R領域に対応するRチャンネルの画素値PV_Rの比PV_R/PV_Gを、標本画像21の画素30毎に算出する。検出部62は、コンピュータで扱いやすい数値とするため、比PV_R/PV_Gを対数変換し、log(PV_R/PV_G)とする(図5参照)。なお、比PV_R/PV_Gではなく、分母と分子を逆にした比PV_G/PV_Rを算出してもよい。
 図5に示すように、検出部62は、log(PV_R/PV_G)と閾値THとの大小を比較する。検出部62は、log(PV_R/PV_G)が閾値TH以上の画素30を、線維化領域35として検出する。一方、検出部62は、log(PV_R/PV_G)が閾値TH未満の画素30を、非線維化領域として検出する。閾値THは、過去の知見から経験的に求められた値である。
 図6に示すように、検出部62は、二値化画像80を検出結果70として出力する。二値化画像80は、線維化領域35として検出した画素30を白(各色チャンネルの画素値=255)、非線維化領域として検出した画素30を黒(各色チャンネルの画素値=0)に置換した画像である。
 図7に示すように、導出部63は、評価情報71として、線維化領域35の面積および長さのうちの少なくともいずれかに関する数値を導出する。より詳しくは、評価情報71は、線維化領域35の面積占有率、および線維化領域35の長さ率を含む。線維化領域35の面積占有率は、線維化領域35の面積を切片12の面積で除算した値である。線維化領域35の長さ率は、線維化領域35の長さを切片12の面積で除算した値である。
 図8および図9は、導出部63において線維化領域35の面積占有率を導出する手順を示す。まず、導出部63は、標本画像群21Gを構成する複数枚の標本画像21の各々の切片12の領域(以下、切片領域という)82を検出する(ステップST10)。導出部63は、例えば、隣接する2つの画素30の画素値の差が閾値以上の部分を、切片12とその外側のガラス13との境界と判断し、境界の内側を切片領域82として検出する。
 次いで、導出部63は、各標本画像21の切片領域82に存在する画素30の画素数を計数することで、各標本画像21に写る切片12の面積を導出する(ステップST11)。また、導出部63は、各標本画像21に対応する各二値化画像80の線維化領域35に存在する画素30の画素数を計数することで、線維化領域35の面積を導出する(ステップST12)。
 最後に、導出部63は、ステップST12で計数した各二値化画像80の線維化領域35に存在する画素30の画素数を、ステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで、線維化領域35の面積占有率を導出する(ステップST13)。
 図9は、各標本画像21の切片領域82に存在する画素30の画素数が100000、各二値化画像80の線維化領域35に存在する画素30の画素数が22000であった場合を例示している。この場合、線維化領域35の面積占有率は、(22000/100000)×100=22%となる。
 図10および図11は、導出部63において線維化領域35の長さ率を導出する手順を示す。ステップST10、ステップST11までは、図8および図9で示した線維化領域35の面積占有率を導出する手順と同じである。ステップST11において各標本画像21に写る切片12の面積を導出した後、導出部63は、各標本画像21に対応する各二値化画像80の線維化領域35に対して細線化処理を施す(ステップST20)。細線化処理は、線維化領域35を、線維化領域35の幅の中心を通る幅1画素の線83に変換する処理である。
 次いで、導出部63は、細線化処理後の線維化領域35の画素30の画素数、すなわち線83を構成する画素30の画素数を計数することで、線維化領域35の長さを導出する(ステップST21)。この際、導出部63は、二点鎖線の枠84Aに示すように、上下左右、および斜めに繋がった画素30の画素数を全て1と計数する。あるいは、導出部63は、二点鎖線の枠84Bに示すように、線83を構成する画素30のうち、上下左右に繋がった画素30の画素数を1、斜めに繋がった画素30の画素数を√2と計数する。線維化領域35の長さとしては、枠84Bで示した方法のほうがより正確である。
 最後に、導出部63は、ステップST21で計数した細線化処理後の線維化領域35の画素30の画素数を、ステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで、線維化領域35の長さ率を導出する(ステップST22)。
 図11は、各標本画像21の切片領域82に存在する画素30の画素数が図9の場合と同じ100000、細線化処理後の線維化領域35の画素30の画素数が14000であった場合を例示している。この場合、線維化領域35の長さ率は、(14000/100000)×100=14%となる。
 図12は、表示制御部64の制御の下、ディスプレイ40に表示される解析結果表示画面90を示す。解析結果表示画面90には、検出部62で検出された線維化領域35が例えば青色で塗り潰された標本画像21が表示される。標本画像21は、コマ戻しボタン91Aおよびコマ送りボタン91Bを操作することで表示を切り替えることが可能である。
 解析結果表示画面90の下部には、評価情報71が表示される。すなわち、表示制御部64は、本開示の技術に係る「出力処理」を担う。
 評価情報71の横には、確認ボタン92が設けられている。確認ボタン92が選択された場合、表示制御部64は、解析結果表示画面90の表示を消す。なお、線維化領域35が色分けされた標本画像21、および評価情報71は、ユーザの指示に応じて、ストレージデバイス45に記憶させることが可能である。
 次に、上記構成による作用について、図13のフローチャートを参照して説明する。まず、病理診断支援装置25において作動プログラム55が起動されると、図3で示したように、病理診断支援装置25のCPU47は、RW制御部60、指示受付部61、検出部62、導出部63、および表示制御部64として機能される。
 RW制御部60により、ストレージデバイス45から、ユーザにより画像解析の指示がされた標本画像群21Gが読み出される(ステップST100)。標本画像群21Gは、RW制御部60から検出部62、導出部63、および表示制御部64に出力される。また、RW制御部60により、ストレージデバイス45から閾値THが読み出され、検出部62に出力される。なお、ステップST100は、本開示の技術に係る「取得処理」の一例である。
 図4で示したように、検出部62において、標本画像21の画素30毎に、Gチャンネルの画素値PV_GとRチャンネルの画素値PV_Rの比PV_R/PV_Gが算出される(ステップST110)。次いで、図5で示したように、比PV_R/PV_Gの対数log(PV_R/PV_G)と閾値THとの大小が比較される。そして、log(PV_R/PV_G)が閾値TH以上の画素30が線維化領域35として検出され、log(PV_R/PV_G)が閾値TH未満の画素30が非線維化領域として検出される(ステップST120)。検出部62により、図6で示した二値化画像80が線維化領域35の検出結果70として生成される。検出結果70は、検出部62から導出部63および表示制御部64に出力される。なお、ステップST120は、本開示の技術に係る「検出処理」の一例である。
 図7~図11で示したように、導出部63によって、線維化領域35の面積占有率、および線維化領域35の長さ率が評価情報71として導出される(ステップST130)。評価情報71は、導出部63から表示制御部64に出力される。なお、ステップST130は、本開示の技術に係る「導出処理」の一例である。
 表示制御部64の制御の下、図12で示した解析結果表示画面90がディスプレイ40に表示される(ステップST140)。これにより線維化領域35および評価情報71がユーザに提示される。ユーザは、解析結果表示画面90によって、病理診断の対象の患者Pの肝臓LVの線維化の程度を把握する。なお、ステップST140は、本開示の技術に係る「出力処理」の一例である。
 以上説明したように、病理診断支援装置25は、RW制御部60と、検出部62と、導出部63と、表示制御部64とを備える。RW制御部60は、シリウスレッドで染色された肝臓LVの標本20を写した標本画像21を、ストレージデバイス45から読み出すことで取得する。検出部62は、標本画像21のRGBの3色の色チャンネルのうちのGチャンネルおよびRチャンネルの画素値PV_G、PV_Rの比PV_R/PV_Gと、予め設定された閾値THとの比較により、肝臓LVの線維化領域35を検出する。導出部63は、検出した線維化領域35に基づいて、肝臓LVの線維化の程度を表す評価情報71を導出する。表示制御部64は、評価情報71を含む解析結果表示画面90をディスプレイ40に表示することで、評価情報71を出力する。
 比PV_R/PV_Gは、画素値PV_G、PV_Rそのものよりも、シリウスレッドの濃度、周囲環境、標本画像21の撮影装置の違い等による染色の色合いの変化に対するロバスト性が高い。したがって、線維化領域35の検出精度を高めることが可能となる。このため、従来、実際は架橋性線維化しているにも関わらず、線維化領域35の検出精度が低いがために途切れて検出されていた線維化領域35を、確実に架橋性線維化として捉えることができる。
 検出部62は、シリウスレッドの吸収スペクトル75において、吸収率の差が相対的に大きいG領域およびR領域に対応するGチャンネルおよびRチャンネルの画素値PV_G、PV_Rの比PV_R/PV_Gを算出する。このため、比のダイナミックレンジを広くとることができ、線維化領域35の検出精度をより高めることが可能となる。
 導出部63は、評価情報71として、線維化領域35の面積および長さのうちの少なくともいずれかに関する数値、具体的には線維化領域35の面積占有率、および線維化領域35の長さ率を導出する。このため、肝臓LVの線維化の程度を客観的に評価することができる。線維化領域35の長さに関する数値が比較的大きい場合は、肝臓LVの比較的広い範囲に線維化が進展していると推定することができる。
 色素は例示のシリウスレッドに限らない。例えばマッソン・トリクローム染色に用いられる鉄ヘマトキシリン、ポンソーキシリジン、酸フクシン、アニリン青でもよい。マッソン・トリクローム染色に用いられる色素の場合、図14の吸収スペクトル95に示すように、G領域の吸収率が相対的に高く、B領域、R領域の吸収率が相対的に低くなっている。また、B領域、R領域の吸収率にはほとんど差がない。このためマッソン・トリクローム染色に用いられる色素の吸収スペクトル95においては、B領域およびR領域よりも、B領域およびG領域、G領域およびR領域のほうが、吸収率の差が相対的に大きい。したがってこの場合、検出部62は、B領域に対応するBチャンネルの画素値PV_Bと、G領域に対応するGチャンネルの画素値PV_Gの比PV_B/PV_G、並びに、G領域に対応するGチャンネルの画素値PV_Gと、R領域に対応するRチャンネルの画素値PV_Rの比PV_R/PV_Gを、標本画像21の画素30毎に算出する。検出部62は、比PV_B/PV_Gを対数変換し、log(PV_B/PV_G)とし、比PV_R/PV_Gを対数変換し、log(PV_R/PV_G)とする(図15参照)。なお、比PV_G/PV_Bおよび比PV_G/PV_Rを算出してもよい。
 図15に示すように、検出部62は、log(PV_B/PV_G)と第1閾値TH1との大小を比較する。また、検出部62は、log(PV_R/PV_G)と第2閾値TH2との大小を比較する。検出部62は、log(PV_B/PV_G)が第1閾値TH1以上、かつlog(PV_R/PV_G)が第2閾値TH2以上の画素30を、線維化領域35として検出する。一方、検出部62は、log(PV_B/PV_G)が第1閾値TH1未満、またはlog(PV_R/PV_G)が第2閾値TH2未満の画素30を、非線維化領域として検出する。第1閾値TH1および第2閾値TH2は、閾値THと同様に、過去の知見から経験的に求められた値である。
 このように、線維化領域35を検出するために算出する2つの色チャンネルの画素値の比は、1種類に限らない。なお、log(PV_B/PV_G)が第1閾値TH1未満、かつlog(PV_R/PV_G)が第2閾値TH2未満の画素30を、非線維化領域として検出し、log(PV_B/PV_G)が第1閾値TH1以上、またはlog(PV_R/PV_G)が第2閾値TH2以上の画素30を、線維化領域35として検出してもよい。
 評価情報71としては、上記で例示した線維化領域35の面積占有率、および線維化領域35の長さ率に限らない。例えば線維化領域35の面積占有率を、図16に示すテーブル97を参照して、線維化の程度を表す5段階のレベルに変更し、当該レベルを評価情報101(図17参照)として導出してもよい。テーブル97には、線維化領域35の面積占有率の範囲に対応するレベルが登録されている。例えば線維化領域35の面積占有率が0%以上5%未満の場合はレベル0、20%以上30%未満の場合はレベル3、30%以上の場合はレベル4が登録されている。テーブル97はストレージデバイス45に記憶されており、RW制御部60により読み出されて導出部63に出力される。
 図17は、評価情報101として線維化の程度を表すレベルが表示された解析結果表示画面100を示す。
 また、図18に示す解析結果表示画面105のように、新犬山分類、METAVIRスコアといった既知の線維化評価指標のステージを評価情報106として導出、出力してもよい。新犬山分類、METAVIRスコアの各ステージは、例えば、線維化領域35の面積占有率、および線維化領域35の長さ率をパラメータとし、ステージを解とする推定式から導出する。なお、この他にも、NAS(NAFLD(Non-Alcoholic Fatty Liver Disease;非アルコール性脂肪性肝疾患) activity score)等を評価情報として導出、出力してもよい。
 [第2実施形態]
 図19~図22に示す第2実施形態では、血管周囲領域36と、血管周囲領域36以外の非血管周囲領域115とに分けて評価情報113を導出する。
 図19に示すように、第2実施形態の病理診断支援装置のCPUは、上記第1実施形態の各部60~64(図19では導出部63および表示制御部64以外は図示省略)に加えて、抽出部110として機能する。抽出部110は、標本画像群21Gを構成する各標本画像21から、機械学習モデル111を用いて血管周囲領域36および非血管周囲領域115を抽出する。
 機械学習モデル111は、例えばU-Net(U-Shaped Neural Network)、SegNet、ResNet(Residual Network)、DenseNet(Densely Connected Convolusional Network)といった畳み込みニューラルネットワークである。機械学習モデル111はストレージデバイス45に記憶されており、RW制御部60により読み出されて抽出部110に出力される。機械学習モデル111は、標本画像21を入力画像とし、例えば図20に示すように、血管周囲領域36の画素30を白、非血管周囲領域115の画素30を黒に置換した二値化画像を出力画像とするモデルである。機械学習モデル111は、血管領域32の周囲を取り囲む、例えば幅20画素程度の領域を、血管周囲領域36として抽出する。また、機械学習モデル111は、血管周囲領域36として抽出した画素30以外の切片12の画素30を、非血管周囲領域115として抽出する。このため、非血管周囲領域115は、血管領域32と、実質領域33の大部分とを含む。機械学習モデル111は、学習用の標本画像21と、当該学習用の標本画像21の血管周囲領域36がユーザの手で指定された正解画像との組を複数用いて学習される。
 図19において、抽出部110は、血管周囲領域36の画素30を白、非血管周囲領域115の画素30を黒に置換した二値化画像を、抽出結果112として導出部63および表示制御部64に出力する。導出部63は、抽出部110からの抽出結果112および検出部62からの検出結果70に基づいて、評価情報113として、血管周囲領域36における線維化領域35の面積占有率、および血管周囲領域36における線維化領域35の長さ率を導出する。また、導出部63は、評価情報113として、非血管周囲領域115における線維化領域35の面積占有率、および非血管周囲領域115における線維化領域35の長さ率を導出する。
 血管周囲領域36における線維化領域35の面積占有率は、図8および図9で示したステップST12において、血管周囲領域36における線維化領域35に存在する画素30の画素数を計数し、これをステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで導出する。血管周囲領域36における線維化領域35の長さ率は、図10および図11で示したステップST21において、細線化処理後の血管周囲領域36における線維化領域35の画素30の画素数を計数し、これをステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで導出する。非血管周囲領域115における線維化領域35の面積占有率、および非血管周囲領域115における線維化領域35の長さ率も同様である。
 表示制御部64は、図21に示す解析結果表示画面120をディスプレイ40に表示する。解析結果表示画面120には、枠121の拡大図である図22にも示すように、血管周囲領域36における線維化領域35が例えば緑色、非血管周囲領域115における線維化領域35が例えば青色で塗り潰された標本画像21が表示される。また、評価情報113として、血管周囲領域36における線維化領域35の面積占有率と長さ率、非血管周囲領域115における線維化領域35の面積占有率と長さ率が表示される。
 このように、第2実施形態では、血管周囲領域36と非血管周囲領域115とに分けて評価情報71を導出する。このため、主に血管周囲領域36における線維化の進展が見られる疾患と、主に非血管周囲領域115における線維化の進展が見られる疾患のそれぞれの病態を区別して評価することができる。
 ラット等を用いた臨床実験においては、四塩化炭素等の薬剤を注入してわざと脂肪肝を引き起こしている。このため、血管周囲領域36は、どうしても薬剤の影響で線維化が進展しやすい。したがって、本第2実施形態のように血管周囲領域36と非血管周囲領域115とに分けて評価情報71を導出すれば、薬剤の影響を排除した線維化の程度を評価することができる。
 なお、図21で示した解析結果表示画面120においては、血管周囲領域36における線維化領域35と非血管周囲領域115における線維化領域35とを色分けし、評価情報113として、血管周囲領域36における線維化領域35の面積占有率と長さ率、非血管周囲領域115における線維化領域35の面積占有率と長さ率を表示しているが、これに限らない。図23に示す解析結果表示画面125のように、血管周囲領域36における線維化領域35のみを例えば緑色で塗り潰し(枠126の拡大図である図24も参照)、血管周囲領域36における線維化領域35の面積占有率と長さ率のみを評価情報127として表示してもよい。あるいは、図示は省略するが、図23の場合とは逆に、非血管周囲領域115における線維化領域35のみを例えば青色で塗り潰し、非血管周囲領域115における線維化領域35の面積占有率と長さ率のみを評価情報として表示してもよい。図21で示した表示態様、図23で示した表示態様、および図23の場合とは逆の表示態様を、切り替え可能に構成してもよい。
 機械学習モデル111を用いることなく、血管周囲領域36を抽出してもよい。例えば周知の画像認識技術を用いて血管領域32を抽出し、抽出した血管領域32の周囲を取り囲む、例えば幅20画素の領域を血管周囲領域36として抽出する。あるいは、ユーザに血管周囲領域36を指定させてもよい。
 [第3実施形態]
 図25~図28に示す第3実施形態では、肝臓LVを通る中心静脈の周囲を含む中心静脈周囲領域36Cと、非血管周囲領域115とに分けて評価情報133を導出する。
 図25に示すように、第3実施形態の抽出部130は、標本画像群21Gを構成する各標本画像21から、機械学習モデル131を用いて中心静脈周囲領域36C、門脈周囲領域36P、および非血管周囲領域115を抽出する。
 機械学習モデル131は、上記第2実施形態の機械学習モデル111と同様に、U-Net等の畳み込みニューラルネットワークである。機械学習モデル131はストレージデバイス45に記憶されており、RW制御部60により読み出されて抽出部130に出力される。機械学習モデル131は、標本画像21を入力画像とし、例えば図26に示すように、中心静脈周囲領域36Cの画素30を白、非血管周囲領域115の画素30を黒に置換した二値化画像を出力画像とするモデルである。機械学習モデル131は、中心静脈の領域32Cの周囲を取り囲む、例えば幅20画素程度の領域を、中心静脈周囲領域36Cとして抽出する。同様に、機械学習モデル131は、門脈の領域32Pの周囲を取り囲む、例えば幅20画素程度の領域を、門脈周囲領域36Pとして抽出する。また、機械学習モデル131は、中心静脈周囲領域36Cおよび門脈周囲領域36Pとして抽出した画素30以外の切片12の画素30を、非血管周囲領域115として抽出する。機械学習モデル131は、学習用の標本画像21と、当該学習用の標本画像21の中心静脈周囲領域36Cおよび門脈周囲領域36Pがユーザの手で指定された正解画像との組を複数用いて学習される。
 図25において、抽出部130は、中心静脈周囲領域36Cの画素30を白、非血管周囲領域115の画素30を黒に置換した二値化画像を、抽出結果132として導出部63および表示制御部64に出力する。導出部63は、抽出部130からの抽出結果132および検出部62からの検出結果70に基づいて、評価情報133として、中心静脈周囲領域36Cにおける線維化領域35の面積占有率、および中心静脈周囲領域36Cにおける線維化領域35の長さ率を導出する。また、導出部63は、評価情報133として、非血管周囲領域115における線維化領域35の面積占有率、および非血管周囲領域115における線維化領域35の長さ率を導出する。
 中心静脈周囲領域36Cにおける線維化領域35の面積占有率は、図8および図9で示したステップST12において、中心静脈周囲領域36Cにおける線維化領域35に存在する画素30の画素数を計数し、これをステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで導出する。中心静脈周囲領域36Cにおける線維化領域35の長さ率は、図10および図11で示したステップST21において、細線化処理後の血管周囲領域36における線維化領域35の画素30の画素数を計数し、これをステップST11で計数した各標本画像21の切片領域82に存在する画素30の画素数で除算することで導出する。
 表示制御部64は、図27に示す解析結果表示画面140をディスプレイ40に表示する。解析結果表示画面140には、枠141の拡大図である図28にも示すように、中心静脈周囲領域36Cにおける線維化領域35が例えば緑色、非血管周囲領域115における線維化領域35が例えば青色で塗り潰された標本画像21が表示される。また、評価情報133として、中心静脈周囲領域36Cにおける線維化領域35の面積占有率と長さ率、非血管周囲領域115における線維化領域35の面積占有率と長さ率が表示される。
 このように、第3実施形態では、中心静脈周囲領域36Cと非血管周囲領域115とに分けて評価情報71を導出する。このため、非アルコール性脂肪肝炎(NASH:Non-Alcoholic Steatohepatitis)のような、中心静脈周囲領域36Cから非血管周囲領域115に向けて線維化が進展する疾患の病態を正しく評価することができる。
 なお、上記第2実施形態と同様に、中心静脈周囲領域36Cにおける線維化領域35のみを例えば緑色で塗り潰し、中心静脈周囲領域36Cにおける線維化領域35の面積占有率と長さ率のみを評価情報として表示してもよい。この表示態様と、図27で示した表示態様とを、切り替え可能に構成してもよい。また、ユーザに中心静脈周囲領域36Cを指定させる等して、機械学習モデル111を用いることなく、中心静脈周囲領域36Cを抽出してもよい。
 図29Aに示す評価情報142のように、中心静脈周囲領域36Cにおける線維化領域35の面積占有率と長さ率だけでなく、門脈周囲領域36Pにおける線維化領域35の面積占有率と長さ率を導出してもよい。また、図29Bに示す評価情報143のように、門脈間の架橋性線維化、すなわちP-P bridgingの本数、門脈と中心静脈間の架橋性線維化、すなわちP-C bridgingの本数を導出してもよい。
 [第4実施形態]
 図30に示す第4実施形態では、標本画像21に対して圧縮処理を施した後、線維化領域35の検出を行う。
 図30において、第4実施形態の病理診断支援装置のCPUは、上記第1実施形態の各部60~64(図30では検出部62以外は図示省略)に加えて、圧縮部150として機能する。圧縮部150には、RW制御部60がストレージデバイス45から読み出した標本画像群21Gが入力される。圧縮部150は、標本画像群21Gを構成する複数枚の標本画像21の各々に対して圧縮処理を施す。圧縮部150は、圧縮処理後の標本画像群21Gを検出部62に出力する。検出部62は、圧縮処理された標本画像21から線維化領域35を検出し、検出結果70を導出部63等に出力する。
 このように、第4実施形態では、RW制御部60において取得した標本画像21に対して、圧縮部150で圧縮処理を施した後、検出部62において線維化領域35の検出を行う。このため、フルサイズの標本画像21から線維化領域35を検出する場合と比べて、処理負荷を軽減することができる。
 上記各実施形態では、患者Pの肝臓LVから採取した標本20を例示したが、これに限らない。例えば図31に示すように、患者Pの肺LGから生検針10を用いて採取した検体155から作製した標本156であってもよい。また、皮膚、乳房、胃、大腸等から採取した標本であってもよい。
 標本画像21の画素値の色チャンネルは、例示のRGB色チャンネルに限らない。CMYG(Cyan、Magenta、Yellow、Green)の4色の色チャンネルであってもよい。
 評価情報の出力形態としては、解析結果表示画面で表示する形態に限らない。評価情報を紙媒体に印刷出力してもよいし、評価情報のデータファイルを電子メール等で送信出力してもよい。
 病理診断支援装置を構成するコンピュータのハードウェア構成は種々の変形が可能である。病理診断支援装置を、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、RW制御部60および指示受付部61の機能と、検出部62、導出部63、および表示制御部64の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータで病理診断支援装置を構成する。
 このように、病理診断支援装置のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム55等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
 上記各実施形態において、例えば、RW制御部60、指示受付部61、検出部62、導出部63、表示制御部64、抽出部110、130、および圧縮部150といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム55)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU47に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 生検針
11、155 検体
12 切片
13 ガラス
14 カバーガラス
20、156 標本
21 標本画像
21G 標本画像群
25 病理診断支援装置
30 画素
31 表
32 血管領域
32C 中心静脈の領域
32P 門脈の領域
33 実質領域
35 線維化領域
36 血管周囲領域
36C 中心静脈周囲領域
36P 門脈周囲領域
37、84A、84B、121、126、141 枠
40 ディスプレイ
41 入力デバイス
45 ストレージデバイス
46 メモリ
47 CPU(プロセッサ)
48 通信部
49 バスライン
55 作動プログラム(病理診断支援装置の作動プログラム)
60 リードライト制御部(RW制御部)
61 指示受付部
62 検出部
63 導出部
64 表示制御部
70 検出結果
71、101、106、113、127、133、142、143 評価情報
75、95 吸収スペクトル
80 二値化画像
82 切片領域
83 線
90、100、105、120、125、140 解析結果表示画面
91A コマ戻しボタン
91B コマ送りボタン
92 確認ボタン
97 テーブル
110、130 抽出部
111、131 機械学習モデル
112、132 抽出結果
115 非血管周囲領域
150 圧縮部
LG 肺
LV 肝臓
P 患者
PV 画素値
ST10、ST11、ST12、ST13、ST20、ST21、ST22、ST110
 ステップ
ST100 ステップ(取得処理)
ST120 ステップ(検出処理)
ST130 ステップ(導出処理)
ST140 ステップ(出力処理)
TH 閾値
TH1、TH2 第1閾値、第2閾値

Claims (8)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     色素で染色された生体組織の標本を写した複数の色チャンネルの画素値を有する標本画像を取得し、
     前記複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、前記生体組織の線維化領域を検出し、
     検出した前記線維化領域に基づいて、前記生体組織の線維化の程度を表す評価情報を導出し、
     前記評価情報を出力する、
    病理診断支援装置。
  2.  前記プロセッサは、
     前記色素の吸収スペクトルにおいて、吸収率の差が相対的に大きい2つの色領域に対応する2つの色チャンネルの画素値の比を算出する請求項1に記載の病理診断支援装置。
  3.  前記プロセッサは、
     前記生体組織を通る血管の周囲を含む血管周囲領域と、前記血管周囲領域以外の非血管周囲領域とに分けて前記評価情報を導出する請求項1または請求項2に記載の病理診断支援装置。
  4.  前記標本は肝臓から採取されたものであり、
     前記プロセッサは、前記肝臓を通る中心静脈の周囲を含む中心静脈周囲領域と、前記非血管周囲領域とに分けて前記評価情報を導出する請求項3に記載の病理診断支援装置。
  5.  前記プロセッサは、
     前記評価情報として、前記線維化領域の面積および長さのうちの少なくともいずれかに関する数値を導出する請求項1から請求項4のいずれか1項に記載の病理診断支援装置。
  6.  前記プロセッサは、
     取得した前記標本画像に対して圧縮処理を施した後、前記線維化領域の検出を行う請求項1から請求項5のいずれか1項に記載の病理診断支援装置。
  7.  色素で染色された生体組織の標本を写した複数の色チャンネルの画素値を有する標本画像を取得する取得処理と、
     前記複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、前記生体組織の線維化領域を検出する検出処理と、
     検出した前記線維化領域に基づいて、前記生体組織の線維化の程度を表す評価情報を導出する導出処理と、
     前記評価情報を出力する出力処理と、
    をプロセッサが実行する病理診断支援装置の作動方法。
  8.  色素で染色された生体組織の標本を写した複数の色チャンネルの画素値を有する標本画像を取得する取得処理と、
     前記複数の色チャンネルのうちの2つの色チャンネルの画素値の比と、予め設定された閾値との比較により、前記生体組織の線維化領域を検出する検出処理と、
     検出した前記線維化領域に基づいて、前記生体組織の線維化の程度を表す評価情報を導出する導出処理と、
     前記評価情報を出力する出力処理と、
    をプロセッサに実行させる病理診断支援装置の作動プログラム。
PCT/JP2021/019793 2020-07-02 2021-05-25 病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム WO2022004198A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022533741A JP7436666B2 (ja) 2020-07-02 2021-05-25 病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム
CN202180045590.8A CN115769073A (zh) 2020-07-02 2021-05-25 病理诊断辅助装置、病理诊断辅助装置的工作方法、病理诊断辅助装置的工作程序
EP21833599.0A EP4177605A4 (en) 2020-07-02 2021-05-25 PATHOLOGICAL DIAGNOSTIC DEVICE, OPERATING METHOD FOR THE PATHOLOGICAL DIAGNOSTIC DEVICE AND OPERATING PROGRAM FOR THE PATHOLOGICAL DIAGNOSTIC DEVICE
US18/146,030 US20230125525A1 (en) 2020-07-02 2022-12-23 Pathological diagnosis support apparatus, operation method for pathological diagnosis support apparatus, and operation program for pathological diagnosis support apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-115065 2020-07-02
JP2020115065 2020-07-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/146,030 Continuation US20230125525A1 (en) 2020-07-02 2022-12-23 Pathological diagnosis support apparatus, operation method for pathological diagnosis support apparatus, and operation program for pathological diagnosis support apparatus

Publications (1)

Publication Number Publication Date
WO2022004198A1 true WO2022004198A1 (ja) 2022-01-06

Family

ID=79315908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019793 WO2022004198A1 (ja) 2020-07-02 2021-05-25 病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム

Country Status (5)

Country Link
US (1) US20230125525A1 (ja)
EP (1) EP4177605A4 (ja)
JP (1) JP7436666B2 (ja)
CN (1) CN115769073A (ja)
WO (1) WO2022004198A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215820A (ja) * 2007-02-28 2008-09-18 Tokyo Institute Of Technology スペクトルを用いた解析方法
JP2013113680A (ja) * 2011-11-28 2013-06-10 Keio Gijuku 病理診断支援装置、病理診断支援方法、及び病理診断支援プログラム
US20150339816A1 (en) * 2013-01-08 2015-11-26 Agency For Science, Technology And Research A method and system for assessing fibrosis in a tissue
WO2019044579A1 (ja) * 2017-08-31 2019-03-07 国立大学法人大阪大学 病理診断装置、画像処理方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2772882A1 (en) * 2013-03-01 2014-09-03 Universite D'angers Automatic measurement of lesions on medical images
EP2980753A1 (en) * 2014-08-01 2016-02-03 Centre Hospitalier Universitaire d'Angers Method for displaying easy-to-understand medical images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215820A (ja) * 2007-02-28 2008-09-18 Tokyo Institute Of Technology スペクトルを用いた解析方法
JP2013113680A (ja) * 2011-11-28 2013-06-10 Keio Gijuku 病理診断支援装置、病理診断支援方法、及び病理診断支援プログラム
US20150339816A1 (en) * 2013-01-08 2015-11-26 Agency For Science, Technology And Research A method and system for assessing fibrosis in a tissue
WO2019044579A1 (ja) * 2017-08-31 2019-03-07 国立大学法人大阪大学 病理診断装置、画像処理方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CALVARUSO, V. ET AL.: "Computer-assisted image analysis of liver collagen: Relationship to Ishak scoring and hepatic venous pressure gradient", HEPATOLOGY, vol. 49, no. 4, 2009, pages 1236 - 1244, XP055325291, DOI: 10.1002/hep.22745 *
See also references of EP4177605A4
VINCENZA CALVARUSO ET AL.: "Computer-Assisted Image Analysis of Liver Collagen: Relationship to Ishak Scoring and Hepatic Venous Pressure Gradient", HEPATOLOGY, no. 49, April 2009 (2009-04-01), pages 1236 - 1244, XP055325291, DOI: 10.1002/hep.22745

Also Published As

Publication number Publication date
CN115769073A (zh) 2023-03-07
EP4177605A4 (en) 2023-12-06
EP4177605A1 (en) 2023-05-10
JPWO2022004198A1 (ja) 2022-01-06
JP7436666B2 (ja) 2024-02-21
US20230125525A1 (en) 2023-04-27

Similar Documents

Publication Publication Date Title
US11937973B2 (en) Systems and media for automatically diagnosing thyroid nodules
Militello et al. A semi-automatic approach for epicardial adipose tissue segmentation and quantification on cardiac CT scans
US10165987B2 (en) Method for displaying medical images
JP5442542B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JP2002165757A (ja) 診断支援装置
Di Leo et al. A software tool for the diagnosis of melanomas
US10748279B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
Ebadi et al. Automated detection of pneumonia in lung ultrasound using deep video classification for COVID-19
Hatanaka et al. Improvement of automatic hemorrhage detection methods using brightness correction on fundus images
Hatanaka et al. CAD scheme to detect hemorrhages and exudates in ocular fundus images
Aibinu et al. Automatic diagnosis of diabetic retinopathy from fundus images using digital signal and image processing techniques
WO2022004198A1 (ja) 病理診断支援装置、病理診断支援装置の作動方法、病理診断支援装置の作動プログラム
Tolentino et al. Detection of circulatory diseases through fingernails using artificial neural network
US20230117179A1 (en) System and method for generating an indicator from an image of a histological section
KR102393661B1 (ko) 다중 영상 내시경 시스템, 그 영상 제공 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
CN110827255A (zh) 一种基于冠状动脉ct图像的斑块稳定性预测方法及系统
Kollorz et al. Using power watersheds to segment benign thyroid nodules in ultrasound image data
JP2007236956A (ja) 内視鏡診断支援装置及び内視鏡画像処理方法
CN113038868A (zh) 医疗图像处理系统
CN108280832A (zh) 医学图像分析方法、医学图像分析系统以及存储介质
JP7092888B2 (ja) 医療画像処理システム及び学習方法
Patil et al. Implementation of segmentation of blood vessels in retinal images on FPGA
JP6786260B2 (ja) 超音波診断装置及び画像生成方法
Sowmiya et al. Survey or Review on the Deep Learning Techniques for Retinal Image Segmentation in Predicting/Diagnosing Diabetic Retinopathy
CN114209299B (zh) 一种基于ippg技术的人体生理参数检测通道选择的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21833599

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022533741

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021833599

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021833599

Country of ref document: EP

Effective date: 20230202

NENP Non-entry into the national phase

Ref country code: DE