WO2022270152A1 - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2022270152A1
WO2022270152A1 PCT/JP2022/018960 JP2022018960W WO2022270152A1 WO 2022270152 A1 WO2022270152 A1 WO 2022270152A1 JP 2022018960 W JP2022018960 W JP 2022018960W WO 2022270152 A1 WO2022270152 A1 WO 2022270152A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation value
target organ
evaluation
image processing
pancreas
Prior art date
Application number
PCT/JP2022/018960
Other languages
English (en)
French (fr)
Inventor
彩 小笠原
瑞希 武井
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023529662A priority Critical patent/JPWO2022270152A1/ja
Publication of WO2022270152A1 publication Critical patent/WO2022270152A1/ja
Priority to US18/528,754 priority patent/US20240112786A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Definitions

  • the present disclosure relates to an image processing device, method and program.
  • CT Computer-aided diagnosis
  • MRI Magnetic Resonance Imaging
  • the lesion may not be clearly depicted in the medical image.
  • pancreatic cancer-related tumors are relatively clearly visualized, but in non-contrast-enhanced tomographic images, almost no pancreatic cancer-related tumors are visualized.
  • Conventional CAD is developed on the premise that lesions are clearly drawn on medical images to some extent, so it has been difficult to find lesions that are hardly drawn as described above.
  • the method described in International Publication No. 2010-035517 can only determine the presence or absence of lesions in a partial region of the target organ.
  • the shape change of the target organ is not localized in a small region, the shape change of the small region can be accurately detected by simply integrating the evaluation values of the small region as in the method described in Liu et al. I cannot judge.
  • the present disclosure has been made in view of the above circumstances, and aims to enable an abnormality of a target organ to be evaluated with high accuracy in consideration of the relationship between multiple small regions in the target organ.
  • An image processing apparatus comprises at least one processor, a processor extracting a target organ from the medical image; Set multiple small regions in the target organ, Deriving a first evaluation value representing the physical quantity of each of the plurality of small regions, deriving at least one second evaluation value representing the relationship of the first evaluation values between the plurality of small regions; Based on the second evaluation value, a third evaluation value that suggests the presence or absence of abnormality in the entire target organ is derived.
  • the first evaluation value is a physical quantity related to the size of the small area
  • the second evaluation value may be an evaluation value relating to the difference in size between small regions.
  • the processor sets an axis passing through the target organ, A small area may be set along the axis.
  • the processor may display the evaluation result based on the third evaluation value on the display.
  • the evaluation result based on the third evaluation value may be the probability of occurrence of a finding representing the feature of the shape of the target organ.
  • the findings may include at least one of atrophy, swelling, stenosis, and dilation occurring in the target organ.
  • the processor distinguishes the position of a small region having a relatively high degree of contribution to the evaluation result in the target organ from the position of a small region having a relatively low degree of contribution, and displays the position on the display. can be anything.
  • the processor displays on the display at least one of the first evaluation value and the second evaluation value of the small region having a relatively high degree of contribution to the evaluation result in the target organ.
  • the medical image is a tomographic image of the abdomen including the pancreas
  • the target organ may be the pancreas.
  • the processor may set small regions by dividing the pancreas into the head, body and tail.
  • An image processing method extracts a target organ from a medical image, Set multiple small regions in the target organ, Deriving a first evaluation value representing the physical quantity of each of the plurality of small regions, deriving at least one second evaluation value representing the relationship of the first evaluation values between the plurality of small regions; Based on the second evaluation value, a third evaluation value that suggests the presence or absence of abnormality in the entire target organ is derived.
  • the image processing method according to the present disclosure may be provided as a program for causing a computer to execute it.
  • the abnormality of the target organ can be evaluated with high accuracy.
  • a diagram for explaining the derivation of the diameter in the cross section of the pancreas A diagram showing a schematic configuration of a recurrent neural network
  • Flowchart showing processing performed in the present embodiment Diagram to illustrate the main pancreatic duct and pancreatic parenchyma A diagram schematically showing a cross section of the pancreas
  • FIG. 1 is a diagram showing a schematic configuration of a medical information system.
  • a computer 1 including an image processing apparatus according to this embodiment, an imaging apparatus 2, and an image storage server 3 are connected via a network 4 in a communicable state.
  • the computer 1 contains the image processing apparatus according to this embodiment, and the image processing program according to this embodiment is installed.
  • the computer 1 may be a workstation or personal computer directly operated by a doctor who diagnoses, or a server computer connected to them via a network.
  • the image processing program is stored in a storage device of a server computer connected to a network or in a network storage in an externally accessible state, and is downloaded and installed on the computer 1 used by a doctor upon request. Alternatively, it is recorded on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), distributed, and installed in the computer 1 from the recording medium.
  • a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), distributed, and installed in the computer 1 from the recording medium.
  • the imaging device 2 is a device that generates a three-dimensional image representing the site by imaging the site to be diagnosed of the subject. ) equipment, etc.
  • a three-dimensional image composed of a plurality of tomographic images generated by the imaging device 2 is transmitted to the image storage server 3 and stored.
  • the imaging device 2 is a CT device, and generates a CT image of the chest and abdomen of the subject as a three-dimensional image.
  • the acquired CT image may be a contrast-enhanced CT image or a non-contrast CT image.
  • the image storage server 3 is a computer that stores and manages various data, and is equipped with a large-capacity external storage device and database management software.
  • the image storage server 3 communicates with other devices via a wired or wireless network 4 to transmit and receive image data and the like.
  • various data including image data of a three-dimensional image generated by the photographing device 2 are acquired via a network, stored in a recording medium such as a large-capacity external storage device, and managed.
  • the image data storage format and communication between devices via the network 4 are based on protocols such as DICOM (Digital Imaging and Communication in Medicine).
  • FIG. 2 is a diagram showing the hardware configuration of the image processing apparatus according to this embodiment.
  • the image processing device 20 includes a CPU (Central Processing Unit) 11, a nonvolatile storage 13, and a memory 16 as a temporary storage area.
  • the image processing apparatus 20 also includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I/F (InterFace) 17 connected to the network 4 .
  • CPU 11 , storage 13 , display 14 , input device 15 , memory 16 and network I/F 17 are connected to bus 18 .
  • the CPU 11 is an example of a processor in the present disclosure.
  • the storage 13 is realized by HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, and the like.
  • the image processing program 12 is stored in the storage 13 as a storage medium.
  • the CPU 11 reads out the image processing program 12 from the storage 13 , expands it in the memory 16 , and executes the expanded image processing program 12 .
  • FIG. 3 is a diagram showing the functional configuration of the image processing apparatus according to this embodiment.
  • the image processing apparatus 20 includes an image acquisition unit 21, a target organ extraction unit 22, a small region setting unit 23, a first evaluation value derivation unit 24, a second evaluation value derivation unit 25, a third An evaluation value derivation unit 26 and a display control unit 27 are provided.
  • the CPU 11 includes an image acquisition unit 21, a target organ extraction unit 22, a small area setting unit 23, a first evaluation value derivation unit 24, and a second evaluation value derivation unit. 25 , functions as a third evaluation value derivation unit 26 and a display control unit 27 .
  • the image acquisition unit 21 acquires the target image G0 to be processed from the image storage server 3 according to an instruction from the input device 15 by the operator.
  • the target image G0 is a CT image composed of a plurality of tomographic images including the chest and abdomen of the human body, as described above.
  • the target image G0 is an example of the medical image of the present disclosure.
  • the target organ extraction unit 22 extracts target organs from the target image G0.
  • the target organ is the pancreas.
  • the target organ extraction unit 22 consists of a semantic segmentation model (hereinafter referred to as an SS (Semantic Segmentation) model) that has undergone machine learning so as to extract the pancreas from the target image G0.
  • the SS model is a machine learning model that outputs an output image in which each pixel of an input image is labeled to represent an extraction target (class).
  • the input image is a tomographic image forming the target image G0
  • the extraction target is the pancreas
  • the output image is an image in which the pancreas region is labeled.
  • the SS model is constructed by a convolutional neural network (CNN) such as ResNet (Residual Networks) and U-Net (U-shaped Networks).
  • CNN convolutional neural network
  • the target organ extraction unit 22 extracts the pancreas 30 from the target image G0 as shown in FIG. Note that FIG. 4 shows one tomographic image D0 included in the target image G0.
  • the extraction of target organs is not limited to using the SS model. Any method for extracting the target organ from the target image G0, such as template matching or threshold processing, can be applied.
  • the small region setting unit 23 sets a plurality of small regions in the pancreas, which is the target organ extracted from the target image G0 by the target organ extraction unit 22.
  • the small region setting unit 23 divides the pancreas 30 extracted from the target image G0 into the head, the body, and the tail so that each of the head, the body, and the tail is set as a small region. set.
  • FIG. 5 is a diagram for explaining the division of the pancreas into the head, body and tail.
  • FIG. 5 is the figure which looked at the pancreas from the front of the human body.
  • up, down, left, and right are based on the case where a human body in a standing position is viewed from the front.
  • a vein 31 and an artery 32 run vertically in parallel behind the pancreas 30 with a gap therebetween.
  • the pancreas 30 is anatomically divided into a head on the left side of the vein 31 , a body section between the vein 31 and the artery 32 , and a tail on the right side of the artery 32 .
  • the subregion setting unit 23 divides the pancreas 30 into three subregions, a head 33 , a body 34 and a tail 35 , with the vein 31 and the artery 32 as references.
  • the boundaries between the head 33, the body 34, and the tail 35 are based on the definition of boundaries described in "Pancreatic Cancer Treatment Regulations 7th Edition, Supplementary Edition, edited by the Japan Pancreas Society, page 12, September 2020.”
  • the left edge of the vein 31 (right edge of the vein 31 when the human body is viewed from the front) is defined as the boundary between the body 33 and the body 34
  • the left edge of the artery 32 (when the human body is viewed from the front)
  • the right edge of the artery 32 at the time of injection) is the boundary between the body 34 and the tail 35 .
  • the small area setting unit 23 extracts the vein 31 and the artery 32 near the pancreas 30 in the target image G0.
  • the small area setting unit 23 selects the blood vessel area and the center line ( namely, the central axis).
  • the positions and principal axis directions of a plurality of candidate points forming the center line of the blood vessel are calculated based on the values of the voxel data forming the target image G0.
  • the Hessian matrix is calculated for the target image G0, and the eigenvalues of the calculated Hessian matrix are analyzed to calculate the position information and the principal axis direction of a plurality of candidate points forming the core line of the blood vessel.
  • the small region setting unit 23 divides the pancreas 30 into a head 33 , a body 34 and a tail 35 based on the left edges (right edges when the human body is viewed from the front) of the extracted veins 31 and arteries 32 .
  • pancreas 30 is not limited to the above method.
  • pancreas 30 is divided into head 33, body 34 and tail 35 by using a machine-learned segmentation model to extract head 33, body 34 and tail 35 from pancreas 30.
  • a plurality of pairs of teacher data including a teacher image including the pancreas and a mask image obtained by dividing the pancreas into the head, body and tail based on the boundary definition described above are prepared and segmented. You just have to learn the model.
  • FIG. 6 is a diagram for explaining another example of setting small areas. 6 is a view of the pancreas 30 viewed from the head side of the human body.
  • the small area setting unit 23 extracts the central axis 36 extending in the longitudinal direction of the pancreas 30 .
  • a method for extracting the central axis 36 a method similar to the above-described method for extracting the core lines of the veins 31 and the arteries 32 can be used.
  • the small region setting unit 23 may set small regions in the pancreas 30 by dividing the pancreas 30 into a plurality of small regions at equal intervals along the central axis 36 .
  • subregions 37A to 37C that overlap each other may be set in the pancreas 30, or spaced apart subregions such as subregions 37D and 37E may be set.
  • the small area may be set along the central axis 36 of the pancreas 30, or may be set at an arbitrary position.
  • the first evaluation value derivation unit 24 derives a first evaluation value representing the physical quantity of each of the plurality of small regions set by the small region setting unit 23 .
  • a physical quantity relating to the size of the small area is derived as the first evaluation value.
  • the representative values of the diameters of the head 33, body 34, and tail 35 of the pancreas 30 are derived as first evaluation values E11, E12, and E13.
  • the first evaluation value derivation unit 24 first sets the central axis 36 of the pancreas 30 as shown in FIG. Then, in each of the head portion 33 , body portion 34 and tail portion 35 , a plurality of cross sections perpendicular to the central axis 36 are set at regular intervals along the central axis 36 .
  • the cross section perpendicular to the central axis 36 of the pancreas 30 is nearly circular as shown in FIG. 8, but not a perfect circle.
  • the first evaluation value derivation unit 24 is oriented in a plurality of directions passing through the central axis 36 in a cross section perpendicular to the central axis 36 (for example, four directions: vertical direction, horizontal direction, lower right to upper left direction and lower left to upper right direction) , and the representative value of the lengths in multiple directions is derived as the diameter of the cross section.
  • An average value, an intermediate value, a minimum value, a maximum value, or the like can be used as the representative value.
  • the first evaluation value derivation unit 24 calculates the representative values of the diameters of a plurality of cross sections orthogonal to the central axis 36 in each of the head 33, the body 34, and the tail 35. Derive as the diameter of each of the tails 35 .
  • the representative value an average value, median value, minimum value, maximum value, or the like of the diameters of a plurality of cross sections can be used.
  • the representative values of the diameters of the head 33, body 34 and tail 35 are the first evaluation values E11, E12 and E13.
  • the first evaluation value derivation unit 24 uses the representative values of the areas of the plurality of cross sections, or the head 33, the body 34, and the The volume of tail 35 may be derived as the first evaluation value.
  • the area of the cross section can be obtained by using the number of pixels in the cross section, and the volume of the head 33, body 34 and tail 35 can be obtained by using the number of pixels in the head 33, body 34 and tail 35.
  • the first evaluation value derivation unit 24 calculates the representative value of the diameter, the representative value of the area, Alternatively, the volume may be derived as the first evaluation value.
  • the second evaluation value derivation unit 25 derives at least one second evaluation value representing the relationship between the first evaluation values E11, E12, and E13 among the plurality of small regions.
  • the second evaluation value derivation unit 25 derives an evaluation value regarding the difference in size between the plurality of small regions as the second evaluation value.
  • the second evaluation value deriving unit 25 calculates the ratio E11/E12 of the first evaluation value E11 for the head 33 to the first evaluation value E12 for the body 34 of the pancreas 30, and the tail of the pancreas
  • a ratio E12/E13 of the first evaluation value E12 of the body part 34 to the first evaluation value E13 of 35 is derived as second evaluation values E21 and E22, respectively.
  • The absolute value
  • a second evaluation value representing the relationship of the first evaluation values between adjacent small regions may be derived.
  • the second evaluation value derivation unit 25 may derive the ratio or the absolute value of the difference between the first evaluation values derived for the plurality of small regions as the second evaluation value.
  • the ratio may be, for example, the ratio of the first evaluation value of the left small region to the first evaluation value of the right small region when the human body is viewed from the front, but the ratio may be reversed.
  • may be derived as the second evaluation value.
  • the ratio of the first evaluation value of the small region 37A to the first evaluation value of the small region 37E or the absolute value of the difference is derived as the second evaluation value.
  • FIG. 9 is a diagram showing a schematic configuration of the RNN that derives the second evaluation value.
  • RNN 40 consists of encoder 41 and decoder 42 .
  • the first evaluation values E11, E12, and E13 are sequentially input to the three nodes forming the encoder 41 .
  • the decoder 42 is trained to derive a second evaluation value representing the relationship of the first evaluation values between adjacent small regions, and from the input first evaluation values E11, E12, E13, Second evaluation values E21 and E22 are derived.
  • the third evaluation value derivation unit 26 Based on the second evaluation value, the third evaluation value derivation unit 26 derives a third evaluation value that suggests the presence or absence of an abnormality in the entire pancreas, which is the target organ.
  • a tumor develops in the pancreas 30, various findings appear in the pancreas 30.
  • the pancreatic parenchyma around the tumor may swell, or the pancreatic parenchyma other than the tumor may atrophy.
  • the main pancreatic duct within the pancreas is dilated or constricted.
  • the third evaluation value derivation unit 26 derives the probability of atrophy of the pancreas as the third evaluation value based on the second evaluation values E21 and E22.
  • the third evaluation value derivation unit 26 has a derivation model that has undergone machine learning so as to derive the probability of atrophy of the entire pancreas when the second evaluation values E21 and E22 are input.
  • the derived model is constructed by a convolutional neural network similar to the SS model.
  • the derivation model of the third evaluation value derivation unit 26 may derive the presence or absence of atrophy as the third evaluation value instead of the probability of atrophy. Also, the third evaluation value deriving unit 26 compares the second evaluation values E21 and E22 with a predetermined threshold value, and at least one of the second evaluation values E21 and E22 exceeds the threshold value. In this case, the determination result that there is atrophy may be derived as the third evaluation value. In this case, when all of the second evaluation values E21 and E22 are equal to or less than the threshold value, the third evaluation value derivation unit 26 derives the determination result that there is no atrophy as the third evaluation value.
  • the presence or absence of atrophy may be derived as the third evaluation value by comparing the sum or weighted sum of the second evaluation values with a threshold value.
  • the third evaluation value deriving unit 26 derives a value of 1 when there is atrophy and a value of 0 when there is no atrophy as the third evaluation value.
  • FIG. 10 is a diagram showing a threshold table for deriving the third evaluation value.
  • the table 45 includes a threshold Th1 used when the patient is under 60 years old and a threshold Th2 used when the patient is 60 years old or older. Th1 ⁇ Th2. Note that the table 45 may be stored in the storage 13 .
  • the third evaluation value derivation unit 26 when the probability of atrophy is greater than a predetermined threshold value (for example, 0.6), or when the third evaluation value indicating the presence of atrophy is derived, a plurality of A small region from which the largest second evaluation value of the second evaluation values is derived may be specified as a region that serves as a basis for atrophy. For example, it is assumed that, of the second evaluation values E21 and E22, the probability of atrophy derived from the second evaluation value E22 is greater. In this case, the second evaluation value E22 is the ratio of the first evaluation value E12 of the body 34 to the first evaluation value E13 of the tail 35 of the pancreas. At least one of portion 34 and tail 35 is identified as the area underlying the atrophy.
  • a predetermined threshold value for example, 0.6
  • the subregion having the larger first evaluation value or the subregion having the smaller first evaluation value of the body portion 34 and the tail portion 35 may be specified as the region serving as the basis for atrophy.
  • the body part 34 having a large first evaluation value is specified as the region that serves as the basis for atrophy.
  • a small region from which the second evaluation value is derived up to the number may be specified as a region that is the basis for atrophy.
  • FIG. 11 is a diagram showing a display screen for evaluation results.
  • the evaluation result display screen 50 displays one tomographic image D0 of the target image G0 and the evaluation result 51.
  • the evaluation result 51 is the probability of atrophy, which is the third evaluation value itself.
  • 0.9 is displayed as the probability of atrophy.
  • the position of the small region in the pancreas 30 that contributes relatively high to the evaluation result based on the third evaluation value is distinguished from the position of the small region that contributes relatively low to the tomographic image D0. Is displayed.
  • the third evaluation value derivation unit 26 specifies the body part 34 as the area that serves as the basis for atrophy. Therefore, the display control unit 27 displays the tomographic image D0 by distinguishing the body part 34 from the head part 33 and the tail part 35 .
  • the body part 34 is an example of a small region with a relatively high degree of contribution to the evaluation result
  • the head 33 and the tail part 35 are examples of small regions with a relatively low degree of contribution to the evaluation result.
  • the area of the body 34 is emphasized more than the head 33 and the tail 35 are displayed.
  • the region of the body part 34 may be highlighted.
  • hatching indicates that the body part 34 of the pancreas 30 is colored.
  • the body part 34 may be emphasized by giving a color to the outline of the body part 34 or by increasing the luminance.
  • the highlighting may be switched between ON and OFF according to an instruction from the input device 15 .
  • a window 52 including an enlarged region of the pancreas 30 is displayed in a separate window from the target image G0 (tomographic image D0) in accordance with an instruction from the input device 15.
  • the pancreas 30 may be highlighted. Accordingly, it is possible to prevent the interpretation of the pancreas 30 from being hindered by the highlighted display.
  • the third evaluation value derivation unit 26 may derive a plurality of small regions as regions that serve as grounds for atrophy. be.
  • marks 53A and 53B may be given to a plurality of (two in FIG. 13) small areas.
  • the small region from which the smallest first evaluation value was derived is specified, and the diameter 54 of that small region is displayed as shown in FIG. You may make it In FIG. 13, 10 mm is displayed as the diameter 54 of the smallest subregion among the subregions that are grounds for atrophy.
  • the second evaluation value may be displayed.
  • FIG. 14 is a flow chart showing the processing performed in this embodiment.
  • the image acquisition unit 21 acquires the target image G0 from the storage 13 (step ST1), and the target organ extraction unit 22 extracts the pancreas, which is the target organ, from the target image G0 (step ST2).
  • the small region setting unit 23 sets a plurality of small regions in the pancreas, which is the target organ (step ST3).
  • the first evaluation value derivation unit 24 derives a first evaluation value representing the physical quantity in each of the plurality of small regions (step ST4).
  • the second evaluation value derivation unit 25 derives at least one second evaluation value representing the relationship of the first evaluation values between the plurality of small regions (step ST5), and derives a third evaluation value.
  • the unit 26 derives a third evaluation value indicating the presence or absence of abnormality in the entire pancreas 30, which is the target organ (step ST6).
  • the display control unit 27 displays the evaluation result based on the third evaluation value on the display 14 (step ST7), and ends the process.
  • the first evaluation value representing the physical quantity of each of the plurality of small regions is derived, and at least one second evaluation value representing the relationship of one evaluation value between the plurality of small regions.
  • An evaluation value is derived, and a third evaluation value that suggests the presence or absence of abnormality in the entire target organ is derived based on the second evaluation value. Further, the evaluation result based on the third evaluation value is displayed on the display 14. FIG. Therefore, it is possible to accurately evaluate the abnormality of the target organ by considering the relationship between the plurality of small regions in the target organ.
  • the size of the target organ such as atrophy and swelling, can be evaluated. Abnormalities caused by changes can be evaluated with high accuracy.
  • the position of a small region with a relatively high degree of contribution to the evaluation result in the target organ distinguishing it from the position of the small region with a relatively low degree of contribution, the position of the small region with a high degree of contribution to the evaluation result can be displayed. It becomes easier to recognize the position of the area. Therefore, it is possible to easily identify a position where there is a high possibility that an abnormality exists in the target organ.
  • the third evaluation value related to pancreatic atrophy is derived as a finding, but the present invention is not limited to this.
  • a third assessment value for pancreatic enlargement may be derived.
  • the third evaluation value derivation unit 26 may derive the probability of swelling or the presence or absence of swelling as the third evaluation value.
  • a plurality of small regions are set along the longitudinal direction of the pancreas, but it is not limited to this.
  • a main pancreatic duct 30A exists along the central axis 36 of the pancreas 30 within the pancreas 30 .
  • the pancreas 30 can be divided into the main pancreatic duct 30A area and the pancreatic parenchyma 30B area.
  • the main pancreatic duct 30A and the pancreatic parenchyma 30B may each be set as a small region.
  • the diameter of the main pancreatic duct 30A and the diameter of the pancreatic parenchyma 30B should be derived as the first evaluation values.
  • the diameters of the main pancreatic duct 30A and the pancreatic parenchyma 30B divide the main pancreatic duct 30A and the pancreatic parenchyma 30B into a plurality of subregions along the central axis 36 of the pancreas 30, and the diameters of the main pancreatic duct 30A and the pancreatic parenchyma 30B in the subregions are:
  • the diameters of the head portion 33, the body portion 34 and the tail portion 35 may be derived in the same manner as the diameters were derived.
  • the ratio between the diameter of the main pancreatic duct 30A and the diameter of the pancreatic parenchyma 30B or the absolute value of the difference in diameter can be used as the second evaluation value.
  • either one of the main pancreatic duct 30A and the pancreatic parenchyma 30B is divided into a plurality of regions along the central axis 36 of the pancreas 30 to set small regions, and a first evaluation value is derived for each small region.
  • first evaluation values are derived for the plurality of small regions, and at least one first evaluation value representing the relationship of the first evaluation values between the plurality of small regions is calculated.
  • An evaluation value of 2 is derived.
  • dilatation or narrowing of the main pancreatic duct 30A can be specified as a finding by the second evaluation value. Therefore, based on the second evaluation value, it is possible to derive a third evaluation value suggesting the presence or absence of dilatation or stenosis of the main pancreatic duct 30A as a finding.
  • FIG. 16 is a diagram schematically showing a cross section perpendicular to the central axis 36 of the pancreas 30. As shown in FIG. In FIG. 16, both the cross section of the pancreas 30 and the cross section of the main pancreatic duct 30A are indicated by circles. It is assumed that cross sections 60 and 61 shown in FIG. 16 represent cross sections in adjacent small regions. In cross section 60 shown in FIG.
  • the ratio of the diameter of main pancreatic duct 30A to the diameter of pancreas 30 is about 0.2, and in cross section 61, the ratio of the diameter of main pancreatic duct 30A to the diameter of pancreas 30 is about 0.5. is.
  • the second evaluation value is the absolute value of the difference between the first evaluation values
  • the second evaluation value is 0.3.
  • Such a second evaluation value serves as an index representing dilation or narrowing of the main pancreatic duct 30A. Therefore, for example, when the threshold is set to 0.1 to derive the third evaluation value, in the case of the cross sections 60 and 61 shown in FIG. can.
  • the present invention is not limited to this.
  • a physical quantity relating to the properties of the small region may be used as the first evaluation value.
  • the representative value of the CT values may be derived as the first evaluation value for each of the plurality of small regions.
  • an average value, median value, variance value, minimum value, maximum value, or the like can be used.
  • the second evaluation value can be the ratio of the first evaluation values or the absolute value of the difference between adjacent small regions.
  • a feature map consisting of feature amounts derived from the image of the small area itself or the image of the small area may be used as the first evaluation value.
  • the feature amount can be derived by filtering the image of the small area using a filter of a predetermined size having a predetermined filter coefficient.
  • the pancreas has a nearly circular cross section perpendicular to its central axis, but when an abnormality occurs, the shape of the cross section is distorted. Therefore, a shape value such as the circularity of the small region may be used as the physical quantity relating to the property of the small region, which is the first evaluation value. As the shape value, the roundness of each of the head 33, body 34 and tail 35 of the pancreas 30 can be used.
  • the central axis 36 of the pancreas 30 is set as shown in FIG. 6, the cross-sectional shape perpendicular to the central axis 36 is almost circular in a portion without abnormality.
  • the first evaluation value derivation unit 24 calculates the diameter in a plurality of directions (for example, the vertical direction, the horizontal direction, the lower right to upper left direction, and the lower left ) are derived, and the circularity is derived as a value that is half the difference between the maximum and minimum lengths in a plurality of directions.
  • the first evaluation value deriving unit 24 calculates the representative values of the roundness of a plurality of cross sections perpendicular to the central axis 36 in each of the head 33, the body 34, and the tail 35. 34 and tail 35, respectively.
  • the representative value an average value, an intermediate value, a variance value, a minimum value, a maximum value, or the like of roundness of a plurality of cross sections can be used.
  • a representative value of the circularity of each of the head portion 33, the body portion 34, and the tail portion 35 is the first evaluation value.
  • the roundness of the cross-section of the pancreas where the abnormality has occurred is smaller than the roundness of the cross-section of the normal portion. Therefore, by using the roundness as the first evaluation value and deriving the ratio of the first evaluation values or the absolute value of the difference between the adjacent small regions as the second evaluation value, the abnormalities in the pancreas can be evaluated. It is possible to derive a third evaluation value that suggests the presence or absence of
  • the target organ is the pancreas, but it is not limited to this. Any organ other than the pancreas, such as the brain, heart, lungs, and liver, can be used as the target organ.
  • a CT image is used as the target image G0, but it is not limited to this.
  • any image such as a radiation image acquired by simple imaging can be used as the target image G0.
  • a processing unit that executes various processes such as the unit 26 and the display control unit 27
  • the following various processors can be used.
  • the CPU which is a general-purpose processor that executes software (programs) and functions as various processing units, as described above
  • the above-mentioned various processors include FPGAs (Field Programmable Gate Arrays), etc.
  • Programmable Logic Device which is a processor whose configuration can be changed, ASIC (Application Specific Integrated Circuit) etc. Circuits, etc. are included.
  • One processing unit may be configured with one of these various processors, or a combination of two or more processors of the same or different type (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). ). Also, a plurality of processing units may be configured by one processor.
  • one processor is configured by combining one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.

Abstract

プロセッサは、医用画像から対象臓器を抽出し、対象臓器に複数の小領域を設定し、複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、複数の小領域間における第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、第2の評価値に基づいて、対象臓器の全体における異常の有無を示唆する第3の評価値を導出する。

Description

画像処理装置、方法およびプログラム
 本開示は、画像処理装置、方法およびプログラムに関する。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。また、医用画像を解析することで、病変の存在確率および位置情報等を導出し、これを読影医等の医師に提示するコンピュータ支援診断(CAD;Computer-Aided Diagnosis)が実用化されている。
 しかしながら、病変の種類および大きさ、あるいは医用画像の撮影手法によっては、医用画像に病変が明確に描出されない場合がある。例えば腹部の造影断層画像においては、膵臓癌に係る腫瘍は比較的明確に描出されるが、非造影断層画像においては、膵臓癌に係る腫瘍はほとんど描出されない。従来のCADは、ある程度明確に病変が医用画像に描出されていることを前提に開発されているため、上記のようなほとんど描出されない病変を発見することは難しかった。
 このため、対象臓器を小領域に分割し、小領域の評価結果を用いて診断を行う手法が提案されている。例えば、国際公開第2010-035517号では、肺における肋間領域を求め、肋間領域の大きさを表す特徴量を算出し、左右の肺において対応する肋間領域の特徴量の差に基づいて異常を判断する手法が提案されている。また、「Liu, Kao-Lang, et al. "Deep learning to distinguish pancreatic cancer tissue from non-cancerous pancreatic tissue: a retrospective study with cross-racial external validation." The Lancet Digital Health 2.6 (2020): e303-e313」では、対象臓器を小領域に分割し、各小領域の病変の有無を表す評価値を算出し、評価値を統合することにより対象臓器全体の正常および異常の判定を行う手法が提案されている。
 しかしながら、国際公開第2010-035517号に記載された手法では、対象臓器の一部の領域における病変の有無のみしか判断することができない。また、対象臓器の形状変化は小領域に局在するものではないため、Liuらの文献に記載された手法のように小領域の評価値を統合するのみでは、小領域の形状変化を精度よく判断することはできない。
 本開示は上記事情に鑑みなされたものであり、対象臓器における複数の小領域の関係性を考慮して対象臓器の異常を精度よく評価できるようにすることを目的とする。
 本開示による画像処理装置は、少なくとも1つのプロセッサを備え、
 プロセッサは、医用画像から対象臓器を抽出し、
 対象臓器に複数の小領域を設定し、
 複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、
 複数の小領域間における第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、
 第2の評価値に基づいて、対象臓器の全体における異常の有無を示唆する第3の評価値を導出する。
 なお、本開示による画像処理装置においては、第1の評価値は、小領域の大きさに関する物理量であり、
 第2の評価値は、小領域間の大きさの相違に関する評価値であってもよい。
 また、本開示による画像処理装置においては、プロセッサは、対象臓器を通る軸を設定し、
 軸に沿って小領域を設定するものであってもよい。
 また、本開示による画像処理装置においては、プロセッサは、第3の評価値に基づく評価結果をディスプレイに表示するものであってもよい。
 また、本開示による画像処理装置においては、第3の評価値に基づく評価結果は、対象臓器の形状の特徴を表す所見の発生確率であってもよい。
 また、本開示による画像処理装置においては、所見は、対象臓器に発生した萎縮、腫大、狭窄、および拡張のうちの少なくとも1つを含むものであってもよい。
 また、本開示による画像処理装置においては、プロセッサは、対象臓器において評価結果に対する寄与度が相対的に高い小領域の位置を寄与度が相対的に低い小領域の位置と区別してディスプレイに表示するものであってもよい。
 また、本開示による画像処理装置においては、プロセッサは、対象臓器において評価結果に対する寄与度が相対的に高い小領域の第1の評価値および第2の評価値の少なくとも一方をディスプレイに表示するものであってもよい。
 また、本開示による画像処理装置においては、医用画像は膵臓を含む腹部の断層画像であり、
 対象臓器は膵臓であってもよい。
 また、本開示による画像処理装置においては、プロセッサは、膵臓を、頭部、体部および尾部に分割することにより、小領域を設定するものであってもよい。
 本開示による画像処理方法は、医用画像から対象臓器を抽出し、
 対象臓器に複数の小領域を設定し、
 複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、
 複数の小領域間における第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、
 第2の評価値に基づいて、対象臓器の全体における異常の有無を示唆する第3の評価値を導出する。
 なお、本開示による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示によれば、対象臓器の異常を精度よく評価できる。
本開示の実施形態による画像処理装置を適用した診断支援システムの概略構成を示す図 本実施形態による画像処理装置のハードウェア構成を示す図 本実施形態による画像処理装置の機能構成図 対象画像からの膵臓の抽出を説明するための図 小領域の設定を説明するための図 小領域の設定を説明するための図 小領域の設定を説明するための図 膵臓の断面における直径の導出を説明するための図 リカレントニューラルネットワークの模式的な構成を示す図 年齢としきい値とを規定したテーブルを示す図 評価結果表示画面を示す図 評価結果表示画面を示す図 評価結果表示画面を示す図 本実施形態において行われる処理を示すフローチャート 主膵管および膵臓実質を説明するための図 膵臓の断面を模式的に示す図
 以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像処理装置を適用した医療情報システムの構成について説明する。図1は、医療情報システムの概略構成を示す図である。図1に示す医療情報システムは、本実施形態による画像処理装置を内包するコンピュータ1、撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
 コンピュータ1は、本実施形態による画像処理装置を内包するものであり、本実施形態の画像処理プログラムがインストールされている。コンピュータ1は、診断を行う医師が直接操作するワークステーションあるいはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータ1にダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータ1にインストールされる。
 撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。この撮影装置2により生成された、複数の断層画像からなる3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、撮影装置2はCT装置であり、被検体の胸腹部のCT画像を3次元画像として生成する。なお、取得されるCT画像は造影されたCT画像であっても非造影のCT画像であってもよい。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には撮影装置2で生成された3次元画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
 次いで、本実施形態による画像処理装置について説明する。図2は、本実施形態による画像処理装置のハードウェア構成を示す図である。図2に示すように、画像処理装置20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像処理装置20は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク4に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
 ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像処理プログラム12が記憶される。CPU11は、ストレージ13から画像処理プログラム12を読み出してメモリ16に展開し、展開した画像処理プログラム12を実行する。
 次いで、本実施形態による画像処理装置の機能的な構成を説明する。図3は、本実施形態による画像処理装置の機能的な構成を示す図である。図3に示すように画像処理装置20は、画像取得部21、対象臓器抽出部22、小領域設定部23、第1の評価値導出部24、第2の評価値導出部25、第3の評価値導出部26および表示制御部27を備える。そして、CPU11が画像処理プログラム12を実行することにより、CPU11は、画像取得部21、対象臓器抽出部22、小領域設定部23、第1の評価値導出部24、第2の評価値導出部25、第3の評価値導出部26および表示制御部27として機能する。
 画像取得部21は、操作者による入力デバイス15からの指示により、画像保管サーバ3から処理の対象となる対象画像G0を取得する。本実施形態においては、対象画像G0は上述したように人体の胸腹部を含む複数の断層画像からなるCT画像である。対象画像G0が本開示の医用画像の一例である。
 対象臓器抽出部22は、対象画像G0から対象臓器を抽出する。本実施形態においては、対象臓器を膵臓とする。対象臓器抽出部22は、対象画像G0から膵臓を抽出するように機械学習がなされたセマンティックセグメンテーションモデル(以下、SS(Semantic Segmentation)モデルとする)からなる。SSモデルは、周知のように、入力画像の各画素に対して抽出対象物(クラス)を表すラベルを付与した出力画像を出力する機械学習モデルである。本実施形態においては、入力画像は対象画像G0を構成する断層画像であり、抽出対象物は膵臓であり、出力画像は膵臓の領域がラベリングされた画像である。SSモデルは、ResNet(Residual Networks)、U-Net(U-shaped Networks)といった畳み込みニューラルネットワーク(CNN;Convolutional neural network)により構築される。
 対象臓器抽出部22により、図4に示すように対象画像G0から膵臓30が抽出される。なお、図4には対象画像G0に含まれる1つの断層画像D0を示している。
 対象臓器の抽出は、SSモデルを用いるものには限定されない。テンプレートマッチングあるいはしきい値処理等、対象画像G0から対象臓器を抽出する任意の手法を適用することができる。
 小領域設定部23は、対象臓器抽出部22が対象画像G0から抽出した対象臓器である膵臓に複数の小領域を設定する。本実施形態においては、小領域設定部23は、対象画像G0から抽出された膵臓30を、頭部、体部および尾部に分割することにより、頭部、体部および尾部のそれぞれを小領域として設定する。
 図5は膵臓の頭部、体部および尾部への分割を説明するための図である。なお、図5は膵臓を人体の正面から見た図である。なお、以降の説明において上下左右とは立位にある人体を正面に見た場合を基準とする。図5に示すように、人体を正面から見たとき、膵臓30の背後には静脈31および動脈32が間隔を空けて上下方向に並走している。膵臓30は解剖学的に静脈31の左側を頭部、静脈31と動脈32との間を体部、動脈32の右側を尾部に分割される。このため、本実施形態においては、小領域設定部23は、静脈31および動脈32を基準として、膵臓30を頭部33、体部34および尾部35の3つの小領域に分割する。なお、頭部33、体部34および尾部35の境界は、「膵癌取扱い規約第7版増補版、日本膵臓学会編、12頁、2020年9月」に記載された境界定義に基づく。具体的には、静脈31の左側縁(人体を正面から見たときの静脈31の右側縁)を体部33と体部34との境界とし、動脈32の左側縁(人体を正面から見たときの動脈32の右側縁)を体部34と尾部35との境界とする。
 分割のために、小領域設定部23は、対象画像G0における膵臓30付近において、静脈31および動脈32を抽出する。小領域設定部23は、例えば、特開2010-200925号公報および特開2010-220732号公報等に記載された手法により、対象画像G0における膵臓30付近の領域から血管領域および血管領域の芯線(すなわち中心軸)を抽出する。この手法では、まず、対象画像G0を構成するボクセルデータの値に基づいて、血管の芯線を構成する複数の候補点の位置と主軸方向とを算出する。または、対象画像G0についてヘッセ行列を算出し、算出されたヘッセ行列の固有値を解析することにより、血管の芯線を構成する複数の候補点の位置情報と主軸方向とを算出する。そして、候補点周辺のボクセルデータについて血管らしさを表す特徴量を算出し、算出された特徴量に基づいてそのボクセルデータが血管を表すものであるか否かを判別する。これにより、対象画像G0から血管領域およびその芯線が抽出される。小領域設定部23は、抽出した静脈31および動脈32の左側縁(人体を正面から見たときの右側縁)を基準として、膵臓30を頭部33、体部34および尾部35に分割する。
 なお、膵臓30の頭部33、体部34および尾部35への分割は、上記手法に限定されない。例えば、膵臓30から頭部33、体部34および尾部35を抽出するように機械学習がなされたセグメンテーションモデルを用いることにより、膵臓30を頭部33、体部34および尾部35に分割するようにしてもよい。この場合、膵臓を含む教師画像と、上述した境界定義に基づいて膵臓を頭部、体部および尾部に分割することにより得られたマスク画像とのペアからなる教師データを複数用意して、セグメンテーションモデルを学習すればよい。
 また、膵臓30に対する小領域の設定は、頭部33、体部34および尾部35への分割に限定されるものでない。図6は小領域の設定の他の例を説明するための図である。なお、図6は、膵臓30を人体の頭部側から見た図である。他の例において、小領域設定部23は、膵臓30の長手方向に伸びる中心軸36を抽出する。中心軸36を抽出する手法は、上述した静脈31および動脈32の芯線を抽出する手法と同様の手法を用いることができる。そして、小領域設定部23は、中心軸36に沿って等間隔で膵臓30を複数の小領域に分割することにより、膵臓30に小領域を設定してもよい。
 さらに、図7に示すように、膵臓30内に互いに重なる小領域37A~37Cを設定してもよく、小領域37D,37Eのように間隔を空けた小領域を設定してもよい。この場合、小領域は膵臓30の中心軸36に沿うように設定してもよく、任意の位置に設定してもよい。
 第1の評価値導出部24は、小領域設定部23が設定した複数の小領域のそれぞれの物理量を表す第1の評価値を導出する。本実施形態においては、小領域の大きさに関する物理量を第1の評価値として導出する。具体的には、膵臓30の頭部33、体部34および尾部35のそれぞれの直径の代表値を第1の評価値E11,E12,E13として導出する。
 第1の評価値導出部24は、まず図6に示すような膵臓30の中心軸36を設定する。そして、頭部33、体部34および尾部35のそれぞれにおいて、中心軸36に直交する複数の断面を中心軸36に沿って等間隔に設定する。ここで、膵臓30の中心軸36に直交する断面は、図8に示すように類円形ではあるが真円ではない。このため、第1の評価値導出部24は中心軸36に直交する断面において、中心軸36を通る複数方向(例えば上下方向、左右方向、右下から左上方向および左下から右上方向の4方向)の長さを導出し、複数の方向の長さの代表値をその断面の直径として導出する。代表値としては、平均値、中間値、最小値および最大値等を用いることができる。
 さらに、第1の評価値導出部24は、頭部33、体部34および尾部35のそれぞれにおいて、中心軸36に直交する複数の断面の直径の代表値を、頭部33、体部34および尾部35のそれぞれの直径として導出する。代表値としては、複数の断面の直径の平均値、中間値、最小値および最大値等を用いることができる。頭部33、体部34および尾部35のそれぞれの直径の代表値が第1の評価値E11,E12,E13となる。
 なお、第1の評価値導出部24は、頭部33、体部34および尾部35のそれぞれの直径に代えて、上記の複数の断面における面積の代表値、または頭部33、体部34および尾部35の体積を第1の評価値として導出してもよい。断面の面積は断面における画素数、頭部33、体部34および尾部35の体積は、頭部33、体部34および尾部35における画素数を用いることができる。
 また、図6および図7に示すように3より多い小領域が設定された場合、第1の評価値導出部24は、複数の小領域のそれぞれについての直径の代表値、面積の代表値、または体積を第1の評価値として導出すればよい。
 第2の評価値導出部25は、複数の小領域間における第1の評価値E11,E12,E13の関係性を表す少なくとも1つの第2の評価値を導出する。本実施形態においては、第2の評価値導出部25は、複数の小領域間の大きさの相違に関する評価値を第2の評価値として導出する。具体的には、第2の評価値導出部25は、膵臓30の体部34の第1の評価値E12に対する頭部33についての第1の評価値E11の比率E11/E12、および膵臓の尾部35の第1の評価値E13に対する体部34の第1の評価値E12の比率E12/E13を、それぞれ第2の評価値E21,E22として導出する。
 なお、比率に代えて、膵臓30の体部34の第1の評価値E12と頭部33についての第1の評価値E11との差の絶対値|E12-E11|、および膵臓の尾部35の第1の評価値E13と体部34の第1の評価値E12との差の絶対値|E13-E12|を、それぞれ第2の評価値E21,E22として導出してもよい。
 また、図6および図7に示すように3より多い小領域が設定された場合、隣接する小領域間における第1の評価値の関係性を表す第2の評価値を導出すればよい。例えば、第2の評価値導出部25は、複数の小領域について導出された第1の評価値間の比率または差の絶対値を第2の評価値として導出すればよい。比率は、例えば人体を正面から見た場合の右側の小領域の第1の評価値に対する左側の小領域の第1の評価値の比率とすればよいが、逆でもよい。
 なお、隣接する小領域間における第1の評価値の関係性のみならず、離れた小領域間における第1の評価値の関係性を導出してもよい。例えば、膵臓30を頭部33、体部34および尾部35の3つの小領域に分割した場合、尾部35の第1の評価値E13に対する頭部33についての第1の評価値E11の比率E11/E13または差の絶対値|E11-E13|を第2の評価値として導出してもよい。また、図7に示すように小領域を設定した場合、小領域37Eの第1の評価値に対する小領域37Aの第1の評価値の比率または差の絶対値を第2の評価値として導出してもよい。
 また、第2の評価値導出部25は、複数の第1の評価値が膵臓30の中心軸36に沿って順次入力されると、第2の評価値を出力するように機械学習がなされたリカレントニューラルネットワーク(Recurrent Neural Network、以下RNNとする)を用いるものであってもよい。図9は第2の評価値を導出するRNNの模式的な構成を示す図である。図9に示すように、RNN40は、エンコーダ41およびデコーダ42からなる。エンコーダ41を構成する3つのノードには、第1の評価値E11,E12,E13が順次入力される。デコーダ42は、隣接する小領域間における第1の評価値の関係性を表す第2の評価値を導出するように学習がなされており、入力された第1の評価値E11,E12,E13から第2の評価値E21,E22を導出する。
 第3の評価値導出部26は、第2の評価値に基づいて、対象臓器である膵臓の全体における異常の有無を示唆する第3の評価値を導出する。ここで、膵臓30に腫瘍が発生すると、膵臓30に各種所見が発現する。例えば、腫瘍の周辺の膵臓実質が腫大したり、腫瘍以外の部分の膵臓実質が萎縮したりする。また、膵臓内にある主膵管が拡張したり、狭窄したりする。本実施形態においては、第3の評価値導出部26は、第2の評価値E21,E22に基づいて、膵臓の萎縮の確率を第3の評価値として導出するものとする。
 本実施形態においては、第3の評価値導出部26は、第2の評価値E21,E22が入力されると、膵臓全体における萎縮の確率を導出するように機械学習がなされた導出モデルを有する。導出モデルは、SSモデルと同様に畳み込みニューラルネットワークにより構築される。
 なお、第3の評価値導出部26の導出モデルは、萎縮の確率に代えて萎縮の有無を第3の評価値として導出するものであってもよい。また、第3の評価値導出部26は、第2の評価値E21,E22を予め定められたしきい値と比較し、少なくとも1つの第2の評価値E21,E22がしきい値を超えた場合に、萎縮が有るとの判定結果を第3の評価値として導出するものであってもよい。この場合、すべての第2の評価値E21,E22がしきい値以下の場合は、第3の評価値導出部26は、萎縮が無いとの判定結果を第3の評価値として導出する。なお、第2の評価値の加算値または重み付け加算値としきい値とを比較することにより、萎縮の有無を第3の評価値として導出してもよい。なお、第3の評価値導出部26は、例えば萎縮が有りの場合に1、萎縮が無しの場合に0の値を第3の評価値として導出する。
 一方、加齢に伴って膵臓の萎縮または主膵管の拡張が発現する。このため、萎縮の有無を判断するためのしきい値を年齢に応じて規定したテーブルを用意し、テーブルを参照して第3の評価値を導出するようにしてもよい。図10は第3の評価値を導出するためのしきい値のテーブルを示す図である。図10に示すように、テーブル45は、患者が60歳未満の場合に使用するしきい値Th1と、患者が60歳以上の場合に使用するしきい値Th2とを含む。Th1<Th2である。なお、テーブル45はストレージ13に記憶しておけばよい。
 また、第3の評価値導出部26は、萎縮の確率が予め定められたしきい値(例えば0.6)よりも大きい場合、あるいは萎縮有りの第3の評価値を導出した場合、複数の第2の評価値のうち最も大きい第2の評価値が導出された小領域を、萎縮の根拠となる領域として特定するようにしてもよい。例えば、第2の評価値E21,E22のうち、第2の評価値E22から導出した萎縮の確率の方が大きいとする。この場合、第2の評価値E22は膵臓の尾部35の第1の評価値E13に対する体部34の第1の評価値E12の比率であることから、第3の評価値導出部26は、体部34および尾部35の少なくとも一方を、萎縮の根拠となる領域として特定する。なお、体部34および尾部35のうちの第1の評価値が大きい方の小領域または小さい方の小領域を萎縮の根拠となる領域として特定してもよい。例えば本実施形態においては、体部34および尾部35のうちの第1の評価値が大きい体部34を萎縮の根拠となる領域として特定する。
 なお、図6および図7に示すように3より多い小領域が設定された場合、最も大きい第2の評価値が導出された小領域に加えて、2番目あるいは3番目等、大きさが上位数番目までの第2の評価値を導出した小領域を、萎縮の根拠となる領域として特定してもよい。
 表示制御部27は、第3の評価値に基づく評価結果をディスプレイ14に表示する。図11は評価結果の表示画面を示す図である。図11に示すように評価結果表示画面50には、対象画像G0のうちの1枚の断層画像D0および評価結果51が表示されている。図11においては、評価結果51は第3の評価値そのものである萎縮の確率である。図11においては、萎縮の確率として0.9が表示されている。
 本実施形態においては、膵臓30において第3の評価値に基づく評価結果に対する寄与度が相対的に高い小領域の位置が寄与度が相対的に低い小領域の位置と区別されて断層画像D0が表示される。本実施形態においては、第3の評価値導出部26は、体部34を萎縮の根拠となる領域として特定している。このため、表示制御部27は体部34を頭部33および尾部35と区別して断層画像D0を表示する。ここで、体部34が評価結果に対する寄与度が相対的に高い小領域の一例であり、頭部33および尾部35が評価結果に対する寄与度が相対的に低い小領域の一例である。
 具体的には、図11に示すように、体部34の領域が頭部33および尾部35よりも強調して表示される。例えば、体部34に色を付与することにより、体部34の領域を強調表示すればよい。図11においては膵臓30の体部34に色を付与していることを、ハッチングを付与することにより示している。なお、体部34の輪郭に色を付与したり、輝度を高くしたりすることにより、体部34を強調表示してもよい。また、入力デバイス15からの指示により、強調表示のオンおよびオフを切り替え可能としてもよい。
 なお、図12に示すように、入力デバイス15からの指示により、対象画像G0(断層画像D0)とは別ウィンドウで膵臓30を拡大した領域を含むウィンドウ52を表示し、ウィンドウ52に表示された膵臓30において強調表示を行うようにしてもよい。これにより、強調表示によって膵臓30の読影が妨げられることを防止できる。
 一方、図6および図7に示すように3より多くの小領域が設定された場合、第3の評価値導出部26において、複数の小領域が萎縮の根拠となる領域として導出される場合がある。この場合、図13に示すように、複数(図13においては2つ)の小領域にマーク53A,53Bを付与してもよい。また、図13に示すように、萎縮の根拠となる小領域のうちの最も小さい第1の評価値が導出された小領域を特定し、図13に示すようにその小領域の直径54を表示するようにしてもよい。図13においては、萎縮の根拠となる小領域のうち、最も小さい小領域の直径54として10mmと表示されている。なお、第1の評価値に加えて、または第1の評価値に代えて、第2の評価値を表示するようにしてもよい。
 次いで、本実施形態において行われる処理について説明する。図14は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21がストレージ13から対象画像G0を取得し(ステップST1)、対象臓器抽出部22が対象画像G0から対象臓器である膵臓を抽出する(ステップST2)。
 次いで、小領域設定部23が対象臓器である膵臓に複数の小領域を設定する(ステップST3)。そして、第1の評価値導出部24が、複数の小領域のそれぞれにおける物理量を表す第1の評価値を導出する(ステップST4)。さらに、第2の評価値導出部25が、複数の小領域間における第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し(ステップST5)、第3の評価値導出部26が、第2の評価値に基づいて、対象臓器である膵臓30の全体における異常の有無を示唆する第3の評価値を導出する(ステップST6)。そして、表示制御部27が、第3の評価値に基づく評価結果をディスプレイ14に表示し(ステップST7)、処理を終了する。
 このように,本実施形態においては、複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、複数の小領域間における1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、第2の評価値に基づいて対象臓器の全体における異常の有無を示唆する第3の評価値を導出するようにした。さらに、第3の評価値に基づく評価結果をディスプレイ14に表示するようにした。このため、対象臓器における複数の小領域の関係性を考慮して対象臓器の異常を精度よく評価することができる。
 また、第1の評価値を小領域の大きさに関する物理量とし、第2の評価値を小領域間の大きさの相違に関する評価値とすることにより、対象臓器における萎縮および腫大といった大きさの変化に起因する異常を精度よく評価することができる。
 また、対象臓器を通る軸を設定し、軸に沿って対象臓器を設定することにより、膵臓のように長細い形状を有する対象臓器に対して容易に小領域を設定することができる。
 また、対象臓器において評価結果に対する寄与度が相対的に高い小領域の位置を寄与度が相対的に低い小領域の位置と区別してディスプレイ14に表示することにより、評価結果に対する寄与度が高い小領域の位置を認識しやすくなる。このため、対象臓器における異常が存在する可能性が高い位置を容易に特定することができる。
 なお、上記実施形態においては、所見として膵臓の萎縮に関する第3の評価値を導出しているが、これに限定されるものではない。膵臓の腫大に関する第3の評価値を導出してもよい。この場合、第3の評価値導出部26は腫大であることの確率または腫大の有無を第3の評価値として導出すればよい。
 また、上記実施形態においては、膵臓の長手方向に沿って複数の小領域を設定しているが、これに限定されるものではない。ここで、図15に示すように、膵臓30内においては、主膵管30Aが膵臓30の中心軸36に沿って存在する。CT画像においては、主膵管30Aと膵臓実質30BとにおいてCT値が異なるため、膵臓30を主膵管30Aの領域と膵臓実質30Bの領域とに分割することができる。このため、膵臓30を主膵管30Aと膵臓実質30Bとに分割することにより、主膵管30Aと膵臓実質30Bとをそれぞれ小領域として設定するようにしてもよい。
 この場合、主膵管30Aの直径および膵臓実質30Bの直径を第1の評価値として導出すればよい。主膵管30Aおよび膵臓実質30Bの直径は、主膵管30Aおよび膵臓実質30Bを膵臓30の中心軸36に沿って複数の小領域に分割し、小領域における主膵管30Aおよび膵臓実質30Bの直径を、頭部33、体部34および尾部35の直径を導出した場合と同様に導出すればよい。この場合、第2の評価値は、主膵管30Aの直径と膵臓実質30Bの直径との比率または直径の差の絶対値等を用いることができる。
 また、主膵管30Aおよび膵臓実質30Bのいずれか一方のみを膵臓30の中心軸36に沿って複数の領域に分割することにより小領域を設定し、小領域毎に第1の評価値を導出してもよい。とくに主膵管30Aにのみ複数の小領域を設定する場合、複数の小領域についての第1の評価値を導出し、複数の小領域間における第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出することとなる。この場合、第2の評価値により、主膵管30Aの拡張または狭窄を所見として特定することができる。したがって、第2の評価値に基づいて、所見として主膵管30Aの拡張または狭窄の有無を示唆する第3の評価値を導出することができる。
 また、膵臓30の頭部33、体部34および尾部35のそれぞれにおいて、主膵管30Aの直径と膵臓実質30Bの直径との比率または直径の差の絶対値等を第2の評価値として導出するようにしてもよい。図16は、膵臓30の中心軸36に直交する断面を模式的に示す図である。なお、図16においては膵臓30の断面および主膵管30Aの断面をともに円で示している。図16に示す断面60と断面61とは隣接する小領域における断面を示しているものとする。図16に示す断面60においては、膵臓30の直径に対する主膵管30Aの直径の比率は約0.2であり、断面61においては膵臓30の直径に対する主膵管30Aの直径の比率は約0.5である。この場合、第2の評価値を第1の評価値の差の絶対値とすると、第2の評価値は0.3となる。このような第2の評価値は主膵管30Aの拡張または狭窄を表す指標となる。したがって、例えば、しきい値を0.1として第3の評価値を導出すると、図16に示すような断面60,61の場合、膵管拡張は有りとの第3の評価値を導出することができる。
 また、上記実施形態においては、第1の評価値として、小領域の直径、面積および体積等の小領域の大きさに関する物理量を用いているが、これに限定されるものではない。小領域の性状に関する物理量を第1の評価値として用いてもよい。例えば、膵臓30における中心軸36の方向に沿ってCT値を比較した場合、CT値が急激に変化している場所があると、その場所においては、異常が発生している確率が高い。このため、複数の小領域のそれぞれについて、CT値の代表値を第1の評価値として導出してもよい。代表値としては、平均値、中間値、分散値、最小値および最大値等を用いることができる。この場合、第2の評価値は、隣接する小領域間における第1の評価値の比率あるいは差の絶対値等を用いることができる。
 また、小領域の画像そのものあるいは小領域の画像から導出された特徴量からなる特徴マップを第1の評価値として用いてもよい。特徴量は、小領域の画像に対して予め定められたフィルタ係数を有する所定サイズのフィルタによるフィルタリング処理を行うことにより導出することができる。
 また、膵臓はその中心軸に直交する断面は類円形を有するが、異常が発生すると断面の形状がいびつに変形する。このため、第1の評価値である小領域の性状に関する物理量として、小領域の真円度等の形状値を用いてもよい。形状値としては、膵臓30の頭部33、体部34および尾部35のそれぞれの真円度を用いることができる。ここで、図6に示すように膵臓30の中心軸36を設定した場合、異常が無い部分においては、中心軸36に直交する断面形状は類円形である。このため、第1の評価値導出部24は、図8に示すように直径を求めた場合と同様に、中心軸36を通る複数方向(例えば上下方向、左右方向、右下から左上方向および左下から右上方向の4方向)の長さを導出し、複数方向における長さの最大値と最小値との差の1/2の値を真円度として導出する。
 さらに、第1の評価値導出部24は、頭部33、体部34および尾部35のそれぞれにおいて、中心軸36に直交する複数の断面の真円度の代表値を、頭部33、体部34および尾部35のそれぞれの真円度として導出する。代表値としては、複数の断面の真円度の平均値、中間値、分散値、最小値および最大値等を用いることができる。頭部33、体部34および尾部35のそれぞれの真円度の代表値が第1の評価値となる。
 ここで、膵臓において異常が発生した部分の断面における真円度は、正常な部分の断面における真円度よりも小さくなる。このため、真円度を第1の評価値として使用し、隣接する小領域間における第1の評価値の比率あるいは差の絶対値等を第2の評価値として導出することにより、膵臓における異常の有無を示唆する第3の評価値を導出することが可能となる。
 また、上記実施形態においては、対象臓器を膵臓としているがこれに限定されるものではない。膵臓の他、脳、心臓、肺および肝臓等の任意の臓器を対象臓器として用いることができる。
 また、上記実施形態においては、対象画像G0としてCT画像を用いているが、これに限定されるものではない。MRI画像等の3次元画像の他、単純撮影により取得された放射線画像等、任意の画像を対象画像G0として用いることができる。
 また、上記実施形態において、例えば、画像取得部21、対象臓器抽出部22、小領域設定部23、第1の評価値導出部24、第2の評価値導出部25、第3の評価値導出部26および表示制御部27といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1  コンピュータ
   2  撮影装置
   3  画像保管サーバ
   4  ネットワーク
   11  CPU
   12  画像処理プログラム
   13  ストレージ
   14  ディスプレイ
   15  入力デバイス
   16  メモリ
   20  画像処理装置
   21  画像取得部
   22  対象臓器抽出部
   23  小領域設定部
   24  第1の評価値導出部
   25  第2の評価値導出部
   26  第3の評価値導出部
   27  表示制御部
   30  膵臓
   30A  主膵管
   30B  膵臓実質
   31  静脈
   32  動脈
   33  頭部
   34  体部
   35  尾部
   36  中心軸
   37A~37E  小領域
   40  リカレントニューラルネットワーク
   41  エンコーダ
   42  デコーダ
   45  テーブル
   50  評価結果表示画面
   51  評価結果
   52  ウィンドウ
   53A,53B  マーク
   54  直径
   60,61  断面
   D0  断層画像
   G0  対象画像

Claims (12)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     医用画像から対象臓器を抽出し、
     前記対象臓器に複数の小領域を設定し、
     前記複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、
     前記複数の小領域間における前記第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、
     前記第2の評価値に基づいて、前記対象臓器の全体における異常の有無を示唆する第3の評価値を導出する画像処理装置。
  2.  前記第1の評価値は、前記小領域の大きさに関する物理量であり、
     前記第2の評価値は、前記小領域間の大きさの相違に関する評価値である、請求項1に記載の画像処理装置。
  3.  前記プロセッサは、前記対象臓器を通る軸を設定し、
     前記軸に沿って前記小領域を設定する請求項1または2に記載の画像処理装置。
  4.  前記プロセッサは、前記第3の評価値に基づく評価結果をディスプレイに表示する請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記第3の評価値に基づく評価結果は、前記対象臓器の形状の特徴を表す所見の発生確率である請求項4に記載の画像処理装置。
  6.  前記所見は、前記対象臓器に発生した萎縮、腫大、狭窄、および拡張のうちの少なくとも1つを含む請求項5に記載の画像処理装置。
  7.  前記プロセッサは、前記対象臓器において前記評価結果に対する寄与度が相対的に高い前記小領域の位置を前記寄与度が相対的に低い前記小領域の位置と区別して前記ディスプレイに表示する請求項4から6のいずれか1項に記載の画像処理装置。
  8.  前記プロセッサは、前記対象臓器において前記評価結果に対する寄与度が相対的に高い前記小領域の前記第1の評価値および前記第2の評価値の少なくとも一方を前記ディスプレイに表示する請求項7に記載の画像処理装置。
  9.  前記医用画像は膵臓を含む腹部の断層画像であり、
     前記対象臓器は膵臓である請求項1から8のいずれか1項記載の画像処理装置。
  10.  前記プロセッサは、前記膵臓を、頭部、体部および尾部に分割することにより、前記小領域を設定する請求項9に記載の画像処理装置。
  11.  医用画像から対象臓器を抽出し、
     前記対象臓器に複数の小領域を設定し、
     前記複数の小領域のそれぞれの物理量を表す第1の評価値を導出し、
     前記複数の小領域間における前記第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出し、
     前記第2の評価値に基づいて、前記対象臓器の全体における異常の有無を示唆する第3の評価値を導出する画像処理方法。
  12.  医用画像から対象臓器を抽出する手順と、
     前記対象臓器に複数の小領域を設定する手順と、
     前記複数の小領域のそれぞれの物理量を表す第1の評価値を導出する手順と、
     前記複数の小領域間における前記第1の評価値の関係性を表す少なくとも1つの第2の評価値を導出する手順と、
     前記第2の評価値に基づいて、前記対象臓器の全体における異常の有無を示唆する第3の評価値を導出する手順とをコンピュータに実行させる画像処理プログラム。
PCT/JP2022/018960 2021-06-25 2022-04-26 画像処理装置、方法およびプログラム WO2022270152A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023529662A JPWO2022270152A1 (ja) 2021-06-25 2022-04-26
US18/528,754 US20240112786A1 (en) 2021-06-25 2023-12-04 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021105656 2021-06-25
JP2021-105656 2021-06-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/528,754 Continuation US20240112786A1 (en) 2021-06-25 2023-12-04 Image processing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
WO2022270152A1 true WO2022270152A1 (ja) 2022-12-29

Family

ID=84545597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/018960 WO2022270152A1 (ja) 2021-06-25 2022-04-26 画像処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US20240112786A1 (ja)
JP (1) JPWO2022270152A1 (ja)
WO (1) WO2022270152A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167287A (ja) * 2004-12-17 2006-06-29 Toshiba Corp 血管狭窄率解析システム
JP2007506531A (ja) * 2003-09-25 2007-03-22 パイエオン インコーポレイテッド 管状臓器の3次元再構成を行うシステム及び方法
JP2009165718A (ja) * 2008-01-18 2009-07-30 Hitachi Medical Corp 医用画像表示装置
JP2016087139A (ja) * 2014-11-06 2016-05-23 パナソニックIpマネジメント株式会社 血管三次元モデル表示装置、方法、及びプログラム
JP2020525127A (ja) * 2017-06-26 2020-08-27 ザ・リサーチ・ファウンデーション・フォー・ザ・ステイト・ユニヴァーシティ・オブ・ニューヨーク 仮想膵臓撮影法のためのシステム、方法、およびコンピュータ・アクセス可能媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007506531A (ja) * 2003-09-25 2007-03-22 パイエオン インコーポレイテッド 管状臓器の3次元再構成を行うシステム及び方法
JP2006167287A (ja) * 2004-12-17 2006-06-29 Toshiba Corp 血管狭窄率解析システム
JP2009165718A (ja) * 2008-01-18 2009-07-30 Hitachi Medical Corp 医用画像表示装置
JP2016087139A (ja) * 2014-11-06 2016-05-23 パナソニックIpマネジメント株式会社 血管三次元モデル表示装置、方法、及びプログラム
JP2020525127A (ja) * 2017-06-26 2020-08-27 ザ・リサーチ・ファウンデーション・フォー・ザ・ステイト・ユニヴァーシティ・オブ・ニューヨーク 仮想膵臓撮影法のためのシステム、方法、およびコンピュータ・アクセス可能媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATSUI JUNICHI: "Challenge to pancreatic cancer treatment", DEVELOPMENT OF DEPARTMENT OF SURGERY, TOKYO DENTAL UNIVERSITY ICHIKAWA GENERAL HOSPITAL, 30 April 2020 (2020-04-30), XP093016710, Retrieved from the Internet <URL:https://ir.tdc.ac.jp/irucaa/bitstream/10130/5115/1/120_15.pdf> [retrieved on 20230123], DOI: 10.15041/tdcgakuho.120.15 *

Also Published As

Publication number Publication date
JPWO2022270152A1 (ja) 2022-12-29
US20240112786A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
Pu et al. CT based computerized identification and analysis of human airways: a review
US11139067B2 (en) Medical image display device, method, and program
JP2006255412A (ja) 腫瘍量を監視する方法及びシステム
CN108324300A (zh) 用于血管分段的方法和装置
US20230154620A1 (en) Apparatus and method for assisting reading of chest medical images
Hsu et al. Gap-free segmentation of vascular networks with automatic image processing pipeline
US20220004838A1 (en) Machine learning-based automated abnormality detection in medical images and presentation thereof
JP6981940B2 (ja) 画像診断支援装置、方法及びプログラム
JP2021077331A (ja) データ処理装置及びデータ処理方法
Sakellarios et al. Novel methodology for 3D reconstruction of carotid arteries and plaque characterization based upon magnetic resonance imaging carotid angiography data
CN105997119B (zh) 用于气道壁密度和气道壁炎症的同时评估的方法和系统
US20230222668A1 (en) Image processing apparatus, image processing method, and recording medium
Chacón et al. Computational assessment of stomach tumor volume from multi-slice computerized tomography images in presence of type 2 cancer
JP7426824B2 (ja) 非侵襲的イメージングベースのffrのインタラクションモニタリング
WO2022270152A1 (ja) 画像処理装置、方法およびプログラム
Affane et al. Robust deep 3-d architectures based on vascular patterns for liver vessel segmentation
Doğanay et al. A hybrid lung segmentation algorithm based on histogram-based fuzzy C-means clustering
WO2022270151A1 (ja) 画像処理装置、方法およびプログラム
WO2022070528A1 (ja) 医用画像処理装置、方法およびプログラム
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
US20230316517A1 (en) Information processing apparatus, information processing method, and information processing program
EP4287195A1 (en) Information processing device, method, and program
WO2022209889A1 (ja) 医用画像処理装置、医用画像処理装置の作動方法、医用画像処理装置の作動プログラム
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
WO2022270150A1 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22828071

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023529662

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE