WO2023171040A1 - 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル - Google Patents

情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル Download PDF

Info

Publication number
WO2023171040A1
WO2023171040A1 PCT/JP2022/041924 JP2022041924W WO2023171040A1 WO 2023171040 A1 WO2023171040 A1 WO 2023171040A1 JP 2022041924 W JP2022041924 W JP 2022041924W WO 2023171040 A1 WO2023171040 A1 WO 2023171040A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
contrast
region
artery occlusion
Prior art date
Application number
PCT/JP2022/041924
Other languages
English (en)
French (fr)
Inventor
暁 石井
秀久 西
卓也 淵上
Original Assignee
国立大学法人京都大学
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人京都大学, 富士フイルム株式会社 filed Critical 国立大学法人京都大学
Publication of WO2023171040A1 publication Critical patent/WO2023171040A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to an information processing device, a method and a program, a learning device, a method and a program, and a discrimination model.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • cerebral infarction is a disease in which brain tissue is damaged due to occlusion of cerebral blood vessels, and is known to have a poor prognosis. Once cerebral infarction occurs, irreversible cell death progresses over time, so how to shorten the time until treatment begins is an important issue.
  • thrombus retrieval therapy which is a typical treatment for cerebral infarction, two pieces of information are required: the degree of spread of the infarction and the presence or absence of large vessel occlusion (LVO). (See Percutaneous Transluminal Cerebral Thrombus Retrieval Device Proper Use Guidelines 4th Edition March 2020 p.12-(1)).
  • non-contrast CT images it is possible to visually recognize the high absorption structure (Hyperdense Artery Sign (HAS)) that reflects the thrombus that causes main artery occlusion, but because it is not clear, it is difficult to see the location of the main artery occlusion. is difficult to identify. As described above, it is often difficult to identify the infarct region and the main artery occlusion location by using non-contrast CT images. Therefore, after diagnosis using non-contrast CT images, MRI images or contrast-enhanced CT images are acquired to diagnose whether or not cerebral infarction has occurred, to identify the location of main artery occlusion, and to determine if cerebral infarction has occurred. The extent of its spread will be confirmed.
  • HAS High Absorption structure
  • JP-A-2020-054580 a discriminator trained to extract an infarct region from a non-contrast CT image and a discriminator trained to extract a thrombus region from a non-contrast CT image are used. Therefore, methods have been proposed to identify infarct areas and thrombus areas.
  • the location of HAS which indicates the location of main artery occlusion, changes depending on which blood vessel is occluded, and the appearance differs depending on the angle of the tomographic plane in the CT image with respect to the brain, the nature of the thrombus, the degree of occlusion, etc.
  • the infarcted region occurs in the region dominated by the blood vessel in which HAS has occurred. Therefore, if the main artery occlusion site can be identified, the infarcted area can also be easily identified.
  • the present disclosure has been made in view of the above circumstances, and aims to enable accurate identification of main artery occlusion points or infarct regions using non-contrast CT images of the head.
  • An information processing device includes at least one processor, The processor generates at least one of first information representing either an infarct region or a main artery occlusion location in a non-contrast CT image of the patient's head, information representing an anatomical region of the brain, and clinical information. Acquired, obtaining second information representing a candidate for the other of either the infarction region or the main artery occlusion location in the non-contrast CT image; Based on at least one of the first information, information representing an anatomical region of the brain, and clinical information, and the second information, either the infarct region or the main artery occlusion location in the non-contrast CT image is determined. Third information representing the other one is derived.
  • the processor further acquires a non-contrast CT image
  • the third information may be derived based on a non-contrast CT image.
  • the processor may generate at least one of the first information, information representing an anatomical region of the brain, and clinical information, the non-contrast CT image, and the second information.
  • the third information may be derived using a discriminant model that has been trained to output the third information when input.
  • the processor further includes information of a region symmetrical with respect to the midline of the brain in at least the non-contrast CT image of the first information, the non-contrast CT image, and the second information. may be further used to derive the third information.
  • the information of the symmetric region is such that at least the non-contrast CT image of the first information, the non-contrast CT image, and the second information is inverted with respect to the midline of the brain. It may also be inverted information.
  • the processor acquires the first information by extracting either the infarct region or the main artery occlusion location from the non-contrast CT image, and the infarct region from the non-contrast CT image.
  • the second information may also be acquired by extracting the other candidate of the main artery occlusion location.
  • the processor derives quantitative information about at least one of the first information, the second information, and the third information, It may also display quantitative information.
  • a learning device includes at least one processor, The processor includes i) a non-contrast CT image of the head of a patient who has developed a cerebral infarction, ii) first information representing either an infarction region or a main artery occlusion location in the non-contrast CT image; at least one of information representing an anatomical region and clinical information; and iii) second information representing a candidate for the other of either an infarction region or a main artery occlusion location in a non-contrast CT image.
  • the first information at least one of the information representing the anatomical region of the brain and the clinical information, the non-contrast CT image, and the second information are acquired.
  • a discriminant model is constructed that outputs the third information when input.
  • the discrimination model includes: i) a non-contrast CT image of a patient's head; and ii) first information representing either an infarct region or a main artery occlusion location in the non-contrast CT image; At least one of information representing the region and clinical information, and iii) second information representing a candidate for the other of either the infarction region or the main artery occlusion location in the non-contrast CT image are input. and third information representing the other of the infarction area and the main artery occlusion location in the non-contrast CT image.
  • the information processing method includes first information representing either an infarct region or a main artery occlusion location in a non-contrast CT image of a patient's head, information representing an anatomical region of the brain, and clinical information. obtain at least one of the obtaining second information representing a candidate for the other of either the infarction region or the main artery occlusion location in the non-contrast CT image; Based on at least one of the first information, information representing an anatomical region of the brain, and clinical information, and the second information, either the infarct region or the main artery occlusion location in the non-contrast CT image is determined. Third information representing the other one is derived.
  • the learning method includes: i) a non-contrast CT image of the head of a patient suffering from cerebral infarction; and ii) first information representing either an infarct region or a main artery occlusion location in the non-contrast CT image. , information representing an anatomical region of the brain, and clinical information; and iii) representing a candidate for the other of either an infarction region or a main artery occlusion location in a non-contrast CT image.
  • Obtaining learning data including input data consisting of second information and correct data consisting of third information representing the other of either an infarct region or a main artery occlusion location in a non-contrast CT image;
  • the first information at least one of the information representing the anatomical region of the brain and the clinical information, the non-contrast CT image, and the second information are acquired.
  • a discriminant model is constructed that outputs the third information when input.
  • the information processing method and learning method according to the present disclosure may be provided as a program for causing a computer to execute it.
  • a main artery occlusion location or infarction region can be accurately identified using a non-contrast CT image of the head.
  • a diagram showing a schematic configuration of an information processing device and a learning device according to the first embodiment Functional configuration diagram of an information processing device and a learning device according to the first embodiment
  • a schematic block diagram showing the configuration of the information derivation unit in the first embodiment Diagram schematically showing the configuration of U-Net Diagram to explain inversion of feature map
  • a schematic block diagram showing the configuration of the information derivation unit in the first embodiment A diagram showing learning data for learning U-Net corresponding to the third discriminant model in the second embodiment Flowchart showing the learning process performed in the second embodiment Flowchart showing information processing performed in the second embodiment
  • FIG. 1 is a hardware configuration diagram showing an overview of a diagnosis support system to which an information processing device and a learning device according to a first embodiment of the present disclosure are applied.
  • an information processing device 1 a three-dimensional image capturing device 2, and an image storage server 3 according to the first embodiment are connected via a network 4 in a communicable state.
  • the information processing device 1 includes a learning device according to this embodiment.
  • the three-dimensional image capturing device 2 is a device that generates a three-dimensional image representing the region to be diagnosed by photographing the region of the subject, and specifically, includes a CT device, an MRI device, and a PET device. etc.
  • the medical images generated by this three-dimensional image capturing device 2 are transmitted to the image storage server 3 and stored therein.
  • the region to be diagnosed in the patient as the subject is the brain
  • the three-dimensional image capturing device 2 is a CT device
  • the CT device captures a three-dimensional image of the head of the patient as the subject.
  • a CT image G0 is generated.
  • the CT image G0 is a non-contrast CT image obtained by performing imaging without using a contrast agent.
  • the image storage server 3 is a computer that stores and manages various data, and is equipped with a large-capacity external storage device and database management software.
  • the image storage server 3 communicates with other devices via a wired or wireless network 4 and sends and receives image data and the like.
  • various data including image data of CT images generated by the three-dimensional image capturing device 2 are acquired via a network, and are stored and managed in a recording medium such as a large-capacity external storage device.
  • the image storage server 3 also stores learning data for constructing a discriminant model as described later. Note that the storage format of image data and communication between devices via the network 4 are based on protocols such as DICOM (Digital Imaging and Communication in Medicine).
  • DICOM Digital Imaging and Communication in Medicine
  • FIG. 2 explains the hardware configuration of the information processing device and learning device according to the first embodiment.
  • an information processing device and a learning device (hereinafter referred to as information processing device) 1 includes a CPU (Central Processing Unit) 11, a nonvolatile storage 13, and a memory 16 as a temporary storage area.
  • the information processing device 1 also includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I/F (InterFace) 17 connected to the network 4.
  • the CPU 11, storage 13, display 14, input device 15, memory 16, and network I/F 17 are connected to the bus 18.
  • the CPU 11 is an example of a processor in the present disclosure.
  • the storage 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • the storage 13 serving as a storage medium stores an information processing program 12A and a learning program 12B.
  • the CPU 11 reads out the information processing program 12A and the learning program 12B from the storage 13, develops them in the memory 16, and executes the developed information processing program 12A and learning program 12B.
  • FIG. 3 is a diagram showing the functional configuration of the information processing device according to the first embodiment.
  • the information processing device 1 includes an information acquisition section 21, an information derivation section 22, a learning section 23, a quantitative value derivation section 24, and a display control section 25.
  • the CPU 11 functions as an information acquisition section 21, an information derivation section 22, a quantitative value derivation section 24, and a display control section 25 by executing the information processing program 12A. Further, the CPU 11 functions as the learning section 23 by executing the learning program 12B.
  • the information acquisition unit 21 acquires a non-contrast CT image G0 of the patient's head from the image storage server 3. Further, the information acquisition unit 21 acquires input data for learning a neural network from the image storage server 3 in order to construct a discriminant model to be described later.
  • the information acquisition unit 21 acquires a non-contrast CT image G0 of the patient's head from the image storage server 3. Further, the information acquisition unit 21 acquires input data for learning a neural network from the image storage server 3 in order to construct a discriminant model to be described later.
  • the information derivation unit 22 acquires at least one of first information representing either the infarction region or the main artery occlusion location in the CT image G0, information representing the anatomical region of the brain, and clinical information. , obtain second information representing the other candidate of either the infarction region or the main artery occlusion location in the CT image G0, and obtain the CT image G0, the first information, and the information representing the anatomical region of the brain. Based on at least one of the clinical information and the second information, third information representing the other of the infarct region and the main artery occlusion location in the CT image G0 is derived.
  • first information representing the infarct region in CT image G0 is acquired
  • second information representing a candidate for the main artery occlusion location in CT image G0 is acquired
  • CT image G0 first information Based on the second information
  • third information representing the main artery occlusion location in the CT image G0 is derived.
  • FIG. 4 is a schematic block diagram showing the configuration of the information deriving unit in the first embodiment.
  • the information derivation unit 22 includes a first discriminant model 22A, a second discriminant model 22B, and a third discriminant model 22C.
  • the first discriminant model 22A is constructed by machine learning using a convolutional neural network (CNN) so as to extract the infarct region of the brain from the CT image G0 to be processed as the first information. There is.
  • the first discriminant model 22A can be constructed using, for example, the method described in the above-mentioned Japanese Patent Application Publication No. 2020-054580.
  • the first discriminant model 22A can be constructed by machine learning a CNN using a non-contrast CT image of the head and a mask image representing an infarct region in the non-contrast CT image as learning data. . Thereby, the first discriminant model 22A extracts the infarct region in the CT image G0 from the CT image G0, and outputs a mask image M0 representing the infarct region in the CT image G0.
  • the second discriminant model 22B is constructed by machine learning CNN so as to extract candidates for main artery occlusion points as second information from the CT image G0 to be processed.
  • the second discriminant model 22B can be constructed using, for example, the method described in the above-mentioned Japanese Patent Application Publication No. 2020-054580.
  • the second discriminant model 22B is constructed by machine learning the CNN using a non-contrast CT image of the head and a mask image representing the main artery occlusion location in the non-contrast CT image as learning data. I can do it.
  • the second discrimination model 22B extracts the main artery occlusion location in the CT image G0 from the CT image G0, and outputs a mask image M1 representing the main artery occlusion location in the CT image G0.
  • the second discriminant model 22B and the third discriminant model 22C both extract the main artery occlusion location from the CT image G0; The occlusion location is considered as a candidate for main artery occlusion location.
  • the second discriminant model 22B may be a CNN with emphasis on sensitivity.
  • the second discrimination model 22B may be a model other than one constructed by machine learning such as CNN, which extracts main artery occlusion point candidates by, for example, threshold processing.
  • the third discrimination model 22C determines the main artery occlusion location in the CT image G0 based on the CT image G0, the mask image M0 representing the infarct region in the CT image G0, and the mask image M1 representing the main artery occlusion location candidate in the CT image G0.
  • U-Net which is a type of convolutional neural network, is constructed by performing machine learning using a large amount of learning data.
  • FIG. 5 is a diagram schematically showing the configuration of U-Net. As shown in FIG. 5, the third discriminant model 22C is composed of nine layers, ie, a first layer 31 to a ninth layer 39.
  • the brain in at least the CT image G0 of the CT image G0, the mask image M0 representing the infarct region, and the mask image M1 representing the main artery occlusion location candidate is calculated.
  • Information about areas that are symmetrical about the midline is used. Information on areas symmetrical with respect to the midline of the brain will be described later.
  • a CT image G0, a mask image M0 representing an infarct region in the CT image G0, and a mask image M1 representing a candidate for a main artery occlusion location in the CT image G0 are combined and input to the first layer 31.
  • the image may be tilted with respect to the midline of the brain and the perpendicular bisector of the CT image G0.
  • the brain in the CT image G0 is rotated so that the midline of the brain coincides with the perpendicular bisector of the CT image G0.
  • the first layer 31 has two convolutional layers and outputs a feature map F1 in which three feature maps of the convolved CT image G0, mask image M0, and mask image M1 are integrated.
  • the integrated feature map F1 is input to the ninth layer 39, as shown by the broken line in FIG. Further, the integrated feature map F1 is pooled to reduce its size to 1/2, and is input to the second layer 32.
  • pooling is indicated by a downward arrow.
  • a 3 ⁇ 3 kernel is used for convolution, but the present invention is not limited to this.
  • the maximum value among the four pixels is adopted, but the invention is not limited to this.
  • the second layer 32 has two convolutional layers, and the feature map F2 output from the second layer 32 is input to the eighth layer 38, as shown by the broken line in FIG. Further, the feature map F2 is pooled to reduce its size to 1/2, and is input to the third layer 33.
  • the third layer 33 also has two convolutional layers, and the feature map F3 output from the third layer 33 is input to the seventh layer 37, as shown by the broken line in FIG. Further, the feature map F3 is pooled to reduce its size to 1/2, and is input to the fourth layer 34.
  • the pooled feature map F3 is horizontally inverted with respect to the midline of the brain, and an inverted feature map F3A is derived.
  • FIG. 6 is a diagram for explaining inversion of a feature amount map. As shown in FIG. 6, the feature map F3 is horizontally inverted with respect to the midline C0 of the brain, and an inverted feature map F3A is derived.
  • the inverted feature map F3A is an example of inverted information in the present disclosure.
  • the inversion information is generated inside U-Net, but at the time when the CT image G0 and the mask images M0, M1 are input to the first layer 31, the CT image G0 and the mask images M0, An inverted image of at least CT image G0 of M1 may be generated, and the CT image G0, the inverted image of CT image G0, the mask image M0, and the mask image M1 may be combined and input to the first layer 31. Furthermore, in addition to the inverted image of the CT image G0, an inverted image of at least one of the mask image M0 and the mask image M1 may be generated.
  • CT image G0 when generating inverted images of both mask image M0 and mask image M1, CT image G0, an inverted image of CT image G0, mask image M0, mask image M1, an inverted image of mask image M0, and an inverted image of mask image M1 are generated.
  • the images may be combined and input to the first layer 31.
  • the brain in CT image G0 and the masks in mask images M0 and M1 are rotated so that the midline of the brain coincides with the perpendicular bisector of CT image G0 and mask images M0 and M1. What is necessary is to generate an inverted image by
  • the fourth layer 34 also has two convolutional layers, and the pooled feature map F3 and the inverted feature map F3A are input to the first convolutional layer.
  • the feature map F4 output from the fourth layer 34 is input to the sixth layer 36, as shown by the broken line in FIG. Further, the feature map F4 is pooled to reduce its size to 1/2 and is input to the fifth layer 35.
  • the fifth layer 35 has one convolutional layer, and the feature map F5 output from the fifth layer 35 is upsampled to double its size and input to the sixth layer 36.
  • upsampling is indicated by an upward arrow.
  • the sixth layer 36 has two convolution layers, and performs a convolution operation by integrating the feature map F4 from the fourth layer 34 and the upsampled feature map F5 from the fifth layer 35.
  • the feature map F6 output from the sixth layer 36 is upsampled to double its size, and is input to the seventh layer 37.
  • the seventh layer 37 has two convolution layers, and performs a convolution operation by integrating the feature map F3 from the third layer 33 and the upsampled feature map F6 from the sixth layer 36.
  • the feature map F7 output from the seventh layer 37 is upsampled and input to the eighth layer 38.
  • the eighth layer 38 has two convolution layers, and performs a convolution operation by integrating the feature map F2 from the second layer 32 and the upsampled feature map F7 from the seventh layer 37.
  • the feature map output from the eighth layer 38 is upsampled and input to the ninth layer 39.
  • the ninth layer 39 has three convolution layers, and performs a convolution operation by integrating the feature map F1 from the first layer and the upsampled feature map F8 from the eighth layer 38.
  • the feature map F9 output from the ninth layer 39 is an image in which the main artery occlusion location in the CT image G0 is extracted.
  • FIG. 7 is a diagram showing learning data for learning U-Net corresponding to the third discriminant model 22C in the first embodiment.
  • the learning data 40 consists of input data 41 and correct answer data 42.
  • the input data 41 consists of a non-contrast CT image 43, a mask image 44 representing an infarct region in the non-contrast CT image 43, and a mask image 45 representing a main artery occlusion location candidate in the non-contrast CT image 43.
  • the correct data 42 is a mask image representing the main artery occlusion location in the non-contrast CT image 43.
  • the mask image 45 is derived by inputting the non-contrast CT image 43 to the second discriminant model 22B.
  • a large number of learning data 40 are stored in the image storage server 3, and the information acquisition unit 21 acquires the learning data 40 from the image storage server 3, and the learning unit 23 uses the learning data 40 to learn U-Net. used.
  • the learning unit 23 inputs a non-contrast CT image 43, a mask image 44, and a mask image 45, which are input data 41, to U-Net, and outputs an image representing the main artery occlusion location in the non-contrast CT image 43 from U-Net.
  • the learning unit 23 causes U-Net to extract the HAS in the non-contrast CT image 43, and outputs a mask image in which the HAS portion is masked.
  • the learning unit 23 derives the difference between the output image and the correct data 42 as a loss, and learns the connection weights and kernel coefficients of each layer in U-Net so as to reduce the loss. Note that during learning, perturbations may be added to the mask images 44 and 45.
  • Possible perturbations include, for example, applying morphological processing to the mask with random probability or filling the mask with zeros.
  • perturbation By applying perturbation to the mask images 44 and 45, it is possible to correspond to the pattern seen in cerebral infarction cases in the hyperacute stage in which only thrombus appears on the image without a significant infarction area, and furthermore, the third discriminant model 22C can be applied. At the time of determination, it is possible to prevent excessive dependence on the input mask image.
  • the learning unit 23 repeatedly performs learning until the loss becomes equal to or less than a predetermined threshold.
  • a predetermined threshold As a result, when the non-contrast CT image G0, the mask image M0 representing the infarct region in the CT image G0, and the mask image M1 representing the main artery occlusion location candidate in the CT image G0 are input, the main artery included in the CT image G0 is inputted.
  • a third discriminant model 22C is constructed that extracts the artery occlusion location as third information and outputs a mask image H0 representing the main artery occlusion location in the CT image G0. Note that the learning unit 23 may construct the third discriminant model 22C by repeatedly performing learning a predetermined number of times.
  • U-Net constituting the third discriminant model 22C is not limited to that shown in FIG. 5.
  • the inverted feature map F3A is derived from the feature map F3 output from the third layer 33, but the inverted feature map F3A is derived in any layer in U-Net. You may also use it.
  • the number of convolutional layers in each layer in U-Net is not limited to that shown in FIG. 5.
  • the second discriminant model 22B and the third discriminant model 22C both derive the main artery occlusion location from the CT image G0, but the third discriminant model 22C Since the artery occlusion location candidates are used, the main artery occlusion location can be derived with higher accuracy than the second discriminant model 22B. Therefore, in this embodiment, the main artery occlusion location derived by the second discriminant model 22B is used as the main artery occlusion location candidate. Note that the main artery occlusion location candidate derived by the second discriminant model 22B may match the main artery occlusion location candidate derived by the third discrimination model 22C.
  • the quantitative value deriving unit 24 derives a quantitative value for at least one of the infarct region and the main artery occlusion location derived by the information deriving unit 22.
  • a quantitative value is an example of quantitative information in the present disclosure.
  • the quantitative value deriving unit 24 derives quantitative values for both the infarction region and the main artery occlusion location, but it derives the quantitative value for either the infarction region or the main artery occlusion location. It may be something. Since the CT image G0 is a three-dimensional image, the quantitative value deriving unit 24 may derive the volume of the infarct region, the volume of the main artery occlusion location, and the length of the main artery occlusion location as quantitative values. Further, the quantitative value deriving unit 24 may derive the ASPECTS score as a quantitative value.
  • ASPECTS is an abbreviation for Alberta Stroke Program Early CT Score, and is a scoring method that quantifies the early CT sign of plain CT for cerebral infarction in the middle cerebral artery region. Specifically, when the medical image is a CT image, the middle cerebral artery region is classified into 10 regions in two representative cross-sections (basal ganglia level and corona radiata level), and the presence or absence of early ischemic changes is evaluated for each region. , is a method of scoring positive points by subtracting points. In ASPECTS, the lower the score, the larger the area of the infarct region. The quantitative value derivation unit 24 may derive a score depending on whether the infarct region is included in the above 10 regions.
  • the quantitative value deriving unit 24 may specify the dominant region of the occluded blood vessel based on the main artery occlusion location, and derive the amount of overlap (volume) between the dominant region and the infarct region as a quantitative value.
  • FIG. 8 is a diagram for explaining arteries and controlling regions in the brain. Note that FIG. 8 shows a slice image S1 on a certain tomographic plane of the CT image G0. As shown in Figure 8, the brain includes the anterior cerebral artery (ACA) 51, the middle cerebral artery (MCA) 52, and the posterior cerebral artery (PCA) 53. There is. Although not shown, the internal carotid artery (ICA) is also included.
  • ACA anterior cerebral artery
  • MCA middle cerebral artery
  • PCA posterior cerebral artery
  • ICA internal carotid artery
  • the brain has left and right anterior cerebral artery control regions 61L, 61R, middle cerebral artery control regions 62L, 62R, and posterior cerebral artery, in which blood flow is controlled by the anterior cerebral artery 51, middle cerebral artery 52, and posterior cerebral artery 53, respectively. It is divided into control areas 63L and 63R. Note that in FIG. 8, the right side is the left hemisphere region of the brain.
  • the dominant region may be identified by aligning the CT image G0 with a standard brain image prepared in advance in which the dominant region has been identified.
  • the quantitative value deriving unit 24 identifies the artery in which the main artery occlusion location exists, and identifies the region of the brain controlled by the identified artery. For example, if the main artery occlusion location is in the left anterior cerebral artery, the controlling region is specified as the anterior cerebral controlling region 61L.
  • the infarct region occurs downstream of the location of the thrombus in the artery. Therefore, the infarction region exists in the procerebral control region 61L. Therefore, the quantitative value deriving unit 24 may derive the volume of the infarct region with respect to the volume of the procerebral control region 61L in the CT image G0 as a quantitative value.
  • FIG. 9 is a diagram showing a display screen. As shown in FIG. 9, slice images included in the patient's CT image G0 are displayed on the display screen 70 so as to be switchable based on the operation of the input device 15. Furthermore, a mask 71 of the infarct region is displayed superimposed on the CT image G0. Further, an arrow-shaped mark 72 indicating the main artery occlusion location is also displayed in a superimposed manner. Further, on the right side of the CT image G0, a quantitative value 73 derived by the quantitative value deriving section 24 is displayed.
  • the volume of the infarction region (40 ml), the length of the main artery occlusion site (HAS length: 10 mm), and the volume of the main artery occlusion site (HAS volume: 0.1 ml) are displayed.
  • main artery occlusion location candidates may be displayed.
  • FIG. 10 is a flowchart showing the learning process performed in the first embodiment. It is assumed that the learning data is acquired from the image storage server 3 and stored in the storage 13. First, the learning unit 23 inputs the input data 41 included in the learning data 40 to the U-Net (step ST1), and causes the U-Net to extract the main artery occlusion location (step ST2). Then, the learning unit 23 derives the loss from the extracted main artery occlusion location and the correct answer data 42 (step ST3), and determines whether the loss is less than a predetermined threshold (step ST4). .
  • step ST4 If step ST4 is negative, the process returns to step ST1, and the learning section 23 repeats the processes from step ST1 to step ST4. If step ST4 is affirmed, the process ends. As a result, the third discriminant model 22C is constructed.
  • FIG. 11 is a flowchart showing information processing performed in the first embodiment. It is assumed that the non-contrast CT image G0 to be processed is acquired from the image storage server 3 and stored in the storage 13.
  • the information derivation unit 22 derives the infarct region in the CT image G0 using the first discriminant model 22A (step ST11).
  • the information derivation unit 22 also derives main artery occlusion location candidates in the CT image G0 using the second discriminant model 22B (step ST12).
  • the information derivation unit 22 uses the third discriminant model 22C to calculate the CT image G0, the mask image M0 representing the infarct region in the CT image G0, and the mask image M1 representing the main artery occlusion location candidate in the CT image G0.
  • the main artery occlusion location in the CT image G0 is derived (step ST13).
  • the quantitative value deriving unit 24 derives a quantitative value based on the information on the infarct area and the main artery occlusion location (step ST14). Then, the display control unit 25 displays the CT image G0 and quantitative values (step ST15), and ends the process.
  • the main artery in the CT image G0 is determined based on the non-contrast CT image G0 of the patient's head, the infarct area in the CT image G0, and the main artery occlusion location candidate in the CT image.
  • the blockage location is now derived. Thereby, the infarct region can be taken into consideration, so that the main artery occlusion location can be accurately specified in the CT image G0.
  • the quantitative values it becomes easier for the doctor to decide on a treatment plan based on the quantitative values. For example, by displaying the volume or length of the main artery occlusion site, it becomes easy to determine the type or length of the instrument to be used when applying thrombus retrieval therapy.
  • the configuration of the information processing device in the second embodiment is the same as the configuration of the information processing device in the first embodiment, and only the processing performed is different, so a detailed description of the device will be omitted here. .
  • FIG. 12 is a schematic block diagram showing the configuration of the information deriving unit in the second embodiment.
  • the information derivation unit 82 according to the second embodiment includes a first discriminant model 82A, a second discriminant model 82B, and a third discriminant model 82C.
  • the first discriminant model 82A in the second embodiment is constructed by machine learning CNN so as to extract the main artery occlusion location from the CT image G0 as first information.
  • the first discriminant model 82A can be constructed using, for example, the method described in the above-mentioned Japanese Patent Application Publication No. 2020-054580.
  • the first discriminant model 82A can be constructed by machine learning the CNN using the non-contrast CT image of the head and the main artery occlusion location in the non-contrast CT image as learning data.
  • the second discriminant model 82B in the second embodiment is constructed by machine learning CNN so as to extract infarct region candidates from the CT image G0 as second information.
  • the second discriminant model 82B can be constructed using, for example, the method described in the above-mentioned Japanese Patent Application Publication No. 2020-054580.
  • the second discriminant model 82B can be constructed by machine learning a CNN using a non-contrast CT image of the head and an infarct region in the non-contrast CT image as learning data.
  • the second discriminant model 82B and the third discriminant model 82C both extract the infarct region from the CT image G0, but the infarct region extracted by the second discriminant model 82B is It is considered as a candidate area.
  • the third discriminant model 82C in the second embodiment is based on the CT image G0, the mask image M2 representing the main artery occlusion location in the CT image G0, and the mask image M3 representing the infarct area candidate in the CT image G0.
  • the U-Net is constructed by machine learning using a large amount of learning data so as to extract the infarct region from the 3D image as the third information. Note that the configuration of U-Net is the same as that in the first embodiment, so detailed explanation will be omitted here.
  • FIG. 13 is a diagram showing learning data for learning U-Net corresponding to the third discriminant model 82C in the second embodiment.
  • the learning data 90 consists of input data 91 and correct answer data 92.
  • the input data 91 consists of a non-contrast CT image 93, a mask image 94 representing a main artery occlusion location in the non-contrast CT image 93, and a mask image 95 representing an infarct region candidate in the non-contrast CT image 93.
  • the correct data 92 is a mask image representing the infarct region in the non-contrast CT image 93. Note that the mask image 95 is derived by inputting the non-contrast CT image 93 to the second discriminant model 82B.
  • the learning unit 23 constructs the third discriminant model 82C by learning U-Net using a large amount of learning data 90 shown in FIG. 13.
  • the third discriminant model 82C in the second embodiment receives the CT image G0, the mask image M2 representing the main artery occlusion location, and the mask image M3 representing the infarction region candidate, The area is extracted and a mask image K0 representing the infarct area is output.
  • the third discriminant model 82C further uses information of a region symmetrical with respect to the midline of the brain in at least the CT image G0 of the CT image G0, the mask image M2, and the mask image M3. It may also be one that extracts the infarcted area.
  • the second discriminant model 82B and the third discriminant model 82C both derive the infarct region from the CT image G0, but the third discriminant model 82C derives the infarct region from the main artery occlusion location and the infarct region. Since region candidates are used, the infarct region can be derived more accurately than the second discriminant model 82B. Therefore, in this embodiment, the infarct region derived by the second discriminant model 82B is used as an infarct region candidate. Note that the infarct region candidate derived by the second discriminant model 82B may match the infarct region derived by the third discriminant model 82C.
  • FIG. 14 is a flowchart showing the learning process performed in the second embodiment. It is assumed that the learning data is acquired from the image storage server 3 and stored in the storage 13. First, the learning unit 23 inputs the input data 91 included in the learning data 90 to the U-Net (step ST21), and causes the U-Net to extract an infarct region (step ST22). Then, the learning unit 23 derives a loss from the extracted infarct region and the correct data 92 (step ST23), and determines whether the loss is less than a predetermined threshold (step ST24).
  • step ST24 is negative, the process returns to step ST21, and the learning section 23 repeats the processes from step ST21 to step ST24. If step ST24 is affirmed, the process ends. As a result, a third discriminant model 82C is constructed.
  • FIG. 15 is a flowchart showing information processing performed in the second embodiment. It is assumed that the non-contrast CT image G0 to be processed is acquired from the image storage server 3 and stored in the storage 13. First, the information deriving unit 82 derives the main artery occlusion location in the CT image G0 using the first discriminant model 82A (step ST31). Furthermore, the information deriving unit 82 derives infarct region candidates in the CT image G0 using the second discriminant model 82B (step ST32).
  • the information deriving unit 82 uses the third discriminant model 82C to calculate the CT image G0, the mask image M2 representing the main artery occlusion location in the CT image G0, and the mask image M3 representing the infarct area candidate in the CT image G0. , the infarct area in the CT image G0 is derived (step ST33).
  • the quantitative value deriving unit 24 derives a quantitative value based on the information on the infarct area and the main artery occlusion location (step ST34). Then, the display control unit 25 displays the CT image G0 and the quantitative value (step ST35), and ends the process.
  • the infarct area in the CT image G0 is determined based on the non-contrast CT image G0 of the patient's head, the main artery occlusion location in the CT image G0, and the infarct area candidate in the CT image. I tried to derive . As a result, the main artery occlusion location can be taken into consideration, so that the infarct region can be accurately specified in the CT image G0.
  • the configuration of the information processing device in the third embodiment is the same as the configuration of the information processing device in the first embodiment, and only the processing performed is different, so a detailed description of the device will not be provided here. Omitted.
  • FIG. 16 is a schematic block diagram showing the configuration of the information deriving unit in the third embodiment.
  • the information derivation unit 83 according to the second embodiment includes a first discriminant model 83A, a second discriminant model 83B, and a third discriminant model 83C.
  • the first discriminant model 83A in the third embodiment performs machine learning on CNN so as to extract the infarct region from the CT image G0 as the first information, similar to the first discriminant model 22A in the first embodiment. It is constructed by.
  • the second discriminant model 83B in the third embodiment like the second discriminant model 22B in the first embodiment, uses a CNN machine to extract main artery occlusion location candidates from the CT image G0 as second information. Built by learning.
  • the third discriminant model 83C in the third embodiment includes a CT image G0, a mask image M0 representing an infarct region in the CT image G0, a mask image M1 representing a main artery occlusion location candidate in the CT image G0, and an anatomy of the brain.
  • a large number of U-Nets are configured to extract the main artery occlusion location from the CT image G0 as third information based on at least one of the information representing the target area and the clinical information (hereinafter referred to as additional information A0). It is constructed by machine learning using the training data of Note that the configuration of U-Net is the same as that in the first embodiment, so detailed explanation will be omitted here.
  • FIG. 17 is a diagram showing learning data for learning U-Net corresponding to the third discriminant model 83C in the third embodiment.
  • the learning data 100 consists of input data 101 and correct answer data 102.
  • Input data 101 includes a non-contrast CT image 103, a mask image 104 representing an infarction region in the non-contrast CT image 103, a mask image 105 representing a candidate main artery occlusion location in the non-contrast CT image 103, and an anatomical region. It consists of at least one of display information and clinical information (additional information) 106.
  • the correct data 102 is a mask image representing the main artery occlusion location in the non-contrast CT image 103.
  • the mask image 105 is derived by inputting the non-contrast CT image 103 to the second discriminant model 83B.
  • a mask image of a blood vessel dominated region in which an infarct region exists in the non-contrast CT image 103 can be used.
  • a mask image of an ASPECTS region in which an infarct region exists in the non-contrast CT image 103 can be used as information representing an anatomical region.
  • the ASPECTS score for the non-contrast CT image 103 and the NIHSS (National Institutes of Health Stroke Scale) for the patient who acquired the non-contrast CT image 103 can be used.
  • NIHSS National Institutes of Health Stroke Scale
  • the learning unit 23 constructs the third discriminant model 83C by learning U-Net using a large amount of learning data 100 shown in FIG. 17.
  • the third discriminant model 83C in the third embodiment receives the CT image G0, the mask image M0 representing the infarct region, the mask image M1 representing the main artery occlusion location candidate, and the additional information A0,
  • the main artery occlusion location is extracted from the image G0, and a mask image H0 representing the main artery occlusion location is output.
  • the learning process in the third embodiment differs from the first embodiment only in that additional information A0 is used, so a detailed explanation of the learning process will be omitted.
  • the information processing in the third embodiment is different from the first embodiment in that the information input to the third discriminant model 83C includes additional patient information A0 in addition to the CT image G0 and the mask image representing the infarct region. Since the only difference is the form, a detailed explanation of the information processing will be omitted.
  • the information is also calculated based on the additional information A0. Accordingly, the main artery occlusion location in the CT image G0 is derived. As a result, additional information can be taken into consideration in addition to the infarction region, so that the main artery occlusion location can be specified with higher accuracy in the CT image G0.
  • the main artery in the CT image G0 is
  • the third discrimination model 83C is constructed to extract the blockage location, the present invention is not limited to this.
  • the third discriminant model 83C is constructed to extract the infarct region in the CT image G0. It's okay.
  • the third discriminant model areas symmetrical with respect to the midline of the brain in the CT image G0, the first information, the second information, information representing an anatomical region of the brain, and clinical information
  • the second information ie, the infarct area or the main artery occlusion location
  • the third information is derived without using the CT image G0, the first information, the second information, the information representing the anatomical region of the brain, and the information of the region symmetrical with respect to the midline of the brain in the clinical information.
  • a second discriminant model may also be constructed.
  • the third information representing the main artery occlusion location is derived based on the first information representing the infarction region and the second information representing the main artery occlusion location candidate.
  • third information representing the main artery occlusion location is determined based on the information representing the anatomical region of the brain and the second information representing the candidate main artery occlusion location.
  • Information may also be derived.
  • third information representing the main artery occlusion location is derived based on the clinical information and second information representing the main artery occlusion location candidate.
  • third information representing the main artery occlusion location is derived based on information representing the anatomical region of the brain, clinical information, and second information representing the candidate main artery occlusion location. You may.
  • the third information representing the infarct region is derived based on the first information representing the main artery occlusion location and the second information representing the infarct region candidate. It is not limited to. Instead of or in addition to the first information, third information representing an infarct region is derived based on information representing an anatomical region of the brain and second information representing a candidate infarct region. It's okay. Further, instead of or in addition to the first information, third information representing the infarct region may be derived based on clinical information and second information representing the infarct region candidate. Further, instead of the first information, third information representing the infarct region may be derived based on information representing the anatomical region of the brain, clinical information, and second information representing the infarct region candidate. .
  • the third discriminant model is constructed using U-Net, but the present invention is not limited to this.
  • the third discriminant model may be constructed using a convolutional neural network other than U-Net.
  • the third information is derived by inputting the CT image G0 to the third discriminant model, but the present invention is not limited to this.
  • the third discriminant model may be constructed so as to derive the third information without using the CT image G0.
  • the third discriminant model is constructed by learning without using CT images as input data for learning data.
  • the first discriminant models 22A, 82A, 83A of the information deriving units 22, 82, 83 use CNN to extract the first information (i.e., infarct area or main artery occlusion location) from the CT image G0. ), but it is not limited to this.
  • the information deriving section a mask image generated by a doctor interpreting the CT image G0 and specifying an infarct region or a main artery occlusion location is obtained as first information without using the first discriminant model, and third information is obtained.
  • the information may be derived.
  • the second discriminant models 22B, 82B, 83B of the information deriving units 22, 82, 83 use CNN to extract second information (i.e., infarct region candidate or main artery occlusion) from the CT image G0.
  • second information i.e., infarct region candidate or main artery occlusion
  • a mask image generated by a doctor interpreting the CT image G0 and identifying an infarct region candidate or a main artery occlusion location candidate is acquired as second information without using the second discriminant model.
  • Third information may also be derived.
  • the information derivation units 22, 82, and 83 derive the infarct region and the main artery occlusion location, but the invention is not limited to this.
  • a bounding box surrounding the infarct region and the main artery occlusion location may be derived.
  • a processing unit Processing Unit
  • the various processors mentioned above include the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as well as circuits such as FPGA (Field Programmable Gate Array) after manufacturing.
  • Programmable logic devices PLDs
  • ASICs Application Specific Integrated Circuits
  • One processing unit may be composed of one of these various types of processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). ). Further, the plurality of processing units may be configured with one processor. As an example of configuring a plurality of processing units with one processor, firstly, as typified by computers such as a client and a server, one processor is configured with a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Second, there are processors that use a single IC (Integrated Circuit) chip, such as System On Chip (SoC), which implements the functions of an entire system including multiple processing units. be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.
  • SoC System On Chip
  • circuitry that is a combination of circuit elements such as semiconductor elements can be used.
  • Information processing device 2 3D image capturing device 3 Image storage server 4 Network 11 CPU 12A Information processing program 12B Learning program 13 Storage 14 Display 15 Input device 16 Memory 17 Network I/F 18 Bus 21 Information acquisition unit 22, 82, 83 Information derivation unit 22A, 82A, 83A First discrimination model 22B, 82B, 83B Second discrimination model 22C, 82C, 83C Third discrimination model 23 Learning unit 24 Quantitative value derivation unit 25 Display control unit 31 1st layer 32 2nd layer 33 3rd layer 34 4th layer 35 5th layer 36 6th layer 37 7th layer 38 8th layer 39 9th layer 40, 90, 100 Learning data 41, 91 , 101 Input data 42, 92, 102 Correct data 43, 93, 103 Non-contrast CT image 44, 45, 94, 95, 104, 105 Mask image 51 Anterior cerebral artery 52 Middle cerebral artery 53 Posterior cerebral artery 61L, 61R Anterior cerebral artery Arterial control area 62L,

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

プロセッサは、患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得し、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つと、第2の情報とに基づいて、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する。

Description

情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
 本開示は、情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデルに関する。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、対象部位を脳とした場合においては、CT画像およびMRI画像等を用いた画像診断により、脳梗塞および脳出血等の脳の血管障害を起こしている領域を特定することができる。このため、画像診断を支援するための各種手法が提案されている。
 ところで、脳梗塞は脳血管の閉塞により脳組織が障害される病気であり、予後不良であることが知られている。脳梗塞が発症すると、時間経過とともに不可逆な細胞死が進むため、治療開始までの時間をいかに短縮するかが重要な課題となっている。ここで、脳梗塞の代表的な治療法である血栓回収療法の適用に際しては、「梗塞の広がり度合い」と「主幹動脈閉塞(Large Vessel Occlusion; LVO)の有無」の2つの情報が必要である(経皮経管的脳血栓回収用機器 適正使用指針 第4版 2020年 3月 p.12-(1)参照)。
 一方、脳疾患が疑われる患者の診断においては、脳梗塞を確認する前に、脳内の出血の有無を確認することが多い。脳内の出血は非造影CT画像において明確に確認することができるため、脳疾患が疑われる患者に対しては、まず非造影CT画像を用いた診断が行われる。しかしながら、非造影CT画像においては、脳梗塞の領域と他の領域との画素値の相違はそれほど大きくない。また、非造影CT画像においては、主幹動脈閉塞の原因となる血栓を反映した高吸収構造(Hyperdense Artery Sign(HAS))を視認することは可能であるが、鮮明ではないため、主幹動脈閉塞箇所の特定は困難である。このように、非造影CT画像を用いることによっては、梗塞領域および主幹動脈閉塞箇所を特定することは、困難であることが多い。このため、非造影CT画像を用いた診断後にMRI画像あるいは造影CT画像を取得して脳梗塞が発症しているか否かの診断、主幹動脈閉塞箇所の特定、および脳梗塞が発生している場合におけるその広がり度合いの確認が行われることとなる。
 しかしながら、CT画像を用いた診断後にMRI画像および造影CT画像を取得して脳梗塞が発症しているか否かの診断を行っていたのでは、梗塞が発症してからの経過時間が長くなるために治療の開始が遅くなり、その結果、予後不良となる可能性が高くなる。
 このため、非造影CT画像から梗塞領域および主幹動脈閉塞箇所を自動で抽出するための手法が提案されている。例えば特開2020-054580号公報においては、非造影CT画像から梗塞領域を抽出するように学習がなされた判別器および非造影CT画像から血栓領域を抽出するように学習がなされた判別器を用いて、梗塞領域および血栓領域を特定する手法が提案されている。
 一方、主幹動脈閉塞箇所を表すHASはどの血管が詰まったかにより出現場所が変わり、またCT画像における断層面の脳に対する角度、血栓の性状および閉塞度合い等によって見え方が異なる。また、石灰化等の周辺の類似構造物との区別が困難である場合もある。また、梗塞領域はHASが発生した血管による血管支配領域において発生する。このため、主幹動脈閉塞箇所を特定できれば梗塞領域も特定しやすくなる。
 本開示は上記事情に鑑みなされたものであり、頭部の非造影CT画像を用いて主幹動脈閉塞箇所または梗塞領域を精度よく特定できるようにすることを目的とする。
 本開示による情報処理装置は、少なくとも1つのプロセッサを備え、
 プロセッサは、患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得し、
 非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、
 第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つと、第2の情報とに基づいて、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する。
 なお、本開示による情報処理装置においては、プロセッサは、さらに非造影CT画像を取得し、
 さらに非造影CT画像に基づいて第3の情報を導出するものであってもよい。
 また、本開示による情報処理装置においては、プロセッサは、第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つと、非造影CT画像と、第2の情報とが入力されると第3の情報を出力するように学習がなされた判別モデルを用いて第3の情報を導出するものであってもよい。
 また、本開示による情報処理装置においては、プロセッサは、さらに第1の情報、非造影CT画像、並びに第2の情報のうちの少なくとも非造影CT画像における、脳の正中線に関して対称な領域の情報をさらに用いて第3の情報を導出するものであってもよい。
 また、本開示による情報処理装置においては、対称な領域の情報は、第1の情報、非造影CT画像、並びに第2の情報のうちの少なくとも非造影CT画像を脳の正中線を基準として反転させた反転情報であってもよい。
 また、本開示による情報処理装置においては、プロセッサは、非造影CT画像から梗塞領域および主幹動脈閉塞箇所のいずれか一方を抽出することにより第1の情報を取得し、非造影CT画像から梗塞領域および主幹動脈閉塞箇所の他方の候補を抽出することにより第2の情報を取得するものであってもよい。
 また、本開示による情報処理装置においては、プロセッサは、第1の情報、第2の情報および第3の情報の少なくとも一方についての定量的な情報を導出し、
 定量的な情報を表示するものであってもよい。
 本開示による学習装置は、少なくとも1つのプロセッサを備え、
 プロセッサは、i)脳梗塞を発症している患者の頭部の非造影CT画像、ii)非造影
CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報と、脳の解剖学的領域を表す情報と、臨床情報とのうちの少なくとも1つ、並びにiii)非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報からなる入力データと、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報からなる正解データとを含む学習用データを取得し、
 学習用データを用いてニューラルネットワークを機械学習することにより、第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つ、非造影CT画像、並びに第2の情報が入力されると第3の情報を出力する判別モデルを構築する。
 本開示による判別モデルは、i)患者の頭部の非造影CT画像と、ii)非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報、並びに臨床情報のうちの少なくとも1つと、iii)非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報とが入力されると、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を出力する。
 本開示による情報処理方法は、患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得し、
 非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、
 第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つと、第2の情報とに基づいて、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する。
 本開示による学習方法は、i)脳梗塞を発症している患者の頭部の非造影CT画像、ii)非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報と、脳の解剖学的領域を表す情報と、臨床情報とのうちの少なくとも1つ、並びにiii)非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報からなる入力データと、非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報からなる正解データとを含む学習用データを取得し、
 学習用データを用いてニューラルネットワークを機械学習することにより、第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つ、非造影CT画像、並びに第2の情報が入力されると第3の情報を出力する判別モデルを構築する。
 なお、本開示による情報処理方法および学習方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示によれば、頭部の非造影CT画像を用いて主幹動脈閉塞箇所または梗塞領域を精度よく特定できる。
本開示の第1の実施形態による情報処理装置および学習装置を適用した医療情報システムの概略構成を示す図 第1の実施形態による情報処理装置および学習装置の概略構成を示す図 第1の実施形態による情報処理装置および学習装置の機能構成図 第1の実施形態における情報導出部の構成を示す概略ブロック図 U-Netの構成を模式的に示す図 特徴量マップの反転を説明するための図 第1の実施形態において第3判別モデルに相当するU-Netを学習するための学習用データを示す図 脳における動脈および支配領域を説明するための図 表示画面を示す図 第1の実施形態において行われる学習処理を示すフローチャート 第1の実施形態において行われる情報処理を示すフローチャート 第1の実施形態における情報導出部の構成を示す概略ブロック図 第2の実施形態において第3判別モデルに相当するU-Netを学習するための学習用データを示す図 第2の実施形態において行われる学習処理を示すフローチャート 第2の実施形態において行われる情報処理を示すフローチャート 第3の実施形態における情報導出部の構成を示す概略ブロック図 第3の実施形態において第3判別モデルに相当するU-Netを学習するための学習用データを示す図
 以下、図面を参照して本開示の第1の実施形態について説明する。図1は、本開示の第1の実施形態による情報処理装置および学習装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、第1の実施形態による情報処理装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。なお、情報処理装置1には、本実施形態による学習装置が内包される。
 3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET装置等である。この3次元画像撮影装置2により生成された医用画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置であり、CT装置において、被検体である患者の頭部の3次元のCT画像G0を生成する。なお、本実施形態においては、CT画像G0は、造影剤を使用しないで撮影を行うことにより取得される非造影CT画像とする。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成されたCT画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。また、画像保管サーバ3には、後述するように判別モデルを構築するための学習用データも保管されている。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
 次いで、本開示の第1の実施形態による情報処理装置および学習装置について説明する。図2は、第1の実施形態による情報処理装置および学習装置のハードウェア構成を説明する。図2に示すように、情報処理装置および学習装置(以下、情報処理装置で代表させる)1は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、情報処理装置1は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク4に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
 ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、情報処理プログラム12Aおよび学習プログラム12Bが記憶される。CPU11は、ストレージ13から情報処理プログラム12Aおよび学習プログラム12Bを読み出してメモリ16に展開し、展開した情報処理プログラム12Aおよび学習プログラム12Bを実行する。
 次いで、第1の実施形態による情報処理装置の機能的な構成を説明する。図3は、第1の実施形態による情報処理装置の機能的な構成を示す図である。図3に示すように、情報処理装置1は、情報取得部21、情報導出部22、学習部23、定量値導出部24および表示制御部25を備える。そして、CPU11は、情報処理プログラム12Aを実行することにより、情報取得部21、情報導出部22、定量値導出部24および表示制御部25として機能する。また、CPU11は、学習プログラム12Bを実行することにより、学習部23として機能する。
 情報取得部21は、患者の頭部の非造影のCT画像G0を画像保管サーバ3から取得する。また、情報取得部21は、後述する判別モデルを構築するためにニューラルネットワークを学習するための入力データを画像保管サーバ3から取得する。
 情報取得部21は、患者の頭部の非造影のCT画像G0を画像保管サーバ3から取得する。また、情報取得部21は、後述する判別モデルを構築するためにニューラルネットワークを学習するための入力データを画像保管サーバ3から取得する。
 情報導出部22は、CT画像G0における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報、並びに臨床情報のうちの少なくとも1つを取得し、CT画像G0における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、CT画像G0、第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つと、第2の情報とに基づいて、CT画像G0における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する。本実施形態においては、CT画像G0における梗塞領域を表す第1の情報を取得し、CT画像G0における主幹動脈閉塞箇所の候補を表す第2の情報を取得し、CT画像G0、第1の情報および第2の情報に基づいてCT画像G0における主幹動脈閉塞箇所を表す第3の情報を導出するものとする。
 図4は第1の実施形態における情報導出部の構成を示す概略ブロック図である。図4に示すように、情報導出部22は、第1判別モデル22A、第2判別モデル22Bおよび第3判別モデル22Cを有する。第1判別モデル22Aは、処理対象となるCT画像G0から脳の梗塞領域を第1の情報として抽出するように、畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))を機械学習することにより構築されている。第1判別モデル22Aの構築は、例えば上記特開2020-054580号公報に記載された手法を用いることができる。具体的には、頭部の非造影CT画像および非造影CT画像における梗塞領域を表すマスク画像を学習用データとして用いてCNNを機械学習することにより、第1判別モデル22Aを構築することができる。これにより、第1判別モデル22Aは、CT画像G0からCT画像G0における梗塞領域を抽出し、CT画像G0における梗塞領域を表すマスク画像M0を出力する。
 第2判別モデル22Bは、処理対象となるCT画像G0から主幹動脈閉塞箇所の候補を第2の情報として抽出するように、CNNを機械学習することにより構築されている。第2判別モデル22Bの構築は、例えば上記特開2020-054580号公報に記載された手法を用いることができる。具体的には、頭部の非造影CT画像および非造影CT画像における主幹動脈閉塞箇所を表すマスク画像を学習用データとして用いてCNNを機械学習することにより、第2判別モデル22Bを構築することができる。これにより、第2判別モデル22Bは、CT画像G0からCT画像G0における主幹動脈閉塞箇所を抽出し、CT画像G0における主幹動脈閉塞箇所を表すマスク画像M1を出力する。なお、第1の実施形態においては、第2判別モデル22Bおよび第3判別モデル22Cは、ともにCT画像G0から主幹動脈閉塞箇所を抽出するものであるが、第2判別モデル22Bが抽出する主幹動脈閉塞箇所を主幹動脈閉塞箇所候補としている。また、第2判別モデル22Bは感度を重視したCNNであってもよい。また、第2判別モデル22Bは、CNNのような機械学習により構築されたもの以外の、例えばしきい値処理により主幹動脈閉塞箇所候補を抽出するモデルを用いてもよい。
 第3判別モデル22Cは、CT画像G0、CT画像G0における梗塞領域を表すマスク画像M0およびCT画像G0における主幹動脈閉塞箇所候補を表すマスク画像M1に基づいて、CT画像G0における主幹動脈閉塞箇所を第3の情報として抽出するように、畳み込みニューラルネットワークの一種であるU-Netを多数の学習用データを用いて機械学習することにより構築される。図5はU-Netの構成を模式的に示す図である。図5に示すように、第3判別モデル22Cは、第1層31~第9層39の9つの階層から構成される。なお、本実施形態においては、第3の情報を導出するに際して、CT画像G0、梗塞領域を表すマスク画像M0および主幹動脈閉塞箇所候補を表すマスク画像M1のうちの少なくともCT画像G0における、脳の正中線に関して対称な領域の情報が使用される。脳の正中線に関して対称な領域の情報については後述する。
 本実施形態において、第1層31には、CT画像G0、CT画像G0における梗塞領域を表すマスク画像M0およびCT画像G0における主幹動脈閉塞箇所候補を表すマスク画像M1が結合されて入力される。なお、CT画像G0によっては、画像内において脳の正中線とCT画像G0の垂直二等分線に対して傾いている場合がある。このような場合は、脳の正中線がCT画像G0の垂直二等分線と一致するように、CT画像G0内の脳を回転させる。この場合、同様の回転処理をマスク画像M0およびマスク画像M1にも施す必要がある。
 第1層31は、2つの畳み込み層を有し、畳み込み後のCT画像G0、マスク画像M0およびマスク画像M1の3つの特徴量マップが統合された特徴量マップF1を出力する。統合された特徴量マップF1は、図5の破線で示すように、第9層39に入力される。また、統合された特徴量マップF1はプーリングされてサイズが1/2に縮小され、第2層32に入力される。図5においてプーリングを下向きの矢印で示している。畳み込みに際しては、本実施形態においては、例えば3×3のカーネルを用いるものとするが、これに限定されるものではない。また、プーリングに際しては、4画素のうちの最大値が採用されるものとするが、これに限定されるものではない。
 第2層32は2つの畳み込み層を有し、第2層32から出力された特徴量マップF2は、図5の破線で示すように、第8層38に入力される。また、特徴量マップF2はプーリングされてサイズが1/2に縮小され、第3層33に入力される。
 第3層33も2つの畳み込み層を有し、第3層33から出力された特徴量マップF3は、図5の破線で示すように、第7層37に入力される。また、特徴量マップF3はプーリングされてサイズが1/2に縮小され、第4層34に入力される。
 また、本実施形態においては、第3の情報を導出するに際して、CT画像G0、CT画像G0の梗塞領域を表すマスク画像M0および主幹動脈閉塞箇所候補を表すマスク画像M1における、脳の正中線に関して対称な領域の情報が使用される。このため、第3判別モデル22Cの第3層33において、プーリングされた特徴量マップF3が脳の正中線を基準として左右反転され、反転特徴量マップF3Aが導出される。図6は特徴量マップの反転を説明するための図である。図6に示すように特徴量マップF3は脳の正中線C0を基準として左右反転され、反転特徴量マップF3Aが導出される。反転特徴量マップF3Aが本開示における反転情報の一例である。なお、本実施形態では、U-Netの内部で反転情報を生成しているが、第1層31にCT画像G0およびマスク画像M0,M1を入力する時点で、CT画像G0およびマスク画像M0,M1のうちの少なくともCT画像G0の反転画像を生成し、CT画像G0、CT画像G0の反転画像、マスク画像M0およびマスク画像M1を結合して第1層31に入力するようにしてもよい。また、CT画像G0の反転画像に加えてマスク画像M0およびマスク画像M1の少なくとも一方の反転画像を生成してもよい。例えばマスク画像M0およびマスク画像M1の双方の反転画像を生成する場合、CT画像G0、CT画像G0の反転画像、マスク画像M0、マスク画像M1、マスク画像M0の反転画像、およびマスク画像M1の反転画像を結合して第1層31に入力するようにしてもよい。この場合、脳の正中線がCT画像G0およびマスク画像M0,M1の垂直二等分線と一致するように、CT画像G0内の脳を回転させたり、マスク画像M0,M1内のマスクを回転させたりして反転画像を生成すればよい。
 第4層34も2つの畳み込み層を有し、最初の畳み込み層にプーリングされた特徴量マップF3および反転特徴量マップF3Aが入力される。第4層34から出力された特徴量マップF4は、図5の破線で示すように、第6層36に入力される。また、特徴量マップF4はプーリングされてサイズが1/2に縮小され、第5層35に入力される。
 第5層35は1つの畳み込み層を有し、第5層35から出力された特徴量マップF5は、アップサンプリングされてサイズが2倍に拡大され、第6層36に入力される。図5においては、アップサンプリングを上向きの矢印により示している。
 第6層36は2つの畳み込み層を有し、第4層34からの特徴量マップF4および第5層35からのアップサンプリングされた特徴量マップF5を統合して畳み込み演算を行う。第6層36から出力された特徴量マップF6はアップサンプリングされてサイズが2倍に拡大され、第7層37に入力される。
 第7層37は2つの畳み込み層を有し、第3層33からの特徴量マップF3および第6層36からのアップサンプリングされた特徴量マップF6を統合して畳み込み演算を行う。第7層37から出力された特徴量マップF7はアップサンプリングされて、第8層38に入力される。
 第8層38は2つの畳み込み層を有し、第2層32からの特徴量マップF2および第7層37からのアップサンプリングされた特徴量マップF7を統合して畳み込み演算を行う。第8層38から出力された特徴量マップはアップサンプリングされて、第9層39に入力される。
 第9層39は3つの畳み込み層を有し、第1層からの特徴量マップF1および第8層38からのアップサンプリングされた特徴量マップF8を統合して畳み込み演算を行う。第9層39から出力された特徴量マップF9は、CT画像G0における主幹動脈閉塞箇所が抽出された画像となる。
 図7は第1の実施形態において第3判別モデル22Cに相当するU-Netを学習するための学習用データを示す図である。図7に示すように、学習用データ40は、入力データ41と正解データ42とからなる。入力データ41は、非造影CT画像43と、非造影CT画像43における梗塞領域を表すマスク画像44と、非造影CT画像43における主幹動脈閉塞箇所候補を表すマスク画像45とからなる。正解データ42は、非造影CT画像43における主幹動脈閉塞箇所を表すマスク画像である。なお、マスク画像45は非造影CT画像43を第2判別モデル22Bに入力することにより導出されたものである。
 本実施形態においては多数の学習用データ40が画像保管サーバ3に保存されており、情報取得部21により画像保管サーバ3から学習用データ40が取得され、学習部23によるU-Netの学習に使用される。
 学習部23は、U-Netに入力データ41である非造影CT画像43、マスク画像44およびマスク画像45を入力し、U-Netから非造影CT画像43における主幹動脈閉塞箇所を表す画像を出力させる。具体的には、学習部23は、U-Netにより非造影CT画像43におけるHASを抽出させ、HASの部分がマスクされたマスク画像を出力させる。学習部23は、出力された画像と正解データ42との相違を損失として導出し、損失が小さくなるように、U-Netにおける各層の結合の重みおよびカーネルの係数を学習する。なお、学習の際はマスク画像44,45に摂動を加えてもよい。摂動としては、例えば、ランダムな確率でマスクにモルフォロジー処理を加えたり、マスクを0埋めしたりするなどが考えられる。マスク画像44,45に摂動を加えることにより、顕著な梗塞領域が無く血栓のみが画像上に現れる超急性期の脳梗塞症例に見られるパターンに対応することができ、さらに第3判別モデル22Cが判別時に、入力されるマスク画像に依存しすぎることを防止することができる。
 そして学習部23は、損失が予め定められたしきい値以下となるまで繰り返し学習を行う。これにより、非造影のCT画像G0、CT画像G0における梗塞領域を表すマスク画像M0、およびCT画像G0における主幹動脈閉塞箇所候補を表すマスク画像M1が入力されると、CT画像G0に含まれる主幹動脈閉塞箇所を第3の情報として抽出してCT画像G0における主幹動脈閉塞箇所を表すマスク画像H0を出力する第3判別モデル22Cが構築される。なお、学習部23は、予め定められた回数の学習を繰り返し行うことにより第3判別モデル22Cを構築するものであってもよい。
 なお、第3判別モデル22Cを構成するU-Netの構成は図5に示すものに限定されない。例えば、図5に示すU-Netおいては第3層33から出力された特徴量マップF3から反転特徴量マップF3Aを導出しているが、U-Netにおける任意の層で反転特徴量マップを用いるようにしてもよい。また、U-Netにおける各層の畳み込み層の数も、図5に示すものに限定されるものではない。
 なお、第1の実施形態において、第2判別モデル22Bおよび第3判別モデル22Cは、ともにCT画像G0から主幹動脈閉塞箇所を導出するものであるが、第3判別モデル22Cは、梗塞領域および主幹動脈閉塞箇所候補を用いているため、第2判別モデル22Bよりも精度よく主幹動脈閉塞箇所を導出できる。このため、本実施形態においては、第2判別モデル22Bが導出する主幹動脈閉塞箇所を主幹動脈閉塞箇所候補としている。なお、第2判別モデル22Bが導出した主幹動脈閉塞箇所候補が、第3判別モデル22Cが導出した主幹動脈閉塞箇所と一致することもあり得る。
 定量値導出部24は、情報導出部22が導出した梗塞領域および主幹動脈閉塞箇所の少なくとも一方についての定量値を導出する。定量値が本開示における定量的な情報の一例である。本実施形態においては、定量値導出部24は、梗塞領域および主幹動脈閉塞箇所の双方の定量値を導出するものとするが、梗塞領域および主幹動脈閉塞箇所のいずれか一方の定量値を導出するものであってもよい。定量値導出部24は、CT画像G0が3次元画像であることから、梗塞領域の体積、主幹動脈閉塞箇所の体積、および主幹動脈閉塞箇所の長さを定量値として導出してもよい。また、定量値導出部24は、ASPECTSのスコアを定量値として導出してもよい。
 「ASPECTS」とは、Alberta Stroke Program Early CT Scoreの略語であり、中大脳動脈領域の脳梗塞に対して、単純CTのearly CT signを定量化したスコア法である。具体的には、医用画像がCT画像の場合、中大脳動脈領域を代表的2断面(基底核レベルおよび放線冠レベル)における10領域に分類し、領域ごとに早期虚血変化の有無を評価し、陽性箇所を減点法で採点する手法である。ASPECTSでは、スコアが低い方が梗塞領域の面積が広いこととなる。定量値導出部24は、梗塞領域が上記の10領域に含まれるか否かに応じてスコアを導出すればよい。
 また、定量値導出部24は、主幹動脈閉塞箇所に基づいて閉塞している血管の支配領域を特定し、支配領域と梗塞領域との重なり量(体積)を定量値として導出してもよい。図8は脳における動脈および支配領域を説明するための図である。なお、図8にはCT画像G0のある断層面におけるスライス画像S1を示す。図8に示すように、脳には、前大脳動脈(ACA:Anterior Cerebral Artery)51、中大脳動脈(MCA:Middle CerebralArtery)52、および後大脳動脈(PCA:Posterior Cerebral Artery)53が含まれている。また、図示していないが内頚動脈(ICA:Internal Carotid Artery)も含まれる。脳は、前大脳動脈51、中大脳動脈52および後大脳動脈53のそれぞれにより血流が支配される、左右の前大脳動脈支配領域61L,61R、中大脳動脈支配領域62L,62Rおよび後大脳動脈支配領域63L,63Rに分割される。なお、図8においては向かって右側が脳における左脳側の領域となっている。
 なお、支配領域の特定は、CT画像G0を予め用意された支配領域が特定された標準脳画像と位置合わせすることにより行えばよい。
 定量値導出部24は、主幹動脈閉塞箇所が存在する動脈を特定し、特定された動脈による脳の支配領域を特定する。例えば、主幹動脈閉塞箇所が左側の前大脳動脈に存在する場合、支配領域を前大脳支配領域61Lに特定する。ここで、梗塞領域は動脈における血栓が存在する箇所の下流において発生する。このため、梗塞領域は前大脳支配領域61Lに存在する。したがって、定量値導出部24は、CT画像G0における前大脳支配領域61Lの体積に対する梗塞領域の体積を定量値として導出すればよい。
 表示制御部25は、患者のCT画像G0および定量値をディスプレイ14に表示する。図9は表示画面を示す図である。図9に示すように表示画面70には患者のCT画像G0に含まれるスライス画像が入力デバイス15の操作に基づいて切り替え可能に表示されている。また、CT画像G0には梗塞領域のマスク71が重畳表示されている。また、主幹動脈閉塞箇所を示す矢印形状のマーク72も重畳表示されている。また、CT画像G0の右側には、定量値導出部24が導出した定量値73が表示されている。具体的には、梗塞領域の体積(40ml)、主幹動脈閉塞箇所の長さ(HAS長さ:10mm)および主幹動脈閉塞箇所の体積(HAS体積:0.1ml)が表示されている。なお、主幹動脈閉塞箇所に加えて、主幹動脈閉塞箇所候補を表示するようにしてもよい。
 次いで、第1の実施形態において行われる処理について説明する。図10は第1の実施形態において行われる学習処理を示すフローチャートである。なお、学習用データは画像保管サーバ3から取得されて、ストレージ13に保存されているものとする。まず、学習部23は、学習用データ40に含まれる入力データ41をU-Netに入力し(ステップST1)、U-Netに主幹動脈閉塞箇所を抽出させる(ステップST2)。そして、学習部23は抽出された主幹動脈閉塞箇所と正解データ42とから損失を導出し(ステップST3)、損失が予め定められたしきい値以下であるか否かを判定する(ステップST4)。
 ステップST4が否定されるとステップST1に戻り、学習部23は、ステップST1~ステップST4の処理を繰り返す。ステップST4が肯定されると処理を終了する。これにより第3判別モデル22Cが構築される。
 図11は第1の実施形態において行われる情報処理を示すフローチャートである。なお、処理の対象となる非造影のCT画像G0は画像保管サーバ3から取得されて、ストレージ13に保存されているものとする。まず、情報導出部22が第1判別モデル22Aを用いてCT画像G0における梗塞領域を導出する(ステップST11)。また、情報導出部22は、第2判別モデル22Bを用いて、CT画像G0における主幹動脈閉塞箇所候補を導出する(ステップST12)。さらに、情報導出部22は、第3判別モデル22Cを用いて、CT画像G0、CT画像G0における梗塞領域を表すマスク画像M0およびCT画像G0における主幹動脈閉塞箇所候補を表すマスク画像M1に基づいて、CT画像G0における主幹動脈閉塞箇所を導出する(ステップST13)。
 次いで、定量値導出部24が、梗塞領域および主幹動脈閉塞箇所の情報に基づいて定量値を導出する(ステップST14)。そして、表示制御部25が、CT画像G0および定量値を表示し(ステップST15)、処理を終了する。
 このように、第1の実施形態においては、患者の頭部の非造影のCT画像G0、CT画像G0における梗塞領域、およびCT画像における主幹動脈閉塞箇所候補に基づいて、CT画像G0における主幹動脈閉塞箇所を導出するようにした。これにより、梗塞領域を考慮することができるため、CT画像G0において主幹動脈閉塞箇所を精度よく特定することができる。
 ここで、脳梗塞等の脳の疾患は左脳および右脳の双方に同時に発症することは稀である。このため、特徴量マップF3を脳の正中線C0を基準として反転させた反転特徴量マップF3Aを用いることにより、左右の脳の特徴を比較しつつ主幹動脈閉塞箇所を特定することができる。これにより、主幹動脈閉塞箇所を精度よく特定することができる。
 また、定量値を表示することにより、医師は定量値に基づいて治療方針を決定することが容易となる。例えば、主幹動脈閉塞箇所の体積あるいは長さを表示することにより、血栓回収療法を適用する際に使用する器具の種類あるいは長さを決定することが容易となる。
 次いで、本開示の第2の実施形態について説明する。なお、第2の実施形態における情報処理装置の構成は上記第1の実施形態における情報処理装置の構成と同一であり、行われる処理のみが異なるため、ここでは装置についての詳細な説明は省略する。
 図12は第2の実施形態における情報導出部の構成を示す概略ブロック図である。図12に示すように、第2の実施形態による情報導出部82は、第1判別モデル82A、第2判別モデル82Bおよび第3判別モデル82Cを有する。第2の実施形態における第1判別モデル82Aは、CT画像G0から主幹動脈閉塞箇所を第1の情報として抽出するように、CNNを機械学習することにより構築されている。第1判別モデル82Aの構築は、例えば上記特開2020-054580号公報に記載された手法を用いることができる。具体的には、頭部の非造影CT画像および非造影CT画像における主幹動脈閉塞箇所を学習用データとして用いてCNNを機械学習することにより、第1判別モデル82Aを構築することができる。
 第2の実施形態における第2判別モデル82Bは、CT画像G0から梗塞領域の候補を第2の情報として抽出するように、CNNを機械学習することにより構築されている。第2判別モデル82Bの構築は、例えば上記特開2020-054580号公報に記載された手法を用いることができる。具体的には、頭部の非造影CT画像および非造影CT画像における梗塞領域を学習用データとして用いてCNNを機械学習することにより、第2判別モデル82Bを構築することができる。なお、第2の実施形態においては、第2判別モデル82Bおよび第3判別モデル82Cは、ともにCT画像G0から梗塞領域を抽出するものであるが、第2判別モデル82Bが抽出する梗塞領域を梗塞領域候補としている。
 第2の実施形態における第3判別モデル82Cは、CT画像G0、CT画像G0における主幹動脈閉塞箇所を表すマスク画像M2およびCT画像G0における梗塞領域候補を表すマスク画像M3に基づいて、CT画像G0から梗塞領域を第3の情報として抽出するように、U-Netを多数の学習用データを用いて機械学習することにより構築される。なお、U-Netの構成は上記第1の実施形態と同一であるため、ここでは詳細な説明は省略する。
 図13は第2の実施形態において第3判別モデル82Cに相当するU-Netを学習するための学習用データを示す図である。図13に示すように、学習用データ90は、入力データ91と正解データ92とからなる。入力データ91は、非造影CT画像93と、非造影CT画像93における主幹動脈閉塞箇所を表すマスク画像94と、非造影CT画像93における梗塞領域候補を表すマスク画像95とからなる。正解データ92は、非造影CT画像93における梗塞領域を表すマスク画像である。なお、マスク画像95は非造影CT画像93を第2判別モデル82Bに入力することにより導出されたものである。
 第2の実施形態においては、学習部23は、図13に示す学習用データ90を多数用いてU-Netを学習することにより第3判別モデル82Cを構築する。これにより、第2の実施形態における第3判別モデル82Cは、CT画像G0、主幹動脈閉塞箇所を表すマスク画像M2、および梗塞領域候補を表すマスク画像M3が入力されると、CT画像G0における梗塞領域を抽出して梗塞領域を表すマスク画像K0を出力するものとなる。なお、第2の実施形態において、第3判別モデル82Cは、CT画像G0、マスク画像M2およびマスク画像M3のうちの少なくともCT画像G0における、脳の正中線に関して対称な領域の情報をさらに用いて梗塞領域を抽出するものであってもよい。
 なお、第2の実施形態において、第2判別モデル82Bおよび第3判別モデル82Cは、ともにCT画像G0から梗塞領域を導出するものであるが、第3判別モデル82Cは、主幹動脈閉塞箇所および梗塞領域候補を用いているため、第2判別モデル82Bよりも精度よく梗塞領域を導出できる。このため、本実施形態においては、第2判別モデル82Bが導出する梗塞領域を梗塞領域候補としている。なお、第2判別モデル82Bが導出した梗塞領域候補が、第3判別モデル82Cが導出した梗塞領域と一致することもあり得る。
 次いで、第2の実施形態において行われる処理について説明する。図14は第2の実施形態において行われる学習処理を示すフローチャートである。なお、学習用データは画像保管サーバ3から取得されて、ストレージ13に保存されているものとする。まず、学習部23は、学習用データ90に含まれる入力データ91をU-Netに入力し(ステップST21)、U-Netに梗塞領域を抽出させる(ステップST22)。そして、学習部23は抽出された梗塞領域と正解データ92とから損失を導出し(ステップST23)、損失が予め定められたしきい値以下であるか否かを判定する(ステップST24)。
 ステップST24が否定されるとステップST21に戻り、学習部23は、ステップST21~ステップST24の処理を繰り返す。ステップST24が肯定されると処理を終了する。これにより第3判別モデル82Cが構築される。
 図15は第2の実施形態において行われる情報処理を示すフローチャートである。なお、処理の対象となる非造影のCT画像G0は画像保管サーバ3から取得されて、ストレージ13に保存されているものとする。まず、情報導出部82が第1判別モデル82Aを用いてCT画像G0における主幹動脈閉塞箇所を導出する(ステップST31)。また、情報導出部82は、第2判別モデル82Bを用いて、CT画像G0における梗塞領域候補を導出する(ステップST32)。さらに、情報導出部82は、第3判別モデル82Cを用いて、CT画像G0、CT画像G0における主幹動脈閉塞箇所を表すマスク画像M2およびCT画像G0における梗塞領域候補を表すマスク画像M3に基づいて、CT画像G0における梗塞領域を導出する(ステップST33)。
 次いで、定量値導出部24が、梗塞領域および主幹動脈閉塞箇所の情報に基づいて定量値を導出する(ステップST34)。そして、表示制御部25が、CT画像G0および定量値を表示し(ステップST35)、処理を終了する。
 このように、第2の実施形態においては、患者の頭部の非造影のCT画像G0、CT画像G0における主幹動脈閉塞箇所、およびCT画像における梗塞領域候補に基づいて、CT画像G0における梗塞領域を導出するようにした。これにより、主幹動脈閉塞箇所を考慮することができるため、CT画像G0において梗塞領域を精度よく特定することができる。
 次いで、本開示の第3の実施形態について説明する。なお、第3の実施形態における情報処理装置の構成は上記第1の実施形態における情報処理装置の構成と同一であり、行われる処理が異なるのみであるため、ここでは装置についての詳細な説明は省略する。
 図16は第3の実施形態における情報導出部の構成を示す概略ブロック図である。図16に示すように、第2の実施形態による情報導出部83は、第1判別モデル83A、第2判別モデル83Bおよび第3判別モデル83Cを有する。第3の実施形態における第1判別モデル83Aは、第1の実施形態における第1判別モデル22Aと同様にCT画像G0から梗塞領域を第1の情報として抽出するように、CNNを機械学習することにより構築されている。第3の実施形態における第2判別モデル83Bは、第1の実施形態における第2判別モデル22Bと同様にCT画像G0から主幹動脈閉塞箇所候補を第2の情報として抽出するように、CNNを機械学習することにより構築されている。
 第3の実施形態における第3判別モデル83Cは、CT画像G0、CT画像G0における梗塞領域を表すマスク画像M0、およびCT画像G0における主幹動脈閉塞箇所候補を表すマスク画像M1、並びに脳の解剖学的領域を表す情報および臨床情報の少なくとも一方の情報(以下、追加情報A0とする)に基づいて、CT画像G0から主幹動脈閉塞箇所を第3の情報として抽出するように、U-Netを多数の学習用データを用いて機械学習することにより構築される。なお、U-Netの構成は上記第1の実施形態と同一であるため、ここでは詳細な説明は省略する。
 図17は第3の実施形態において第3判別モデル83Cに対応するU-Netを学習するための学習用データを示す図である。図17に示すように、学習用データ100は、入力データ101と正解データ102とからなる。入力データ101は、非造影CT画像103と、非造影CT画像103における梗塞領域を表すマスク画像104と、非造影CT画像103における主幹動脈閉塞箇所候補を表すマスク画像105と、解剖学的領域を表す情報および臨床情報の少なくとも一方の情報(追加情報とする)106とからなる。正解データ102は、非造影CT画像103における主幹動脈閉塞箇所を表すマスク画像である。なお、マスク画像105は非造影CT画像103を第2判別モデル83Bに入力することにより導出されたものである。
 ここで、解剖学的領域を表す情報としては、例えば非造影CT画像103における梗塞領域が存在する血管支配領域のマスク画像を用いることができる。また、非造影CT画像103における梗塞領域が存在するASPECTSの領域のマスク画像を解剖学的領域を表す情報として用いることができる。臨床情報としては、非造影CT画像103についてのASPECTSのスコア、および非造影CT画像103を取得した患者についてのNIHSS(National Institutes of Health Stroke Scale)を用いることができる。NIHSSとは、脳卒中神経学的重症度の評価スケールとして世界的にもっとも広く利用されている評価法の1つである。
 第3の実施形態においては、学習部23は、図17に示す学習用データ100を多数用いてU-Netを学習することにより第3判別モデル83Cを構築する。これにより、第3の実施形態における第3判別モデル83Cは、CT画像G0、梗塞領域を表すマスク画像M0、主幹動脈閉塞箇所候補を表すマスク画像M1、および追加情報A0が入力されると、CT画像G0から主幹動脈閉塞箇所を抽出して主幹動脈閉塞箇所を表すマスク画像H0を出力するものとなる。
 なお、第3の実施形態における学習処理は、追加情報A0を用いる点で第1の実施形態と異なるのみであるため、学習処理についての詳細な説明は省略する。また、第3の実施形態における情報処理は、第3判別モデル83Cに入力される情報がCT画像G0および梗塞領域を表すマスク画像に加えて、患者の追加情報A0を含む点で第1の実施形態と異なるのみであるため、情報処理についての詳細な説明は省略する。
 このように、第3の実施形態においては、患者の頭部の非造影のCT画像G0、CT画像G0における梗塞領域、およびCT画像における主幹動脈閉塞箇所候補に加えて、追加情報A0にも基づいて、CT画像G0における主幹動脈閉塞箇所を導出するようにした。これにより、梗塞領域に加えて追加情報も考慮することができるため、CT画像G0において主幹動脈閉塞箇所をより精度よく特定することができる。
 なお、上記第3の実施形態においては、CT画像G0、梗塞領域を表すマスク画像M0、主幹動脈閉塞箇所候補を表すマスク画像M1、および追加情報A0が入力されると、CT画像G0における主幹動脈閉塞箇所を抽出するように第3判別モデル83Cを構築しているが、これに限定されるものではない。CT画像G0、主幹動脈閉塞箇所を表すマスク画像、梗塞領域候補を表すマスク画像および追加情報が入力されると、CT画像G0における梗塞領域を抽出するように第3判別モデル83Cを構築するようにしてもよい。
 また、上記各実施形態においては、第3判別モデルにおいて、CT画像G0、第1の情報、第2の情報、脳の解剖学的領域を表す情報および臨床情報における脳の正中線に関して対称な領域の情報を用いて第2の情報(すなわち、梗塞領域または主幹動脈閉塞箇所)を導出しているが、これに限定されるものではない。CT画像G0、第1の情報、第2の情報、脳の解剖学的領域を表す情報および臨床情報における脳の正中線に関して対称な領域の情報を用いることなく第3の情報を導出するように第2判別モデルを構築してもよい。
 また、上記第1の実施形態においては、梗塞領域を表す第1の情報および主幹動脈閉塞箇所候補を表す第2の情報に基づいて、主幹動脈閉塞箇所を表す第3の情報を導出しているが、これに限定されるものではない。第1の情報に代えてまたは第1の情報に加えて、脳の解剖学的領域を表す情報および主幹動脈閉塞箇所候補を表す第2の情報に基づいて、主幹動脈閉塞箇所を表す第3の情報を導出してもよい。また、第1の情報に代えてまたは第1の情報に加えて、臨床情報および主幹動脈閉塞箇所候補を表す第2の情報に基づいて、主幹動脈閉塞箇所を表す第3の情報を導出してもよい。また、第1の情報に代えて、脳の解剖学的領域を表す情報、臨床情報および主幹動脈閉塞箇所候補を表す第2の情報に基づいて、主幹動脈閉塞箇所を表す第3の情報を導出してもよい。
 また、上記第2の実施形態においては、主幹動脈閉塞箇所を表す第1の情報および梗塞領域候補を表す第2の情報に基づいて、梗塞領域を表す第3の情報を導出しているがこれに限定されるものではない。第1の情報に代えてまたは第1の情報に加えて、脳の解剖学的領域を表す情報および梗塞領域候補を表す第2の情報に基づいて、梗塞領域を表す第3の情報を導出してもよい。また、第1の情報に代えてまたは第1の情報に加えて、臨床情報および梗塞領域候補を表す第2の情報に基づいて、梗塞領域を表す第3の情報を導出してもよい。また、第1の情報に代えて、脳の解剖学的領域を表す情報、臨床情報および梗塞領域候補を表す第2の情報に基づいて、梗塞領域を表す第3の情報を導出してもよい。
 また、上記各実施形態においては、U-Netを用いて第3判別モデルを構築しているが、これに限定されるものではない。U-Net以外の畳み込みニューラルネットワークを用いて第3判別モデルを構築してもよい。
 また、上記実施形態に置いては、第3判別モデルにCT画像G0を入力して第3の情報を導出しているが、これに限定されるものではない。CT画像G0を用いることなく第3の情報を導出するように第3判別モデルを構築してもよい。この場合、第3判別モデルは、学習用データの入力データとしてCT画像を用いることなく学習がなされることにより構築される。
 また、上記各実施形態においては、情報導出部22,82,83の第1判別モデル22A,82A,83Aにおいて、CNNを用いてCT画像G0から第1の情報(すなわち梗塞領域または主幹動脈閉塞箇所)を導出しているが、これに限定されるものではない。情報導出部において、第1判別モデルを用いることなく、医師がCT画像G0を読影して梗塞領域または主幹動脈閉塞箇所を特定することにより生成したマスク画像を第1の情報として取得して第3の情報を導出するようにしてもよい。
 また、上記各実施形態においては、情報導出部22,82,83の第2判別モデル22B,82B,83Bにおいて、CNNを用いてCT画像G0から第2の情報(すなわち梗塞領域候補または主幹動脈閉塞箇所候補)を導出しているが、これに限定されるものではない。情報導出部において、第2判別モデルを用いることなく、医師がCT画像G0を読影して梗塞領域候補または主幹動脈閉塞箇所候補を特定することにより生成したマスク画像を第2の情報として取得して第3の情報を導出するようにしてもよい。
 また、上記各実施形態においては、情報導出部22,82,83が梗塞領域および主幹動脈閉塞箇所を導出しているが、これに限定されるものではない。梗塞領域および主幹動脈閉塞箇所を囲むバウンディングボックスを導出するようにしてもよい。
 また、上記実施形態において、例えば、情報処理装置1における情報取得部21、情報導出部22、学習部23、定量値導出部24および表示制御部25といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1   情報処理装置
   2   3次元画像撮影装置
   3   画像保管サーバ
   4   ネットワーク
   11  CPU
   12A  情報処理プログラム
   12B  学習プログラム
   13  ストレージ
   14  ディスプレイ
   15  入力デバイス
   16  メモリ
   17  ネットワークI/F
   18  バス
   21  情報取得部
   22,82,83  情報導出部
   22A,82A,83A  第1判別モデル
   22B,82B,83B  第2判別モデル
   22C,82C,83C  第3判別モデル
   23  学習部
   24  定量値導出部
   25  表示制御部
   31  第1層
   32  第2層
   33  第3層
   34  第4層
   35  第5層
   36  第6層
   37  第7層
   38  第8層
   39  第9層
   40,90,100  学習用データ
   41,91,101  入力データ
   42,92,102  正解データ
   43,93,103  非造影CT画像
   44,45,94,95,104,105  マスク画像
   51  前大脳動脈
   52  中大脳動脈
   53  後大脳動脈
   61L,61R  前大脳動脈支配領域
   62L,62R  中大脳動脈支配領域
   63L,63R  後大脳動脈支配領域
   70  表示領域
   71  マスク
   72  マーク
   73  定量値
   106  追加情報
   A0  追加情報
   C0  正中線
   G0  CT画像
   H0,K0,M0,M1,M2,M3  マスク画像

Claims (13)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得し、
     前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、
     前記第1の情報、前記脳の解剖学的領域を表す情報および前記臨床情報のうちの少なくとも1つと、前記第2の情報とに基づいて、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する情報処理装置。
  2.  前記プロセッサは、さらに前記非造影CT画像を取得し、
     さらに前記非造影CT画像に基づいて前記第3の情報を導出する請求項1に記載の情報処理装置。
  3.  前記プロセッサは、前記第1の情報、前記脳の解剖学的領域を表す情報および前記臨床情報のうちの少なくとも1つと、前記非造影CT画像と、前記第2の情報とが入力されると前記第3の情報を出力するように学習がなされた判別モデルを用いて前記第3の情報を導出する請求項2に記載の情報処理装置。
  4.  前記プロセッサは、さらに前記第1の情報、前記非造影CT画像、並びに前記第2の情報のうちの少なくとも前記非造影CT画像における、脳の正中線に関して対称な領域の情報をさらに用いて前記第3の情報を導出する請求項2または3に記載の情報処理装置。
  5.  前記対称な領域の情報は、前記第1の情報、前記非造影CT画像、並びに前記第2の情報のうちの少なくとも前記非造影CT画像を脳の正中線を基準として反転させた反転情報である請求項4に記載の情報処理装置。
  6.  前記プロセッサは、前記非造影CT画像から前記梗塞領域および前記主幹動脈閉塞箇所のいずれか一方を抽出することにより前記第1の情報を取得し、前記非造影CT画像から前記梗塞領域および前記主幹動脈閉塞箇所の他方の候補を抽出することにより前記第2の情報を取得する請求項1から5のいずれか1項に記載の情報処理装置。
  7.  前記プロセッサは、前記第1の情報、前記第2の情報および前記第3の情報の少なくとも一方についての定量的な情報を導出し、
     前記定量的な情報を表示する請求項1から6のいずれか1項に記載の情報処理装置。
  8.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     i)脳梗塞を発症している患者の頭部の非造影CT画像、ii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報と、脳の解剖学的領域を表す情報と、臨床情報とのうちの少なくとも1つ、並びにiii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報からなる入力データと、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報からなる正解データとを含む学習用データを取得し、
     前記学習用データを用いてニューラルネットワークを機械学習することにより、前記第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つ、前記非造影CT画像、並びに前記第2の情報が入力されると前記第3の情報を出力する判別モデルを構築する学習装置。
  9.  i)患者の頭部の非造影CT画像と、ii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つと、iii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報とが入力されると、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を出力する判別モデル。
  10.  患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得し、
     前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得し、
     前記第1の情報、前記脳の解剖学的領域を表す情報および前記臨床情報のうちの少なくとも1つと、前記第2の情報とに基づいて、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する情報処理方法。
  11.  i)脳梗塞を発症している患者の頭部の非造影CT画像、ii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報と、脳の解剖学的領域を表す情報と、臨床情報とのうちの少なくとも1つ、並びにiii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報からなる入力データと、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報からなる正解データとを含む学習用データを取得し、
     前記学習用データを用いてニューラルネットワークを機械学習することにより、前記第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つ、前記非造影CT画像、並びに前記第2の情報が入力されると前記第3の情報を出力する判別モデルを構築する学習方法。
  12.  患者の頭部の非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報、脳の解剖学的領域を表す情報並びに臨床情報のうちの少なくとも1つを取得する手順と、
     前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報を取得する手順と、
     前記第1の情報、前記脳の解剖学的領域を表す情報および前記臨床情報のうちの少なくとも1つと、前記第2の情報とに基づいて、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報を導出する手順とをコンピュータに実行させる情報処理プログラム。
  13.  i)脳梗塞を発症している患者の頭部の非造影CT画像、ii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方を表す第1の情報と、脳の解剖学的領域を表す情報と、臨床情報とのうちの少なくとも1つ、並びにiii)前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方の候補を表す第2の情報からなる入力データと、前記非造影CT画像における梗塞領域および主幹動脈閉塞箇所のいずれか一方のうちの他方を表す第3の情報からなる正解データとを含む学習用データを取得する手順と、
     前記学習用データを用いてニューラルネットワークを機械学習することにより、前記第1の情報、脳の解剖学的領域を表す情報および臨床情報のうちの少なくとも1つ、前記非造影CT画像、並びに前記第2の情報が入力されると前記第3の情報を出力する判別モデルを構築する手順とをコンピュータに実行させる学習プログラム。
PCT/JP2022/041924 2022-03-07 2022-11-10 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル WO2023171040A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022034781 2022-03-07
JP2022-034781 2022-03-07

Publications (1)

Publication Number Publication Date
WO2023171040A1 true WO2023171040A1 (ja) 2023-09-14

Family

ID=87936479

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041924 WO2023171040A1 (ja) 2022-03-07 2022-11-10 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル

Country Status (1)

Country Link
WO (1) WO2023171040A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020054580A (ja) * 2018-10-01 2020-04-09 富士フイルム株式会社 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
KR102189626B1 (ko) * 2020-10-06 2020-12-11 주식회사 휴런 학습한 인공지능 모델을 기초로 기계적 혈전 절제술이 필요한 환자인지 여부를 판단하는 뇌졸중 진단 장치
WO2020262683A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP2021174394A (ja) * 2020-04-28 2021-11-01 ゼネラル・エレクトリック・カンパニイ 推論装置、医用システム、およびプログラム
JP2021183113A (ja) * 2020-05-21 2021-12-02 ヒューロン カンパニー,リミテッド 人工知能基盤の脳卒中診断装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020054580A (ja) * 2018-10-01 2020-04-09 富士フイルム株式会社 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
WO2020262683A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP2021174394A (ja) * 2020-04-28 2021-11-01 ゼネラル・エレクトリック・カンパニイ 推論装置、医用システム、およびプログラム
JP2021183113A (ja) * 2020-05-21 2021-12-02 ヒューロン カンパニー,リミテッド 人工知能基盤の脳卒中診断装置及び方法
KR102189626B1 (ko) * 2020-10-06 2020-12-11 주식회사 휴런 학습한 인공지능 모델을 기초로 기계적 혈전 절제술이 필요한 환자인지 여부를 판단하는 뇌졸중 진단 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QIU WU, KUANG HULIN, TELEG ERICKA, OSPEL JOHANNA M., SOHN SUNG IL, ALMEKHLAFI MOHAMMED, GOYAL MAYANK, HILL MICHAEL D., DEMCHUK AND: "Machine Learning for Detecting Early Infarction in Acute Stroke with Non–Contrast-enhanced CT", RADIOLOGY, RADIOLOGICAL SOCIETY OF NORTH AMERICA, INC., US, vol. 294, no. 3, 1 March 2020 (2020-03-01), US , pages 638 - 644, XP093090250, ISSN: 0033-8419, DOI: 10.1148/radiol.2020191193 *

Similar Documents

Publication Publication Date Title
JP7129869B2 (ja) 疾患領域抽出装置、方法及びプログラム
US11244455B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
JP6771109B2 (ja) 医用情報表示装置、方法及びプログラム
CN115312198B (zh) 结合注意力机制和多尺度特征挖掘的深度学习脑肿瘤预后分析建模方法及系统
JP6981940B2 (ja) 画像診断支援装置、方法及びプログラム
CN115439533A (zh) 获得颅内动脉瘤在血管分段位置的方法、计算机设备、可读存储介质和程序产品
CN112562860A (zh) 分类模型的训练方法及装置、冠心病辅助筛查方法及装置
JPWO2020158717A1 (ja) 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
KR102103281B1 (ko) 뇌혈관 질환의 진단을 위한 ai 기반의 보조 진단 시스템
US11295442B2 (en) Medical information display apparatus displaying cavity region in brain image, medical information display method, and medical information display program
WO2019044081A1 (ja) 医用画像表示装置、方法及びプログラム
WO2023171040A1 (ja) 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
Irfan et al. StrokeNet: An automated approach for segmentation and rupture risk prediction of intracranial aneurysm
WO2023171039A1 (ja) 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
JP2023130231A (ja) 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
JP2019213785A (ja) 医用画像処理装置、方法およびプログラム
KR102349360B1 (ko) 영상 진단기기를 이용한 특발성 정상압 수두증의 진단 방법 및 시스템
US11176413B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
Demiray et al. Weakly-supervised white and grey matter segmentation in 3d brain ultrasound
JP2021175454A (ja) 医用画像処理装置、方法およびプログラム
CN111754452A (zh) 基于深度学习的下肢深静脉血栓的检测方法、介质及终端
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
US20240136062A1 (en) Stroke diagnosis and therapy assistance system, stroke state information providing device, and stroke state information providing program
US20240233939A9 (en) Stroke diagnosis and therapy assistance system, stroke state information providing device, and stroke state information providing program
WO2022270152A1 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22931012

Country of ref document: EP

Kind code of ref document: A1