WO2023132332A1 - コンピュータプログラム、画像処理方法及び画像処理装置 - Google Patents

コンピュータプログラム、画像処理方法及び画像処理装置 Download PDF

Info

Publication number
WO2023132332A1
WO2023132332A1 PCT/JP2023/000016 JP2023000016W WO2023132332A1 WO 2023132332 A1 WO2023132332 A1 WO 2023132332A1 JP 2023000016 W JP2023000016 W JP 2023000016W WO 2023132332 A1 WO2023132332 A1 WO 2023132332A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
tomographic image
optical coherence
ultrasonic
ofdi
Prior art date
Application number
PCT/JP2023/000016
Other languages
English (en)
French (fr)
Inventor
陽 井口
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to JP2023572474A priority Critical patent/JPWO2023132332A1/ja
Publication of WO2023132332A1 publication Critical patent/WO2023132332A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters

Definitions

  • the present invention relates to a computer program, an image processing method, and an image processing apparatus.
  • Endovascular treatment represented by percutaneous coronary intervention (PCI) is performed as a minimally invasive treatment for ischemic heart disease such as angina pectoris or myocardial infarction.
  • PCI percutaneous coronary intervention
  • IFDI optical coherence tomographic imaging equipment using near infrared rays
  • other intravascular imaging diagnostic devices are used.
  • an imaging diagnostic apparatus that combines the function of IVUS and the function of OFDI, that is, an imaging diagnostic apparatus that includes an ultrasonic transmission/reception unit capable of transmitting/receiving ultrasonic waves and an optical transmission/reception unit capable of transmitting/receiving light has been proposed.
  • an imaging diagnostic apparatus that includes an ultrasonic transmission/reception unit capable of transmitting/receiving ultrasonic waves and an optical transmission/reception unit capable of transmitting/receiving light has been proposed.
  • Patent Documents 1 and 2 According to such an image diagnostic apparatus, both an ultrasonic tomographic image that utilizes the characteristics of IVUS that can measure up to a high depth area and an optical coherence tomographic image that utilizes the characteristics of OFDI that can be measured with high resolution can be obtained at one time. Can be constructed by scanning.
  • a computer program capable of correcting defects in an ultrasonic tomographic image and an optical coherence tomographic image obtained using a dual type catheter having IVUS function and OFDI function, an image processing method and An object of the present invention is to provide an image processing apparatus.
  • a computer program uses a sensor unit having an ultrasonic transmission/reception unit that transmits/receives ultrasonic waves and an optical transmission/reception unit that transmits/receives light to transmit and receive an ultrasonic tomographic image of a hollow organ and light.
  • An image processing method is an ultrasonic tomographic image and an optical coherence tomographic image of a hollow organ using a sensor unit having an ultrasonic transmission/reception unit that transmits and receives ultrasonic waves and an optical transmission/reception unit that transmits and receives light.
  • the image defect of the acquired ultrasonic tomographic image or the optical coherence tomographic image is determined, and when the optical coherence tomographic image (or the ultrasonic tomographic image) is input, the corresponding ultrasonic wave
  • a normal optical coherence tomographic image corresponding to the ultrasonic tomographic image (or the optical coherence tomographic image) determined to be defective is added to a learning model trained to output a tomographic image (or an optical coherence tomographic image).
  • the ultrasonic tomographic image By inputting the ultrasonic tomographic image (or the ultrasonic tomographic image), the corresponding normal ultrasonic tomographic image (or the optical coherence tomographic image) is output, and the ultrasonic tomographic image output from the learning model (or the The ultrasonic tomographic image (or the optical coherence tomographic image) determined to be defective is corrected using the optical coherence tomographic image).
  • An image processing apparatus uses a sensor unit having an ultrasonic transmission/reception unit that transmits/receives ultrasonic waves and an optical transmission/reception unit that transmits/receives light to obtain an ultrasonic tomographic image and an optical coherence tomographic image of a hollow organ.
  • an acquisition unit that acquires simultaneously, a determination unit that determines an image defect of the ultrasonic tomographic image or the optical coherence tomographic image acquired by the acquisition unit, and the optical coherence tomographic image (or the ultrasonic tomographic image ) is input, a learning model that has been trained to output a corresponding ultrasonic tomographic image (or optical coherence tomographic image), and the learning model includes the ultrasonic tomographic image (or By inputting the normal optical coherence tomographic image (or the ultrasonic tomographic image) corresponding to the optical coherence tomographic image), the corresponding normal ultrasonic tomographic image (or the optical coherence tomographic image) is output. , a processing unit that corrects the ultrasonic tomographic image (or the optical coherence tomographic image) determined to be defective using the ultrasonic tomographic image (or the optical coherence tomographic image) output from the learning model; Prepare.
  • FIG. 1 is an explanatory diagram showing a configuration example of an image diagnostic apparatus
  • FIG. FIG. 2 is an explanatory diagram showing a configuration example of a diagnostic imaging catheter
  • FIG. 4 is an explanatory diagram schematically showing a cross section of a blood vessel through which a sensor section is inserted
  • FIG. 4 is an explanatory diagram of a tomographic image
  • FIG. 4 is an explanatory diagram of a tomographic image
  • 1 is a block diagram showing a configuration example of an image processing apparatus
  • FIG. FIG. 4 is a block diagram showing a configuration example of an IVUS failure detection learning model
  • FIG. 4 is a block diagram showing a configuration example of an OFDI failure detection learning model
  • FIG. 4 is a block diagram showing a configuration example of an IVUS image recognition learning model
  • FIG. 4 is a block diagram showing a configuration example of an OFDI image recognition learning model
  • It is a block diagram which shows the structural example of a 1st generator.
  • FIG. 4 is a conceptual diagram showing a generation method of a first generator
  • FIG. 11 is a block diagram showing a configuration example of a second generator
  • FIG. 4 is a flowchart showing an image processing procedure according to the embodiment
  • 4 is a flowchart showing an image processing procedure according to the embodiment
  • FIG. 4 is a conceptual diagram showing a method of correcting an IVUS image and an OFDI image
  • FIG. 4 is an explanatory diagram conceptually showing a method of associating an IVUS image and an OFDI image
  • FIG. 11 is a first screen display example of an IVUS image and an OFDI image
  • FIG. 11 is a second screen display example of an IVUS image and an OFDI image
  • FIG. 11 is a first screen display example of an IVUS image and an OFDI image
  • FIG. 11 is a second screen display example of an IVUS image and an OFDI image
  • an image diagnostic apparatus using a dual-type catheter having both intravascular ultrasound (IVUS) and optical coherence tomography (OFDI) functions will be described.
  • Dual-type catheters are provided with a mode for acquiring ultrasound tomographic images only by IVUS, a mode for acquiring optical coherence tomographic images only by OFDI, and a mode for acquiring both tomographic images by IVUS and OFDI. , you can switch between these modes.
  • an ultrasound tomographic image and an optical coherence tomographic image are referred to as an IVUS image and an OFDI image, respectively.
  • An IVUS image and an OFDI image are collectively referred to as a tomographic image.
  • FIG. 1 is an explanatory diagram showing a configuration example of the diagnostic imaging apparatus 100.
  • the diagnostic imaging apparatus 100 of this embodiment includes an intravascular examination apparatus 101 , an angiography apparatus 102 , an image processing apparatus 3 , a display apparatus 4 and an input apparatus 5 .
  • An intravascular examination apparatus 101 includes a diagnostic imaging catheter 1 and an MDU (Motor Drive Unit) 2 .
  • the diagnostic imaging catheter 1 is connected to the image processing device 3 via the MDU 2 .
  • a display device 4 and an input device 5 are connected to the image processing device 3 .
  • the display device 4 is, for example, a liquid crystal display or an organic EL display
  • the input device 5 is, for example, a keyboard, mouse, trackball, microphone, or the like.
  • the display device 4 and the input device 5 may be laminated integrally to form a touch panel. Also, the input device 5 and the image processing device 3 may be configured integrally. Furthermore, the input device 5 may be a sensor that accepts gesture input, line-of-sight input, or the like.
  • the angiography device 102 is connected to the image processing device 3.
  • the angiography apparatus 102 is an angiography apparatus for capturing an image of a blood vessel using X-rays from outside the patient's body while injecting a contrast agent into the patient's blood vessel to obtain an angiography image, which is a fluoroscopic image of the blood vessel.
  • the angiography apparatus 102 includes an X-ray source and an X-ray sensor, and the X-ray sensor receives X-rays emitted from the X-ray source to image a patient's X-ray fluoroscopic image.
  • the angiography device 102 outputs an angio image obtained by imaging to the image processing device 3 and displayed on the display device 4 via the image processing device 3 .
  • FIG. 2 is an explanatory diagram showing a configuration example of the catheter 1 for diagnostic imaging.
  • the area surrounded by the dashed line on the upper side in FIG. 2 is an enlarged area surrounded by the dashed line on the bottom side.
  • the diagnostic imaging catheter 1 has a probe 11 and a connector section 15 arranged at the end of the probe 11 .
  • the probe 11 is connected to the MDU 2 via the connector section 15 .
  • the side of the diagnostic imaging catheter 1 farther from the connector portion 15 is referred to as the distal end side, and the connector portion 15 side is referred to as the proximal end side.
  • the probe 11 has a catheter sheath 11a, and a guide wire insertion portion 14 through which a guide wire can be inserted is provided at the distal end thereof.
  • the guidewire insertion part 14 constitutes a guidewire lumen, receives a guidewire previously inserted into the blood vessel, and is used to guide the probe 11 to the affected part by the guidewire.
  • the catheter sheath 11a forms a continuous tubular portion from the guide wire insertion portion 14 to the connector portion 15. As shown in FIG. A shaft 13 is inserted through the catheter sheath 11 a , and a sensor section 12 is connected to the distal end of the shaft 13 .
  • the sensor section 12 has a housing 12c, and the distal end side of the housing 12c is formed in a hemispherical shape to suppress friction and catching with the inner surface of the catheter sheath 11a.
  • an ultrasonic transmission/reception unit 12a for transmitting ultrasonic waves into the blood vessel and receiving reflected waves from the blood vessel
  • an ultrasonic wave transmitting/receiving unit 12a for transmitting near-infrared light into the blood vessel and receiving the reflected light from the blood vessel are provided.
  • An optical transmitter/receiver 12b is arranged. In the example shown in FIG.
  • an ultrasonic transmission/reception section 12a is provided on the distal side of the probe 11, and an optical transmission/reception section 12b is provided on the proximal side. That is, the ultrasonic wave transmitting/receiving section 12a and the optical transmitting/receiving section 12b are arranged in the housing 12c with a predetermined length along the axial direction on the center axis of the shaft 13 (on the two-dot chain line in FIG. 2). .
  • the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are arranged so that the transmission/reception directions of ultrasonic waves and near-infrared light are in a direction (radial direction of the shaft 13) at approximately 90 degrees with respect to the axial direction of the shaft 13. It is preferable that the ultrasonic wave transmitting/receiving section 12a and the optical transmitting/receiving section 12b are installed with a slight displacement from the radial direction so as not to receive reflected waves and reflected light from the inner surface of the catheter sheath 11a. In the present embodiment, for example, as indicated by arrows in FIG.
  • the ultrasonic transmission/reception unit 12a emits ultrasonic waves in a direction inclined toward the base end with respect to the radial direction
  • the optical transmission/reception unit 12b is arranged in the radial direction. It is provided in a posture in which the direction inclined toward the tip side is the irradiation direction of the near-infrared light.
  • An electrical signal cable (not shown) connected to the ultrasonic transmission/reception section 12a and an optical fiber cable (not shown) connected to the optical transmission/reception section 12b are inserted into the shaft 13.
  • the probe 11 is inserted into the blood vessel from the tip side.
  • the sensor part 12 and the shaft 13 can move forward and backward inside the catheter sheath 11a, and can rotate in the circumferential direction.
  • the sensor unit 12 and the shaft 13 rotate around the central axis of the shaft 13 as a rotation axis.
  • the MDU 2 is detachably attached to the connector portion 15 of the diagnostic imaging catheter 1, and drives a built-in motor according to the operation of a user (medical worker) to operate the diagnostic imaging catheter 1 inserted into the blood vessel. It is the driving device to control.
  • the MDU 2 performs a pullback operation in which the sensor unit 12 and the shaft 13 inserted into the probe 11 are pulled toward the MDU 2 side at a constant speed and rotated in the circumferential direction.
  • the sensor unit 12 continuously scans the inside of the blood vessel at predetermined time intervals while rotating while moving from the distal end side to the proximal end side by a pullback operation, thereby obtaining a plurality of transverse layer images substantially perpendicular to the probe 11 . are taken continuously at predetermined intervals.
  • the MDU 2 outputs to the image processing device 3 the reflected ultrasonic wave signal received by the ultrasonic transmission/reception section 12a and the reflected light signal received by the optical transmission/reception section 12b.
  • the image processing device 3 acquires reflected wave signals of ultrasonic waves output from the ultrasonic transmission/reception unit 12a via the MDU 2 as reflected wave data, and generates ultrasonic line data based on the acquired reflected wave data.
  • the ultrasonic line data is data indicating the reflection intensity of ultrasonic waves in the depth direction of the blood vessel viewed from the ultrasonic transmission/reception unit 12a.
  • the image processing device 3 constructs an IVUS image P1 (see FIGS. 4A and 4B) representing the cross-sectional layers of the blood vessel based on the generated ultrasound line data.
  • the image processing device 3 acquires interference light data by causing the reflected light signal output from the light transmitting/receiving unit 12b via the MDU 2 to interfere with the reference light obtained by separating the light from the light source. and generate light line data based on the acquired interference light data.
  • the light line data is data indicating the reflection intensity of the reflected light in the depth direction of the blood vessel viewed from the light transmitting/receiving unit 12b.
  • the image processing device 3 constructs an OFDI image P2 (see FIGS. 4A and 4B) representing the transverse layers of the blood vessel based on the generated light line data.
  • the ultrasound line data and the optical line data obtained by the ultrasound transmission/reception unit 12a and the optical transmission/reception unit 12b, and the IVUS image P1 and the OFDI image P2 constructed from the ultrasound line data and the optical line data will be described.
  • FIG. 3 is an explanatory diagram schematically showing a cross section of a blood vessel through which the sensor section 12 is passed
  • FIGS. 4A and 4B are explanatory diagrams of tomographic images.
  • the sensor unit 12 When imaging of a tomographic image is started with the sensor unit 12 and the shaft 13 inserted into the blood vessel, the sensor unit 12 rotates about the central axis of the shaft 13 in the direction indicated by the arrow. At this time, the ultrasonic transmission/reception unit 12a transmits and receives ultrasonic waves at each rotation angle. Lines 1, 2, . . . 512 indicate the transmission and reception directions of ultrasonic waves at each rotation angle. In this embodiment, the ultrasonic transmission/reception unit 12a intermittently transmits and receives ultrasonic waves 512 times while rotating 360 degrees (one rotation) in the blood vessel.
  • the ultrasonic wave transmitting/receiving unit 12a obtains data of one line in the transmitting/receiving direction by transmitting/receiving the ultrasonic wave once, and thus obtains 512 ultrasonic wave line data radially extending from the center of rotation during one rotation. be able to.
  • the 512 ultrasonic line data are dense near the center of rotation, but become sparse with distance from the center of rotation. Therefore, the image processing device 3 can construct a two-dimensional IVUS image P1 as shown in FIG. 4A by generating pixels in the empty space of each line by a well-known interpolation process.
  • the optical transmitter/receiver 12b also transmits and receives near-infrared light (measurement light) at each rotation angle. Since the optical transmitter/receiver 12b also transmits and receives the measurement light 512 times while rotating 360 degrees in the blood vessel, it is possible to obtain 512 optical line data radially extending from the center of rotation during one rotation. can be done.
  • the image processing device 3 can construct the two-dimensional OFDI image P2 shown in FIG. 4A by generating pixels in the empty space of each line by a well-known interpolation process.
  • a two-dimensional tomographic image constructed from multiple ultrasound line data in this way is called an IVUS image P1 of one frame.
  • a two-dimensional tomographic image constructed from a plurality of optical line data is called an OFDI image P2 of one frame. Since the sensor unit 12 scans while moving inside the blood vessel, one frame of the IVUS image P1 or the OFDI image P2 is acquired at each position after one rotation within the movement range. That is, one frame of the IVUS image P1 or the OFDI image P2 is acquired at each position from the distal side to the proximal side of the probe 11 within the movement range. An image P1 or an OFDI image P2 is acquired.
  • the number of transmissions and receptions of ultrasonic waves and light in one rotation is an example, and the number of transmissions and receptions is not limited to 512 times. Further, the number of times of transmission/reception of ultrasonic waves and the number of times of transmission/reception of light may be the same or different.
  • FIG. 5 is a block diagram showing a configuration example of the image processing device 3.
  • the image processing apparatus 3 is a computer and includes a processing section 31 , a storage section 32 , an ultrasound line data generation section 33 , an optical line data generation section 34 , an input/output I/F 35 and a reading section 36 .
  • the processing unit 31 includes one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), GPGPU (General-purpose computing on graphics processing units), TPU (Tensor Processing Unit), etc. is configured using an arithmetic processing unit.
  • the processing unit 31 is connected to each hardware unit constituting the image processing apparatus 3 via a bus.
  • the storage unit 32 has, for example, a main storage unit and an auxiliary storage unit.
  • the main storage unit is a temporary storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, etc., and temporarily stores data necessary for the processing unit 31 to perform arithmetic processing. do.
  • the auxiliary storage unit is a storage device such as a hard disk, EEPROM (Electrically Erasable Programmable ROM), flash memory, or the like.
  • the auxiliary storage unit stores a computer program P executed by the processing unit 31, an IVUS defect detection learning model 61, an OFDI defect detection learning model 62, an IVUS image recognition learning model 71, an OFDI image recognition learning model 72, a first generator (first learning model) 81, a second generator (second learning model) 82, and various data necessary for other processing are stored.
  • the auxiliary storage unit may be an external storage device connected to the image processing device 3 .
  • the computer program P may be written in the auxiliary storage unit at the manufacturing stage of the image processing apparatus 3, or may be distributed by a remote server apparatus and acquired by the image processing apparatus 3 through communication and stored in the auxiliary storage unit.
  • the computer program P may be readable and recorded on the recording medium 30 such as a magnetic disk, an optical disk, or a semiconductor memory, or may be read from the recording medium 30 by the reading unit 36 and stored in the auxiliary storage unit. .
  • the ultrasonic line data generation unit 33 acquires reflected wave signals of ultrasonic waves output from the ultrasonic transmission/reception unit 12a of the intravascular examination apparatus 101 as reflected wave data, and generates ultrasonic line data based on the acquired reflected wave data. to generate
  • the optical line data generation unit 34 generates interference light data by causing the reflected light signal output from the light transmission/reception unit 12b of the intravascular examination apparatus 101 to interfere with the reference light obtained by separating the light from the light source. is obtained, and light line data is generated based on the obtained interference light data.
  • the input/output I/F 35 is an interface to which the intravascular examination device 101, the angiography device 102, the display device 4 and the input device 5 are connected.
  • the processing unit 31 acquires the angiographic image from the angiography apparatus 102 via the input/output I/F 35 .
  • the processing unit 31 outputs the medical image signal of the IVUS image P1, the OFDI image P2, or the angio image to the display device 4 via the input/output I/F 35, thereby displaying the medical image on the display device 4.
  • the processing unit 31 receives information input to the input device 5 via the input/output I/F 35 .
  • the image processing device 3 may be a multicomputer including a plurality of computers. Further, the image processing device 3 may be a server client system, a cloud server, or a virtual machine virtually constructed by software. In the following description, it is assumed that the image processing apparatus 3 is one computer.
  • the processing unit 31 of the image processing apparatus 3 reads and executes the computer program P stored in the storage unit 32 to generate ultrasound line data in the ultrasound line data generation unit 33, and generates ultrasound line data. A process is performed to construct an IVUS image P1 based on the data. Further, the processing unit 31 reads out and executes the computer program P stored in the storage unit 32 to generate optical line data in the optical line data generation unit 34, and generates an OFDI image based on the generated optical line data. Execute the process of building P2.
  • the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are arranged in different positions in the sensor unit 12, and the transmission/reception directions of ultrasonic waves and light are also different.
  • Observation position deviations are deviations in the longitudinal direction and running direction of the blood vessel.
  • the deviation in the observation direction is the deviation in the circumferential direction of the blood vessel. Therefore, the processing unit 31 reads out and executes the computer program P stored in the storage unit 32, so that when constructing the IVUS image P1 and the OFDI image P2, the observation position and the observation direction in the IVUS image P1 and the OFDI image P2 are determined. , and performs processing to correct the deviation.
  • the processing unit 31 uses the IVUS image recognition learning model 71 and the OFDI image recognition learning model 72 to recognize lumen images in the IVUS image P1 and the OFDI image P2. Then, the processing unit 31 specifies, for example, the amount of translation and the amount of rotation for matching the three-dimensional lumen image based on the IVUS image P1 and the three-dimensional lumen image based on the OFDI image P2, and the specified translation amount and the amount of rotation, the IVUS image P1 and the OFDI image P2 are associated so that the observation position and the observation direction match.
  • the processing unit 31 reads and executes the computer program P stored in the storage unit 32 to detect defects in the IVUS image P1 and the OFDI image P2. Specifically, the processing unit 31 uses the IVUS defect detection learning model 61 and the OFDI defect detection learning model 62 to detect defects in the IVUS image P1 and the OFDI image P2.
  • the processing unit 31 reads out and executes the computer program P stored in the storage unit 32, thereby correcting the frame image of the IVUS image P1 with a defective image using the corresponding normal OFDI image P2.
  • the processing unit 31 uses the first generator 81 to generate a corresponding normal IVUS image P1 from the normal OFDI image P2, and converts the image-defective IVUS image P1 to the generated IVUS image P1.
  • the processing unit 31 uses the second generator 82 to read out and execute the computer program P stored in the storage unit 32, so that the frame image of the defective OFDI image P2 is replaced with the corresponding normal image.
  • a correction process is executed using the IVUS image P1.
  • the processing unit 31 generates a corresponding normal OFDI image P2 from the normal IVUS image P1, and performs a process of replacing the defective OFDI image P2 with the generated OFDI image P2.
  • image defects in the IVUS image P1 or OFDI image P2 due to improper priming or flash can be corrected.
  • FIG. 6A is a block diagram showing a configuration example of the IVUS failure detection learning model 61
  • FIG. 6B is a block diagram showing a configuration example of the OFDI failure detection learning model 62.
  • FIG. 6A shows a configuration example of the IVUS failure detection learning model 61.
  • the IVUS failure detection learning model 61 is a trained model for detecting failure of the IVUS image P1 due to priming failure.
  • the IVUS defect detection learning model 61 includes, for example, an input layer 61a that receives an input of the IVUS image P1, an intermediate layer 61b that extracts the feature amount of the image, and an output layer 61c that outputs the presence or absence of an image defect in the IVUS image P1.
  • It is a neural network with
  • the IVUS failure detection learning model 61 of this embodiment is a CNN (Convolution Neural Network) such as ResNet and DenseNet.
  • CNN Convolution Neural Network
  • the image processing device 3 generates an IVUS defect detection learning model 61 by performing deep learning on the CNN model to learn the relationship between the IVUS image P1 and the presence or absence of an image defect. More specifically, an association between a normal IVUS image P1 and training data indicating that it is normal, and an association between a defective IVUS image P1 and training data indicating that the image is defective. Prepare training data containing Then, the image processing device 3 optimizes the parameters of the neural network so that the difference between the data output when the IVUS image P1 of the training data is input to the unlearned neural network and the teacher data is small. do.
  • the parameters are, for example, weights (coupling coefficients) between nodes.
  • the parameter optimization method is not particularly limited, for example, the processing unit 31 optimizes various parameters using the steepest descent method or the like.
  • the input layer 61a of the neural network has a plurality of nodes that receive input of pixel values of pixels related to the IVUS image P1, and transfers the input pixel values to the intermediate layer 61b.
  • the intermediate layer 61b has a plurality of layers, each layer has a plurality of nodes for extracting image feature amounts, and passes the extracted feature amounts to the output layer 61c.
  • the IVUS defect detection learning model 61 is a CNN
  • the intermediate layer 61b includes a convolution layer that convolves the pixel values of each pixel input from the input layer 61a, and a pooling that maps the pixel values convolved in the convolution layer.
  • the output layer 61c has nodes for outputting data indicating the presence or absence of image defects or the degree of certainty.
  • the IVUS failure detection learning model 61 is assumed to be a CNN such as DenseNet, but the configuration of the model is not limited to CNN.
  • the IVUS failure detection learning model 61 may be, for example, a neural network other than CNN, an SVM (Support Vector Machine), a Bayesian network, or a learning model such as a decision tree such as XGBoost.
  • the output layer 61c may include a plurality of nodes for outputting data indicating types of image defects.
  • FIG. 6B shows a configuration example of the OFDI failure detection learning model 62 .
  • the OFDI defect detection learning model 62 is a trained model for detecting defects in the OFDI image P2 due to flash defects.
  • the OFDI defect detection learning model 62 includes, for example, an input layer 62a that receives an input of the OFDI image P2, an intermediate layer 62b that extracts the feature amount of the image, and an output layer 62c that outputs the presence or absence of image defects in the OFDI image P2. It is a neural network with
  • the image processing device 3 generates an OFDI defect detection learning model 62 by performing deep learning for learning the relationship between the OFDI image P2 and the presence or absence of an image defect with respect to the CNN model. Since the details of the configuration of the OFDI failure detection learning model 62 and the generation method thereof are the same as those of the IVUS failure detection learning model 61, the details are omitted.
  • FIG. 7A is a block diagram showing a configuration example of the IVUS image recognition learning model 71
  • FIG. 7B is a block diagram showing configuration examples of the IVUS image recognition learning model 71 and the OFDI image recognition learning model 72.
  • FIG. 7A is a block diagram showing a configuration example of the IVUS image recognition learning model 71.
  • the IVUS image recognition learning model 71 is a model for recognizing a predetermined object included in the IVUS image P1.
  • the IVUS image recognition learning model 71 for example, by using an image recognition technology using semantic segmentation (Semantic Segmentation), can classify objects in units of pixels, and recognize various objects included in the IVUS image P1. can do.
  • the IVUS image recognition learning model 71 recognizes the lumen image in the IVUS image P1.
  • the IVUS image recognition learning model 71 may be configured to recognize blood vessel wall images.
  • the vascular wall is the media, more specifically the external elastic membrane (EEM).
  • EEM external elastic membrane
  • the lumen image and blood vessel wall image in the IVUS image P1 are examples of the first object image.
  • the IVUS image recognition learning model 71 is, for example, a convolutional neural network (CNN) that has been trained by deep learning.
  • the IVUS image recognition learning model 71 includes an input layer 71a to which the IVUS image P1 is input, an intermediate layer 71b that extracts and restores the feature amount of the IVUS image P1, and an object that indicates the object image included in the IVUS image P1 in units of pixels. and an output layer 71c for outputting the extracted IVUS image P1'.
  • the IVUS image recognition learning model 71 is, for example, U-Net, FCN (Fully Convolution Network), SegNet, or the like.
  • the input layer 71a of the IVUS image recognition learning model 71 has a plurality of neurons that receive the input of the pixel values of the pixels that form the IVUS image P1, that is, the IVUS image P1, and the intermediate layer 71b receives the input pixel values. hand over.
  • the intermediate layer 71b has a plurality of convolution layers (CONV layers) and a plurality of deconvolution layers (DECONV layers).
  • CONV layers convolution layers
  • DECONV layers deconvolution layers
  • the convolution layer is a layer that dimensionally compresses the IVUS image P1.
  • the feature quantity of the object image is extracted by dimensional compression.
  • the deconvolution layer performs the deconvolution process to restore the original dimensions.
  • the deconvolution process in the deconvolution layer produces an object-extracted IVUS image P1' in which each pixel has a pixel value (class data) corresponding to the class of the object.
  • the output layer 71c has multiple neurons that output an object-extracted IVUS image P1'.
  • the object-extracted IVUS image P1' is, as shown in FIG. 7A, an image that is classified, for example, color-coded, for each type of object such as a lumen image, a blood vessel wall image, and a plaque image.
  • the IVUS image recognition learning model 71 includes an IVUS image P1 obtained by the ultrasound transmitting/receiving unit 12a and an object extraction IVUS in which each pixel of the IVUS image P1 is annotated with class data corresponding to the type of the corresponding object. It can be generated by preparing training data having the image P1′ and performing machine learning on an unlearned neural network using the training data. Specifically, the object extraction IVUS image P1 ′ output when the training data IVUS image P1 is input to an unlearned neural network and the image annotated as training data are reduced.
  • Optimize neural network parameters are, for example, weights (coupling coefficients) between nodes.
  • the parameter optimization method is not particularly limited, for example, the processing unit 31 optimizes various parameters using the steepest descent method or the like.
  • FIG. 7B is a block diagram showing a configuration example of the OFDI image recognition learning model 72.
  • the OFDI image recognition learning model 72 is a model for recognizing a predetermined object included in the OFDI image P2.
  • the OFDI image recognition learning model 72 like the IVUS image recognition learning model 71, uses an image recognition technique that uses semantic segmentation, for example, to classify objects in units of pixels, which are included in the OFDI image P2.
  • Various objects can be recognized.
  • the OFDI image recognition learning model 72 recognizes a lumen image, a blood vessel image, etc. in the OFDI image P2.
  • the lumen image and blood vessel wall image in the OFDI image P2 are examples of the second object image.
  • the OFDI image recognition learning model 72 is, for example, a convolutional neural network that has been trained by deep learning.
  • the OFDI image recognition learning model 72 includes an input layer 72a to which the OFDI image P2 is input, an intermediate layer 72b that extracts and restores the feature amount of the OFDI image P2, and an object that indicates the object image included in the OFDI image P2 in units of pixels. and an output layer 72c for outputting the extracted OFDI image P2'.
  • the OFDI image recognition learning model 72 is, for example, U-Net, FCN (Fully Convolution Network), SegNet, or the like.
  • the input layer 72a of the OFDI image recognition learning model 72 has a plurality of neurons that receive input of the pixel values of the pixels forming the OFDI image P2, that is, the OFDI image P2. hand over.
  • the middle layer 72b has multiple convolution layers and multiple deconvolution layers.
  • the convolution layer is a layer that dimensionally compresses the OFDI image P2.
  • the feature quantity of the object image is extracted by dimensional compression.
  • the deconvolution layer performs the deconvolution process to restore the original dimensions.
  • the deconvolution process in the deconvolution layer produces an object-extracted OFDI image P2' in which each pixel has a pixel value (class data) corresponding to the class of the object.
  • the output layer 72c has a plurality of neurons that output an object-extracted OFDI image P2'.
  • the object-extracted OFDI image P2' is an image classified, for example, color-coded, for each type of object such as a lumen image, a blood vessel wall image, a plaque image, and a stent image.
  • the OFDI image recognition learning model 72 includes an OFDI image P2 obtained by the optical transmitter/receiver 12b and an object extraction OFDI image in which each pixel of the OFDI image P2 is annotated with class data corresponding to the type of the corresponding object.
  • P2′ can be generated by preparing training data having P2′ and performing machine learning on an unlearned neural network using the training data.
  • the object extraction OFDI image P2 ′ output when the training data OFDI image P2 is input to the unlearned neural network, and the annotated training data
  • the parameters of the neural network are optimized so that the difference with the image becomes small.
  • FIG. 8 is a block diagram showing a configuration example of the first generator 81.
  • the first generator 81 is a learning model that generates the IVUS image P1 from the OFDI image P2.
  • the first generator 81 includes an input layer 81a to which the OFDI image P2 is input, an intermediate layer 81b that extracts the feature amount of the OFDI image P2 and restores the IVUS image P1, and an output that outputs the generated IVUS image P1.
  • layer 81c is a GAN such as pix2pix, CycleGAN, or StarGAN, a VAE (Variational Autoencoder), a neural network such as CNN (eg, U-net), or the like.
  • the input layer 81a of the first generator 81 has a plurality of neurons that receive input of the pixel values of the pixels forming the OFDI image P2, that is, the OFDI image P2, and passes the input pixel values to the intermediate layer 81b.
  • the intermediate layer 81b has a plurality of convolution layers (CONV layers) and a plurality of deconvolution layers (DECONV layers).
  • CONV layers convolution layers
  • DECONV layers deconvolution layers
  • the convolution layer is a layer that dimensionally compresses the IVUS image P1.
  • the feature quantity of the object image is extracted by dimensional compression.
  • the deconvolution layer performs the deconvolution process to restore the original dimensions.
  • the restoration process in the deconvolution layer produces an IVUS image P1 in which each pixel has the pixel value of the IVUS image P1.
  • the output layer 81c has multiple neurons that output an IVUS image P1 corresponding to the input OFDI image P2. As shown in FIG. 8, when the OFDI image P2, which is a normal image, is input to the first generator 81, a normal IVUS image P1, which is a generated image, is output.
  • the first generator 81 prepares training data that associates the OFDI image P2, which is a normal image for training, and the IVUS image P1, which is a normal image for training, and uses this training data to generate an unlearned learning model. is generated by learning
  • the OFDI image P2 and the IVUS image P1 for training are desirably images including a lesion where it is determined that endovascular treatment is necessary.
  • the image processing apparatus 3 of this embodiment performs learning using the OFDI image P2 and the IVUS image P1 prepared for training, and generates the first generator 81 that generates the IVUS image P1 from the OFDI image P2.
  • FIG. 9 is a conceptual diagram showing the generation method of the first generator 81.
  • the first generator 81 can be generated, for example, by preparing a discriminator 81d and performing adversarial learning between the first generator 81 and the discriminator 81d. For example, as shown in the upper diagram of FIG. 9, the learning of the discriminator 81d and the learning of the first generator 81 are alternately performed.
  • the image processing device 3 fixes the parameters of the first generator 81 and inputs the training OFDI image P2.
  • the first generator 81 to which the training OFDI image P2 is input, generates and outputs an IVUS image P1.
  • the image processing device 3 converts a pair of an OFDI image P2 (a training OFDI image P2) and an IVUS image P1 (an IVUS image P1 generated by the first generator 81) corresponding to the input/output of the first generator 81 into fake data. , is given to the discriminator 81d. Further, the image processing device 3 gives the pair of the OFDI image P2 and the IVUS image P1 included in the training data to the discriminator 81d as true data.
  • the image processing device 3 optimizes the parameters of the discriminator 81d so that a false value is output when false data is input, and a true value is output when true data is input.
  • the image processing device 3 fixes the parameters of the classifier 81d and learns the first generator 81 as shown in the lower diagram of FIG.
  • the image processing device 3 inputs the training OFDI image P2 to the first generator 81, and inputs the training OFDI image P2 and the IVUS image P1 generated by the first generator 81 to the classifier 81d
  • the parameters of the first generator 81 are optimized so that the probability of truth is close to 50%. In this way, by performing the learning of the first generator 81 and the learning of the discriminator 81d under an adversarial relationship, as shown in FIG.
  • a first generator 81 is generated which is capable of outputting an IVUS image P1 to be used.
  • the parameters to be optimized are, for example, weights (coupling coefficients) between neurons, and error backpropagation or the like can be used to optimize the parameters.
  • the image processing device 3 uses only the first generator 81 when generating the IVUS image P1 using the first generator 81 .
  • the training of the first generator 81 may be performed by another training device.
  • the learned first generator 81 generated by learning in another learning device is downloaded from the learning device to the image processing device 3 via a network or via the recording medium 30, for example, and stored in the storage unit 32. .
  • FIG. 10 is a block diagram showing a configuration example of the second generator 82.
  • the second generator 82 is a learning model that generates the OFDI image P2 from the IVUS image P1.
  • the second generator 82 has the same configuration as the first generator 81 .
  • the second generator 82 includes an input layer 82a to which the IVUS image P1 is input, an intermediate layer 82b that extracts the feature amount of the IVUS image P1 and restores the OFDI image P2, and an output that outputs the generated OFDI image P2. layer 82c.
  • the second generator 82 is a GAN such as pix2pix, CycleGAN, or StarGAN, a VAE (Variational Autoencoder), a neural network such as CNN (eg, U-net), or the like.
  • the second generator 82 prepares training data that associates the IVUS image P1, which is a normal image for training, and the OFDI image P2, which is a normal image for training, and uses this training data to prepare an unlearned learning model is generated by learning
  • the training IVUS image P1 and OFDI image P2 are preferably images that include a lesion area determined to require endovascular treatment.
  • the image processing apparatus 3 of the present embodiment performs learning using the IVUS image P1 and the OFDI image P2 prepared for training, and generates the second generator 82 that generates the OFDI image P2 from the IVUS image P1.
  • FIG. 13 is a conceptual diagram showing a correction method for the IVUS image P1 and the OFDI image P2.
  • the ultrasonic line data generation unit 33 and the optical line data generation unit 34 of the image processing device 3 generate the following by interference between the reflected wave data output from the ultrasonic transmission/reception unit 12a, the reflected light output from the optical transmission/reception unit 12b, and the reference light.
  • a plurality of ultrasonic line data and optical line data are generated based on the obtained interference light data (step S111).
  • a plurality of lines of ultrasound line data and optical line data are assigned line numbers, for example, in chronological order of observation time. Line numbers correspond to observation time points. In other words, the line number corresponds to the viewing position and viewing direction.
  • the processing unit 31 constructs a multiple-frame IVUS image P1 based on the ultrasound line data, and constructs a multiple-frame OFDI image P2 based on the optical line data (step S112).
  • Frame numbers are assigned to the IVUS images P1 and OFDI images P2 of multiple frames, for example, in chronological order of observation time.
  • the frame number corresponds to the viewing position.
  • the IVUS images P1 and OFDI images P2 of multiple frames correspond to images obtained by observing the blood vessel at multiple observation positions from the distal side to the proximal side of the probe 11 .
  • the observation positions of the IVUS image P1 and the OFDI image P2 assigned the same frame number do not necessarily match because the arrangement of the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b and the transmission/reception direction of ultrasonic waves or light are different.
  • the IVUS image P1 and the OFDI image P2 are misaligned in the running direction of the blood vessel.
  • the positions of the IVUS image P1 and the OFDI image P2 are also shifted in the circumferential direction of the blood vessel.
  • the processing unit 31, the ultrasound line data generation unit 33, and the optical line data generation unit 34 that execute the processing of steps S111 and S112 generate an IVUS image P1 (ultrasound tomographic image) and an OFDI image P2 (optical coherence tomographic image). ) at the same time.
  • the left diagram of FIG. 13 shows a plurality of acquired IVUS images P1 and OFDI images P2.
  • the processing unit 31 recognizes the lumen image in the IVUS image P1 by inputting the IVUS image P1 into the IVUS image recognition learning model 71 (step S113).
  • the processing unit 31 executes image recognition processing for each of the IVUS images P1 of a plurality of frames.
  • the object-extracted IVUS image P1' output from the IVUS image recognition learning model 71 is given the same or similar frame number as the input IVUS image P1.
  • the processing unit 31 recognizes the lumen image in the OFDI image P2 by inputting the OFDI image P2 into the OFDI image recognition learning model 72 (step S114).
  • the processing unit 31 executes image recognition processing for each of the OFDI images P2 of multiple frames.
  • the object extraction OFDI image P2' output from the OFDI image recognition learning model 72 is given the same or similar frame number as the input OFDI image P2.
  • Object images that can be recognized by the IVUS image recognition learning model 71 and the OFDI image recognition learning model 72 are not necessarily the same, but the processing unit 31 recognizes at least the lumen image in the IVUS image P1 and the lumen image in the OFDI image P2. and can be recognized.
  • the processing unit 31 matches the positions and orientations of the three-dimensional lumen image based on the object-extracted IVUS image P1′ and the three-dimensional lumen image based on the object-extracted OFDI image P2′ by rigid body registration.
  • the amount of translation and the amount of rotation of the dimensional lumen image are identified (step S115).
  • the processing unit 31 identifies the correspondence relationship between the frame numbers in which the lumen images in the IVUS images P1 of multiple frames and the lumen images in the OFDI images P2 of multiple frames match.
  • the processing unit 31 specifies the amount of rotation of the IVUS image P1 or OFDI image P2 that matches the orientation of the lumen image in the IVUS image P1 and the orientation of the lumen image in the OFDI image P2.
  • the multiple-frame object-extracted IVUS image P1′ indicates the lumen region at multiple observation positions in the running direction of the blood vessel.
  • a three-dimensional lumen image can be constructed based on the images of .
  • the multiple-frame object-extracted OFDI image P2′ indicates the lumen region at multiple observation positions in the running direction of the blood vessel.
  • a three-dimensional lumen image can be constructed based on the images of the lumen region.
  • the processing unit 31 translates the 3D lumen image based on the object-extracted IVUS image P1′ by, for example, rigid body registration and rotates it in the circumferential direction, so that the position and orientation of the 3D lumen image are changed. Identify matching translation and rotation amounts.
  • the processing unit 31 calculates the degree of similarity or the degree of dissimilarity between the two 3D lumen images in the 3D coordinate system, and determines the amount of translation and the amount of rotation that maximizes the degree of similarity or minimizes the degree of dissimilarity. Identify.
  • the degree of similarity for example, normalized cross-correlation or the like may be used. The residual sum of squares or the like may be used as the degree of dissimilarity.
  • the processing unit 31 may calculate the degree of similarity or the degree of difference between the contours of the three-dimensional lumen images.
  • FIG. 14 is an explanatory diagram conceptually showing a method of associating the IVUS image P1 and the OFDI image P2.
  • Parallel movement of the three-dimensional lumen image by rigid body registration corresponds to correction of the correspondence relationship between the frame number of the IVUS image P1 and the frame image of the OFDI image P2.
  • rotation of the three-dimensional lumen image corresponds to image rotation processing in the IVUS image P1.
  • the processing unit 31 corrects the correspondence relationship between the IVUS image P1 and the OFDI image P2 (step S116). That is, the frame image of the IVUS image P1 captured at the same observation position is associated with the frame image of the OFDI image P2. Specifically, the frame number of the IVUS image P1 captured at the same observation position is associated with the frame number of the OFDI image P2.
  • the translation amount specified in step S115 corresponds to the difference between the frame number of the IVUS image P1 captured at the same observation position and the frame number of the OFDI image P2. , the IVUS image P1 and the OFDI image P2. Note that the image processing device 3 stores the correspondence relationship between the amount of parallel movement and the frame number difference.
  • step S115 corresponds to the amount of misalignment between the orientations of the IVUS image P1 and the OFDI image P2, that is, the amount of misalignment of the rotation angle. By rotating the image, the orientations of the IVUS image P1 and the OFDI image P2 can be aligned.
  • the object extraction IVUS image P1′ and the object extraction OFDI image P2′ are directly processed without constructing the 3D lumen image.
  • the viewing position, viewing direction and scale may be corrected by symmetrical comparison.
  • n is an integer of 1 or more.
  • the processing unit 31 calculates, for example, the degree of similarity or difference between the lumen region in the object extraction IVUS image P1′ and the lumen region in the object extraction OFDI image P2′ of the corresponding frame number.
  • the processing unit 31 calculates the degree of similarity or the degree of dissimilarity of the lumen region for a predetermined number of object-extracted IVUS images P1′ and object-extracted OFDI images P2′.
  • the processing unit 31 similarly calculates the degree of similarity or difference between the lumen region in the object-extracted IVUS image P1′ of the (n+ ⁇ )-th frame and the lumen region in the object-extracted OFDI image P2′ of the n-th frame. calculate.
  • is an integer and corresponds to the translation amount of the three-dimensional lumen image.
  • the processing unit 31 verifies the correspondence relationship between the object extraction IVUS image P1′ and the object extraction OFDI image P2′ while incrementing the variable ⁇ by one. Further, when comparing the lumen regions, the processing unit 31 rotates the direction of the lumen region in the object extraction IVUS image P1′ in the circumferential direction by the angle correction amount ⁇ .
  • the angle correction amount ⁇ corresponds to the amount of rotation of the three-dimensional lumen image. Note that the center of rotation is not the center of the object extraction IVUS image P1′, but the position corresponding to the center of the sensor unit 12 is rotated.
  • the processing unit 31 calculates the similarity or difference between the lumen regions in the object extraction IVUS image P1′ and the object extraction OFDI image P2′ while changing the angle correction amount ⁇ along with the variable ⁇ by a predetermined amount. is maximized or the difference is minimized, and the angle correction amount ⁇ is specified. Then, the processing unit 31 stores the specified variable ⁇ and the angle correction amount ⁇ .
  • the processing unit 31 that has completed the processing of step S116 inputs the plurality of IVUS images P1 acquired in the processing of steps S111 and S112 to the IVUS defect detection learning model 61 to determine whether each IVUS image P1 is a defective image. It is determined whether or not (step S117). Similarly, the processing unit 31 inputs the plurality of OFDI images P2 acquired in the processing of steps S111 and S112 to the OFDI defect detection learning model 62, thereby determining whether each OFDI image P2 is a defective image. (step S118). In the central diagram of FIG. 13, the frames surrounded by thick frames indicate the frames of the IVUS image P1 and the OFDI image P2 determined as defective images.
  • the processing unit 31 determines whether or not there is an image defect in the IVUS image P1 based on the detection result of step S117 (step S119). Note that the processing unit 31 that executes the process of step S119 functions as a determination unit that determines image defects in the obtained IVUS image P1. If it is determined that there is an IVUS image P1 with an image defect (step S119: YES), the processing unit 31 identifies a normal OFDI image P2 corresponding to the IVUS image P1 determined to have an image defect, and identifies the corresponding normal OFDI image P2. The image P2 is input to the first generator 81 to generate and output a corresponding normal IVUS image P1 (step S120).
  • the OFDI image P2 corresponding to the IVUS image P1 determined to be defective is the OFDI image P2 obtained at substantially the same observation position and observation direction as the IVUS image P1 determined to be defective. That is, it is the OFDI image P2 that has been corrected in step S116 and has a corresponding relationship with the IVUS image P1.
  • the processing unit 31 uses the IVUS image P1 output from the first generator 81 to correct the IVUS image P1 determined to be defective (step S121). For example, as shown in the right diagram of FIG. 13, the processing unit 31 corrects the IVUS image P1 determined to be defective by replacing it with the generated IVUS image P1.
  • the processing unit 31 may be configured to perform correction using any known image correction method such as synthesizing the IVUS image P1 determined to be defective and the generated IVUS image P1. Note that when there are a plurality of IVUS images P1 determined to be defective, the processing unit 31 performs the processing of steps S120 and S121 on each of the plurality of IVUS images P1 to correct the IVUS images P1.
  • step S121 determines the OFDI image P2 based on the detection result of step S118. It is determined whether or not there is an image defect (step S122). Note that the processing unit 31 that executes the process of step S122 functions as a determination unit that determines image defects in the obtained OFDI image P2.
  • step S122 If it is determined that there is an OFDI image P2 with a defective image (step S122: YES), the processing unit 31 identifies a normal IVUS image P1 corresponding to the OFDI image P2 determined to have a defective image, By inputting the image P1 to the second generator 82, a corresponding normal OFDI image P2 is generated and output (step S123).
  • the IVUS image P1 corresponding to the OFDI image P2 determined to be defective is the IVUS image P1 obtained at substantially the same observation position and observation direction as the OFDI image P2 determined to be defective. That is, it is the IVUS image P1 that has been corrected in step S116 and has a corresponding relationship with the OFDI image P2.
  • the processing unit 31 uses the OFDI image P2 output from the second generator 82 to correct the OFDI image P2 determined to be defective (step S124). For example, as shown in the right diagram of FIG. 13, the processing unit 31 corrects the OFDI image P2 determined to be defective by replacing it with the generated OFDI image P2. Note that the processing unit 31 may be configured to perform correction using any known image correction method such as synthesizing the OFDI image P2 determined to be defective and the generated OFDI image P2. Note that when there are a plurality of OFDI images P2 determined to be defective, the processing unit 31 performs the processing of steps S123 and S124 on each of the plurality of OFDI images P2 to correct the OFDI images P2.
  • step S124 When the process of step S124 is completed, or when it is determined in step S122 that there is no OFDI image P2 with an image defect (step S122: NO), the processing unit 31 outputs the medical image signal to the display device 4, and the image defect is detected.
  • the corrected IVUS image P1 and OFDI image P2 are displayed on the display device 4 (step S125).
  • the processing unit 31 displays the first frame image F1 in the frame of the corrected IVUS image P1 (step S126), and displays the second frame image F2 in the frame of the corrected OFDI image P2 (step S127).
  • the first frame image F1 and the second frame image F2 may be configured to have different colors, line types, thicknesses, and the like.
  • FIG. 15 is a first screen display example of the IVUS image P1 and the OFDI image P2.
  • the processing unit 31 displays, for example, an IVUS image P1 and an OFDI image P2, which are cross-sectional images substantially perpendicular to the long axis of the blood vessel, and a longitudinal cross-sectional image substantially parallel to the central axis of the blood vessel, arranged vertically.
  • the IVUS image P1 and the OFDI image P2 at the distal side reference part (Ref.Distal), the proximal side reference part (Ref.Proximal) and the lesion area (MLA: minimum lumen area) are displayed.
  • the corrected IVUS image P1 is surrounded by the first frame image F1
  • the corrected OFDI image P2 is surrounded by the second frame image F2.
  • the user can recognize the corrected IVUS image P1 and OFDI image P2 among the displayed IVUS image P1 and OFDI image P2 by the first frame image F1 and the second frame image F2.
  • FIG. 16 is a second screen display example of the IVUS image P1 and the OFDI image P2.
  • the processing unit 31 displays, for example, an IVUS image P1 and an OFDI image P2, and a vertical cross-sectional image substantially parallel to the central axis of the blood vessel, arranged vertically.
  • the processing unit 31 displays both the IVUS image P1, which is a defective image before correction, and the corrected IVUS image P1.
  • the processing unit 31 displays both the OFDI image P2, which is the defective image before correction, and the corrected OFDI image P2.
  • the processing unit 31 switches between the IVUS image P1 and OFDI image P2, which are defective images before correction, and the IVUS image P1 and OFDI image P2 after correction. may be configured to display Further, when the predetermined scanning is received by the input device 5, for example, when the IVUS image P1 or OFDI image P2 after correction is clicked, the processing unit 31 displays the IVUS image P1 or OFDI image P2 before correction. It may be configured to
  • defects in the IVUS image P1 and the OFDI image P2 obtained using a dual-type catheter having the IVUS function and the OFDI function can be corrected. .
  • the first generator 81 can be used to correct the IVUS image P1.
  • the second generator 82 can be used to correct the OFDI image P2.
  • the IVUS image P1 and the OFDI image P2 After aligning the observation position and observation direction of the IVUS image P1 and the OFDI image P2 obtained using a dual type catheter having the IVUS function and the OFDI function, the IVUS image P1 and the OFDI image P2 are corrected. Therefore, the IVUS image P1 and OFDI image P2 having image defects can be corrected more accurately.
  • the processing unit 31 displays the first frame image F1 on the corrected IVUS image P1 so that the user can see that the IVUS image P1 displayed on the display device 4 is corrected. It can be recognized whether it is an image or not. Similarly, the processing unit 31 displays the second frame image F2 on the corrected OFDI image P2 so that the user can determine whether the OFDI image P2 displayed on the display device 4 is a corrected image. can recognize
  • the processing unit 31 can display the IVUS image P1 before correction together with the corrected IVUS image P1.
  • the uncorrected OFDI image P2 can be displayed along with the corrected OFDI image P2. The user can more accurately recognize the state of blood vessels using the IVUS image P1 and OFDI image P2 before and after correction.
  • the processing may be configured to detect image defects.
  • the processing unit 31 may be configured to detect the presence or absence of a typical pattern image included in the IVUS image P1, for example, the presence or absence of a double ring image by processing such as pattern matching, and detect an image defect.
  • the processing unit 31 may be configured to detect an image defect in the OFDI image P2 by comparing the average luminance value of the OFDI image P2 with a predetermined threshold value. More specifically, an OFDI image P2 whose average luminance value is less than a predetermined threshold value should be detected as a defective image.
  • the contour of the lumen image may be extracted by image processing such as pattern matching.
  • diagnostic imaging catheter 2 MDU 3 image processing device 4 display device 5 input device 11 probe 12 sensor section 12a ultrasonic transmission/reception section 12b optical transmission/reception section 12c housing 13 shaft 14 guide wire insertion section 15 connector section 30 recording medium 31 processing section 32 storage section 33 ultrasonic line data Generation unit 34
  • Light line data generation unit 61 IVUS defect detection learning model 62 OFDI defect detection learning model 71 IVUS image recognition learning model 72 OFDI image recognition learning model 81 First generator 82 Second generator P1 IVUS image P1' Object extraction IVUS image P2 OFDI image P2' object extraction OFDI image 100 diagnostic imaging apparatus 101 intravascular examination apparatus 102 angiography apparatus

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

コンピュータに、超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得し、取得した超音波断層画像又は光干渉断層画像の画像不良を判定し、光干渉断層画像を入力した場合に、対応する超音波断層画像を出力するように学習済みの学習モデルに、画像不良と判定された超音波断層画像に対応する正常な光干渉断層画像を入力することによって、対応する正常な超音波断層画像を出力させ、学習モデルから出力された超音波断層画像を用いて、画像不良と判定された超音波断層画像を補正する処理を実行させる。

Description

コンピュータプログラム、画像処理方法及び画像処理装置
 本発明は、コンピュータプログラム、画像処理方法及び画像処理装置に関する。
 狭心症又は心筋梗塞等の虚血性心疾患に対する低侵襲治療として、経皮的冠動脈インターベンション(PCI: Percutaneous Coronary Intervention)に代表される血管内治療が行われている。血管内治療における術前診断、又は術後の結果確認のために、超音波を用いた超音波断層画像診断装置(IVUS: IntraVascular Ultra Sound)、近赤外線を用いた光干渉断層画像診断装置(OFDI: Optical Frequency Domain Imaging)等の血管内画像診断装置が使用されている。
 また、IVUSの機能と、OFDIの機能とを組み合わせた画像診断装置、つまり超音波を送受信可能な超音波送受信部と、光を送受信可能な光送受信部とを備える画像診断装置が提案されている(例えば、特許文献1及び2)。
 このような画像診断装置によれば、高深度領域まで測定できるIVUSの特性を活かした超音波断層画像と、高分解能で測定できるOFDIの特性を活かした光干渉断層画像の両方を、一回の走査で構築することができる。
特開平11-56752号公報 特表2010-508973号公報
 ところで、IVUSでは血管内を撮影する上でセンサ部周辺(カテーテル内部)を生理食塩液でプライミングする必要がある。正しくプライミングが実施されていない場合、エアーの混入等によって超音波が減衰するため、正しく血管断層像(超音波断層画像)を取得できないという問題がある。
 OFDIでは血管内を撮影する上で血管内の血液を造影剤でフラッシュする必要がある。正しくフラッシュできていない場合、血液の影響によって正しく血管断層像(光干渉断層画像)を取得できないという問題がある。
 IVUS及びOFDIの両機能を有する画像診断装置では同一血管を2つのセンサ部で同時に観察できるというメリットが生まれる反面、上記のプライミング不良及びフラッシュ不良による画像不良のいずれも発生する可能性がある。
 画像不良が発生した場合、プライミング不良時には一度体外にカテーテルを抜去した後再プライミングを行った上で再撮影が必要であり、術者の手間が増えて負担となる。また、フラッシュ不良の場合は再度造影剤でフラッシュして再撮影する必要があり、造影剤の使用量増加により患者負担が増える。
 本開示の一つの側面では、IVUS機能及びOFDI機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像の不良を補正することが可能なコンピュータプログラム、画像処理方法及び画像処理装置を提供することを目的とする。
 本開示の一つの側面に係るコンピュータプログラム(プログラム製品)は、超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得し、取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定し、前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する処理をコンピュータに実行させる。
 本開示の一つの側面に係る画像処理方法は、超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得し、取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定し、前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する。
 本開示の一つの側面に係る画像処理装置は、超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得する取得部と、前記取得部にて取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定する判定部と、前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルと、前記学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する処理部とを備える。
 本開示の一つの側面では、IVUS機能及びOFDI機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像の不良を補正することができる。
画像診断装置の構成例を示す説明図である。 画像診断用カテーテルの構成例を示す説明図である。 センサ部を挿通させた血管の断面を模式的に示す説明図である。 断層画像の説明図である。 断層画像の説明図である。 画像処理装置の構成例を示すブロック図である。 IVUS不良検出学習モデルの構成例を示すブロック図である。 OFDI不良検出学習モデルの構成例を示すブロック図である。 IVUS画像認識学習モデルの構成例を示すブロック図である。 OFDI画像認識学習モデルの構成例を示すブロック図である。 第1生成器の構成例を示すブロック図である。 第1生成器の生成方法を示す概念図である。 第2生成器の構成例を示すブロック図である。 本実施形態に係る画像処理手順を示すフローチャートである。 本実施形態に係る画像処理手順を示すフローチャートである。 IVUS画像及びOFDI画像の補正方法を示す概念図である。 IVUS画像及びOFDI画像の対応付け方法を概念的に示す説明図である。 IVUS画像及びOFDI画像の第1の画面表示例である。 IVUS画像及びOFDI画像の第2の画面表示例である。
 以下、本開示のコンピュータプログラム、画像処理方法及び画像処理装置について、その実施形態を示す図面に基づいて詳述する。以下の各実施形態では、血管内治療である心臓カテーテル治療を一例に説明する。本発明はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
 本実施形態では、血管内超音波診断法(IVUS)及び光干渉断層診断法(OFDI)の両方の機能を備えるデュアルタイプのカテーテルを用いた画像診断装置について説明する。デュアルタイプのカテーテルでは、IVUSのみによって超音波断層画像を取得するモードと、OFDIのみによって光干渉断層画像を取得するモードと、IVUS及びOFDIによって両方の断層画像を取得するモードとが設けられており、これらのモードを切り替えて使用することができる。以下、超音波断層画像及び光干渉断層画像それぞれを適宜、IVUS画像及びOFDI画像という。また、IVUS画像及びOFDI画像を総称して断層画像という。
 図1は、画像診断装置100の構成例を示す説明図である。本実施形態の画像診断装置100は、血管内検査装置101と、血管造影装置102と、画像処理装置3と、表示装置4と、入力装置5とを備える。血管内検査装置101は、画像診断用カテーテル1及びMDU(Motor Drive Unit)2を備える。画像診断用カテーテル1は、MDU2を介して画像処理装置3に接続されている。画像処理装置3には、表示装置4及び入力装置5が接続されている。表示装置4は、例えば液晶ディスプレイ又は有機ELディスプレイ等であり、入力装置5は、例えばキーボード、マウス、トラックボール又はマイク等である。表示装置4と入力装置5とは、一体に積層されて、タッチパネルを構成していてもよい。また入力装置5と画像処理装置3とは、一体に構成されていてもよい。更に入力装置5は、ジェスチャ入力又は視線入力等を受け付けるセンサであってもよい。
 血管造影装置102は画像処理装置3に接続されている。血管造影装置102は、患者の血管に造影剤を注入しながら、患者の生体外からX線を用いて血管を撮像し、当該血管の透視画像であるアンギオ画像を得るためのアンギオグラフィ装置である。血管造影装置102は、X線源及びX線センサを備え、X線源から照射されたX線をX線センサが受信することにより、患者のX線透視画像をイメージングする。血管造影装置102は、撮像して得られたアンギオ画像を画像処理装置3へ出力し、画像処理装置3を介して表示装置4に表示される。
 図2は画像診断用カテーテル1の構成例を示す説明図である。なお、図2中の上側の一点鎖線で囲まれた領域は、下側の一点鎖線で囲まれた領域を拡大したものである。画像診断用カテーテル1は、プローブ11と、プローブ11の端部に配置されたコネクタ部15とを有する。プローブ11は、コネクタ部15を介してMDU2に接続される。以下の説明では画像診断用カテーテル1のコネクタ部15から遠い側を先端側と記載し、コネクタ部15側を基端側という。プローブ11は、カテーテルシース11aを備え、その先端部には、ガイドワイヤが挿通可能なガイドワイヤ挿通部14が設けられている。ガイドワイヤ挿通部14はガイドワイヤルーメンを構成し、予め血管内に挿入されたガイドワイヤを受け入れ、ガイドワイヤによってプローブ11を患部まで導くのに使用される。カテーテルシース11aは、ガイドワイヤ挿通部14からコネクタ部15に亘って連続する管部を形成している。カテーテルシース11aの内部にはシャフト13が挿通されており、シャフト13の先端側にはセンサ部12が接続されている。
 センサ部12は、ハウジング12cを有し、ハウジング12cの先端側は、カテーテルシース11aの内面との摩擦や引っ掛かりを抑制するために半球状に形成されている。ハウジング12c内には、超音波を血管内に送信すると共に血管内からの反射波を受信する超音波送受信部12aと、近赤外光を血管内に送信すると共に血管内からの反射光を受信する光送受信部12bとが配置されている。図2に示す例では、プローブ11の先端側に超音波送受信部12aが設けられており、基端側に光送受信部12bが設けられている。つまり、超音波送受信部12a及び光送受信部12bは、シャフト13の中心軸上(図2中の二点鎖線上)において軸方向に沿って所定長だけ離れて、ハウジング12c内に配置されている。
 また、超音波送受信部12a及び光送受信部12bは、超音波及び近赤外光の送受信方向がシャフト13の軸方向に対して略90度の方向(シャフト13の径方向)となるように配置されている。なお、超音波送受信部12a及び光送受信部12bは、カテーテルシース11aの内面での反射波及び反射光を受信しないように、径方向よりややずらして取り付けられることが望ましい。本実施形態では、例えば図2中の矢符で示すように、超音波送受信部12aは径方向に対して基端側に傾斜した方向を超音波の照射方向とし、光送受信部12bは径方向に対して先端側に傾斜した方向を近赤外光の照射方向とする姿勢で設けられている。
 シャフト13には、超音波送受信部12aに接続された電気信号ケーブル(図示せず)と、光送受信部12bに接続された光ファイバケーブル(図示せず)とが内挿されている。プローブ11は、先端側から血管内に挿入される。センサ部12及びシャフト13は、カテーテルシース11aの内部で進退可能であり、また、周方向に回転することができる。センサ部12及びシャフト13は、シャフト13の中心軸を回転軸として回転する。
 MDU2は、画像診断用カテーテル1のコネクタ部15が着脱可能に取り付けられ、ユーザ(医療従事者)の操作に応じて内蔵モータを駆動し、血管内に挿入された画像診断用カテーテル1の動作を制御する駆動装置である。例えばMDU2は、プローブ11に内挿されたセンサ部12及びシャフト13を一定の速度でMDU2側に向けて引っ張りながら周方向に回転させるプルバック操作を行う。センサ部12は、プルバック操作によって先端側から基端側に移動しながら回転しつつ、所定の時間間隔で連続的に血管内を走査することにより、プローブ11に略垂直な複数枚の横断層像を所定の間隔で連続的に撮影する。MDU2は、超音波送受信部12aが受信した超音波の反射波信号と、光送受信部12bが受信した反射光信号とを画像処理装置3へ出力する。
 画像処理装置3は、MDU2を介して超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。超音波ラインデータは、超音波送受信部12aからみた血管の深さ方向における超音波の反射強度を示すデータである。画像処理装置3は、生成した超音波ラインデータに基づいて血管の横断層を表すIVUS画像P1(図4A及び図4B参照)を構築する。
 また、画像処理装置3は、MDU2を介して光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。光ラインデータは、光送受信部12bからみた血管の深さ方向における反射光の反射強度を示すデータである。画像処理装置3は、生成した光ラインデータに基づいて血管の横断層を表したOFDI画像P2(図4A及び図4B参照)を構築する。
 ここで、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータと、超音波ラインデータ及び光ラインデータから構築されるIVUS画像P1及びOFDI画像P2について説明する。
 図3は、センサ部12を挿通させた血管の断面を模式的に示す説明図であり、図4A及び図4Bは断層画像の説明図である。まず、図3を用いて、血管内における超音波送受信部12a及び光送受信部12bの動作と、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータについて説明する。
 センサ部12及びシャフト13が血管内に挿通された状態で断層画像の撮像が開始されると、センサ部12が矢符で示す方向に、シャフト13の中心軸を回転中心として回転する。このとき、超音波送受信部12aは、各回転角度において超音波の送信及び受信を行う。ライン1,2,…512は各回転角度における超音波の送受信方向を示している。本実施形態では、超音波送受信部12aは、血管内において360度回動(1回転)する間に512回の超音波の送信及び受信を断続的に行う。超音波送受信部12aは、1回の超音波の送受信により、送受信方向の1ラインのデータを取得するので、1回転の間に、回転中心から放射線状に延びる512本の超音波ラインデータを得ることができる。512本の超音波ラインデータは、回転中心の近傍では密であるが、回転中心から離れるにつれて互いに疎になっていく。そこで、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示すような2次元のIVUS画像P1を構築することができる。
 同様に、光送受信部12bも、各回転角度において近赤外光(測定光)の送信及び受信を行う。光送受信部12bも血管内において360度回動する間に512回の測定光の送信及び受信を行うので、1回転の間に、回転中心から放射線状に延びる512本の光ラインデータを得ることができる。光ラインデータについても、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示す2次元のOFDI画像P2を構築することができる。
 このように複数本の超音波ラインデータから構築される2次元の断層画像を1フレームのIVUS画像P1という。また、複数本の光ラインデータから構築される2次元の断層画像を1フレームのOFDI画像P2という。センサ部12は血管内を移動しながら走査するため、移動範囲内において1回転した各位置で1フレームのIVUS画像P1又はOFDI画像P2が取得される。即ち、移動範囲においてプローブ11の先端側から基端側への各位置で1フレームのIVUS画像P1又はOFDI画像P2が取得されるので、図4Bに示すように、移動範囲内で複数フレームのIVUS画像P1又はOFDI画像P2が取得される。
 なお、1回転における超音波及び光の送受信回数は一例であり、送受信回数は512回に限定されるものではない。また、超音波の送受信回数と、光の送受信回数とは同一であっても良いし、異なっていてもよい。
 図5は画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、処理部31、記憶部32、超音波ラインデータ生成部33、光ラインデータ生成部34、入出力I/F35、読取部36を備える。処理部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。処理部31は、バスを介して画像処理装置3を構成するハードウェア各部と接続されている。
 記憶部32は、例えば主記憶部及び補助記憶部を有する。主記憶部は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、処理部31が演算処理を実行するために必要なデータを一時的に記憶する。補助記憶部は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部は、処理部31が実行するコンピュータプログラムP、IVUS不良検出学習モデル61、OFDI不良検出学習モデル62、IVUS画像認識学習モデル71、OFDI画像認識学習モデル72、第1生成器(第1学習モデル)81、第2生成器(第2学習モデル)82、その他の処理に必要な各種データを記憶する。なお、補助記憶部は画像処理装置3に接続された外部記憶装置であってもよい。コンピュータプログラムPは、画像処理装置3の製造段階において補助記憶部に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部に記憶させてもよい。コンピュータプログラムPは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体30に読み出し可能に記録された態様であってもよく、読取部36が記録媒体30から読み出して補助記憶部に記憶させてもよい。
 超音波ラインデータ生成部33は、血管内検査装置101の超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。
 光ラインデータ生成部34は、血管内検査装置101の光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。
 入出力I/F35は、血管内検査装置101、血管造影装置102、表示装置4及び入力装置5が接続されるインタフェースである。処理部31は、入出力I/F35を介して、血管造影装置102からアンギオ画像を取得する。また、処理部31は、入出力I/F35を介して、IVUS画像P1、OFDI画像P2、又はアンギオ画像の医用画像信号を表示装置4へ出力することによって、表示装置4に医用画像を表示する。更に、処理部31は、入出力I/F35を介して、入力装置5に入力された情報を受け付ける。
 画像処理装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよい。また、画像処理装置3は、サーバクライアントシステムや、クラウドサーバ、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。以下の説明では、画像処理装置3が1台のコンピュータであるものとして説明する。
 画像処理装置3の処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、超音波ラインデータ生成部33にて超音波ラインデータを生成し、生成された超音波ラインデータに基づいてIVUS画像P1を構築する処理を実行する。また、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、光ラインデータ生成部34にて光ラインデータを生成し、生成された光ラインデータに基づいてOFDI画像P2を構築する処理を実行する。
 ところで、超音波送受信部12a及び光送受信部12bは、センサ部12における配置位置が異なり、超音波及び光の送受信方向も異なため、超音波送受信部12a及び光送受信部12bが同じ撮像タイミングで血管を走査したとしても血管の観察位置及び観察方向にずれが生じる。観察位置のずれは、血管の長手方向及び走行方向のずれである。観察方向のずれは、血管の周方向におけるずれである。
 そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、IVUS画像P1及びOFDI画像P2を構築する際に、IVUS画像P1及びOFDI画像P2における観察位置及び観察方向のずれを補正する処理を実行する。具体的には、処理部31は、IVUS画像認識学習モデル71及びOFDI画像認識学習モデル72を用いて、IVUS画像P1及びOFDI画像P2における内腔画像を認識する。そして、処理部31は、例えば、IVUS画像P1に基づく3次元内腔画像と、OFDI画像P2に基づく3次元内腔画像とを合致させる平行移動量及び回転量を特定し、特定した平行移動量及び回転量に基づいて、観察位置及び観察方向が一致するようにIVUS画像P1及びOFDI画像P2を対応付ける。
 また、プライミングが適切に実施されていないと、エアーの混入等によって超音波が減衰するため、IVUS画像P1の画像不良が発生することがある。血液を造影剤でフラッシュする処置が適切に実施されていないと、血液の影響によってOFDI画像P2の画像不良が発生する。
 そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、IVUS画像P1及びOFDI画像P2の不良を検出する。具体的には、処理部31は、IVUS不良検出学習モデル61及びOFDI不良検出学習モデル62を用いて、IVUS画像P1及びOFDI画像P2の不良を検出する。
 更に、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、画像が不良なIVUS画像P1のフレーム画像を、対応する正常なOFDI画像P2を用いて補正する処理を実行する。具体的には、処理部31は、第1生成器81を用いて、正常なOFDI画像P2から、対応する正常なIVUS画像P1を生成し、画像不良のIVUS画像P1を生成したIVUS画像P1に置換する処理を実行する。同様に、処理部31は、第2生成器82を用いて、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、画像が不良なOFDI画像P2のフレーム画像を、対応する正常なIVUS画像P1を用いて補正する処理を実行する。具体的には、処理部31は、正常なIVUS画像P1から、対応する正常なOFDI画像P2を生成し、画像不良のOFDI画像P2を生成したOFDI画像P2に置換する処理を実行する。
 上記処理により、不適切なプライミング又はフラッシュによるIVUS画像P1又はOFDI画像P2の画像不良を補正することができる。
<不良検出学習モデル>
 IVUS画像P1及びOFDI画像P2の画像不良を検出するIVUS不良検出学習モデル61及びOFDI不良検出学習モデル62について説明する。
 図6Aは、IVUS不良検出学習モデル61の構成例を示すブロック図、図6Bは、OFDI不良検出学習モデル62の構成例を示すブロック図である。
 図6Aは、IVUS不良検出学習モデル61の構成例を示す。IVUS不良検出学習モデル61は、プライミング不良によるIVUS画像P1の不良を検出する学習済みモデルである。IVUS不良検出学習モデル61は、例えば、IVUS画像P1の入力を受け付ける入力層61aと、画像の特徴量を抽出する中間層61bと、IVUS画像P1の画像不良の有無を出力する出力層61cとを有するニューラルネットワークである。本実施形態のIVUS不良検出学習モデル61は、ResNet、DenseNet等のCNN(Convolution Neural Network)である。
 画像処理装置3は、CNNのモデルに対して、IVUS画像P1と、画像不良の有無との関係を学習するディープラーニングを行うことで、IVUS不良検出学習モデル61を生成する。より具体的には、正常なIVUS画像P1と、正常であることを示す教師データとを対応付けたもの、不良なIVUS画像P1と、画像不良であることを示す教師データとを対応付けたものを含む訓練データを用意する。そして、画像処理装置3は、訓練データのIVUS画像P1を未学習のニューラルネットワークに入力した場合に出力されるデータと、教師データとの差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。
 ニューラルネットワークの入力層61aは、IVUS画像P1に係る各画素の画素値の入力を受け付ける複数のノードを有し、入力された画素値を中間層61bに受け渡す。中間層61bは、複数層であり、各層は画像の特徴量を抽出する複数のノードを有し、抽出した特徴量を出力層61cに受け渡す。例えばIVUS不良検出学習モデル61がCNNである場合、中間層61bは、入力層61aから入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが複数連結された構成を有し、画像の画素情報を圧縮しながら最終的に画像の特徴量を抽出する。出力層61cは、画像不良の有無又は確度を示すデータを出力するノードを有する。
 なお本実施形態においては、IVUS不良検出学習モデル61がDenseNet等のCNNであるものとするが、モデルの構成はCNNに限るものではない。IVUS不良検出学習モデル61は、例えばCNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、又は、XGBoost等の決定木、等の構成の学習モデルであってよい。また、出力層61cは画像不良の種類を示すデータを出力する複数のノードを備えてもよい。
 図6Bは、OFDI不良検出学習モデル62の構成例を示す。OFDI不良検出学習モデル62は、フラッシュ不良によるOFDI画像P2の不良を検出する学習済みモデルである。OFDI不良検出学習モデル62は、例えば、OFDI画像P2の入力を受け付ける入力層62aと、画像の特徴量を抽出する中間層62bと、OFDI画像P2の画像不良の有無を出力する出力層62cとを有するニューラルネットワークである。画像処理装置3は、CNNのモデルに対して、OFDI画像P2と、画像不良の有無との関係を学習するディープラーニングを行うことで、OFDI不良検出学習モデル62を生成する。
 OFDI不良検出学習モデル62の構成の詳細、生成方法はIVUS不良検出学習モデル61と同様であるため、詳細を省略する。
<画像認識学習モデル>
 IVUS画像P1及びOFDI画像P2の観察位置及び観察方向のずれ補正を行うために用いるIVUS画像認識学習モデル71及びOFDI画像認識学習モデル72について説明する。
 図7Aは、IVUS画像認識学習モデル71の構成例を示すブロック図、図7Bは、IVUS画像認識学習モデル71及びOFDI画像認識学習モデル72の構成例を示すブロック図である。
 図7Aは、IVUS画像認識学習モデル71の構成例を示すブロック図である。IVUS画像認識学習モデル71は、IVUS画像P1に含まれる所定のオブジェクトを認識するモデルである。IVUS画像認識学習モデル71は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、IVUS画像P1に含まれる各種オブジェクトを認識することができる。具体的には、IVUS画像認識学習モデル71は、IVUS画像P1における内腔画像を認識する。なお、IVUS画像認識学習モデル71は、血管壁画像を認識するように構成してもよい。血管壁は中膜であり、より具体的には外弾性膜(EEM)である。IVUS画像P1における内腔画像、血管壁画像は第1オブジェクト画像の一例である。
 IVUS画像認識学習モデル71は、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional neural network)である。IVUS画像認識学習モデル71は、IVUS画像P1が入力される入力層71aと、IVUS画像P1の特徴量を抽出し復元する中間層71bと、IVUS画像P1に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出IVUS画像P1’を出力する出力層71cとを有する。IVUS画像認識学習モデル71は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。
 IVUS画像認識学習モデル71の入力層71aは、IVUS画像P1、つまりIVUS画像P1を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層71bに受け渡す。中間層71bは、複数の畳み込み層(CONV層)と、複数の逆畳み込み層(DECONV層)とを有する。畳み込み層は、IVUS画像P1を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出IVUS画像P1’が生成される。出力層71cは、オブジェクト抽出IVUS画像P1’を出力する複数のニューロンを有する。オブジェクト抽出IVUS画像P1’は、図7Aに示すように、内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。
 IVUS画像認識学習モデル71は、超音波送受信部12aにて得られるIVUS画像P1と、当該IVUS画像P1の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出IVUS画像P1’とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、訓練データのIVUS画像P1を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出IVUS画像P1’と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。
 このように学習されたIVUS画像認識学習モデル71によれば、図7Aに示すようにIVUS画像P1をIVUS画像認識学習モデル71に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出IVUS画像P1’が得られる。
 図7Bは、OFDI画像認識学習モデル72の構成例を示すブロック図である。OFDI画像認識学習モデル72は、OFDI画像P2に含まれる所定のオブジェクトを認識するモデルである。OFDI画像認識学習モデル72は、IVUS画像認識学習モデル71と同様、例えばセマンティックセグメンテーションを用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、OFDI画像P2に含まれる各種オブジェクトを認識することができる。具体的には、OFDI画像認識学習モデル72は、OFDI画像P2における内腔画像、血管画像等を認識する。OFDI画像P2における内腔画像、血管壁画像は第2オブジェクト画像の一例である。
 OFDI画像認識学習モデル72は、例えば深層学習による学習済みの畳み込みニューラルネットワークである。OFDI画像認識学習モデル72は、OFDI画像P2が入力される入力層72aと、OFDI画像P2の特徴量を抽出し復元する中間層72bと、OFDI画像P2に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出OFDI画像P2’を出力する出力層72cとを有する。OFDI画像認識学習モデル72は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。
 OFDI画像認識学習モデル72の入力層72aは、OFDI画像P2、つまりOFDI画像P2を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層72bに受け渡す。中間層72bは、複数の畳み込み層と、複数の逆畳み込み層とを有する。畳み込み層は、OFDI画像P2を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出OFDI画像P2’が生成される。出力層72cは、オブジェクト抽出OFDI画像P2’を出力する複数のニューロンを有する。オブジェクト抽出OFDI画像P2’は、内腔画像、血管壁画像、プラーク画像、ステント画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。
 OFDI画像認識学習モデル72は、光送受信部12bにて得られるOFDI画像P2と、当該OFDI画像P2の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出OFDI画像P2’とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、IVUS画像認識学習モデル71の学習と同様、訓練データのOFDI画像P2を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出OFDI画像P2’と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。
 このように学習されたOFDI画像認識学習モデル72によれば、図7Bに示すようにOFDI画像P2をOFDI画像認識学習モデル72に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出OFDI画像P2’が得られる。
<画像生成学習モデル>
 図8は、第1生成器81の構成例を示すブロック図である。第1生成器81は、OFDI画像P2からIVUS画像P1を生成する学習モデルである。第1生成器81は、OFDI画像P2が入力される入力層81aと、OFDI画像P2の特徴量を抽出し、IVUS画像P1を復元する中間層81bと、生成されたIVUS画像P1を出力する出力層81cとを有する。第1生成器81は、pix2pix、CycleGAN、StarGAN等のGAN、VAE(Variational Autoencoder)、CNN(例えばU-net)等のニューラルネットワーク等である。
 第1生成器81の入力層81aは、OFDI画像P2、つまりOFDI画像P2を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層81bに受け渡す。中間層81bは、複数の畳み込み層(CONV層)と、複数の逆畳み込み層(DECONV層)とを有する。畳み込み層は、IVUS画像P1を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がIVUS画像P1の画素値を有するIVUS画像P1が生成される。出力層81cは、入力されたOFDI画像P2に対応するIVUS画像P1を出力する複数のニューロンを有する。図8に示すように、正常画像であるOFDI画像P2が第1生成器81に入力された場合、生成画像である正常なIVUS画像P1が出力される。
 第1生成器81は、訓練用の正常画像であるOFDI画像P2と、訓練用の正常画像であるIVUS画像P1とを関連付けた訓練データを用意し、この訓練データを用いて未学習の学習モデルを学習させることにより生成される。なお、訓練用のOFDI画像P2及びIVUS画像P1は、血管内治療を行う必要があると判断された病変部を含む画像であることが望ましい。本実施形態の画像処理装置3は、訓練用に用意されたOFDI画像P2及びIVUS画像P1を用いて学習を行い、OFDI画像P2からIVUS画像P1を生成する第1生成器81を生成する。
 図9は、第1生成器81の生成方法を示す概念図である。第1生成器81は、例えば識別器81dを用意し、第1生成器81と識別器81dとの敵対的学習により生成することができる。例えば、図9上図に示すように、識別器81dの学習と、第1生成器81との学習を交互に行う。
 識別器81dの学習において、画像処理装置3は、第1生成器81のパラメータを固定した上で訓練用のOFDI画像P2を入力する。訓練用のOFDI画像P2が入力された第1生成器81は、IVUS画像P1を生成して出力する。画像処理装置3は、第1生成器81の入出力に相当するOFDI画像P2(訓練用のOFDI画像P2)及びIVUS画像P1(第1生成器81が生成したIVUS画像P1)のペアを偽データとして、識別器81dに与える。また、画像処理装置3は、訓練データに含まれるOFDI画像P2及びIVUS画像P1のペアを真データとして、識別器81dに与える。画像処理装置3は、偽データが入力された場合に偽値を出力し、真データが入力された場合に真値を出力するように識別器81dのパラメータを最適化する。
 一方、第1生成器81の学習において、画像処理装置3は、識別器81dのパラメータを固定し、図9下図に示すように、第1生成器81の学習を行う。画像処理装置3は、訓練用のOFDI画像P2を第1生成器81に入力し、訓練用のOFDI画像P2と、第1生成器81が生成したIVUS画像P1とを識別器81dに入力した場合に、真偽の確率が50%に近似するように第1生成器81のパラメータを最適化する。このように、第1生成器81の学習と、識別器81dの学習とを敵対的な関係のもとで行うことにより、図8に示すように、OFDI画像P2が入力された場合に、対応するIVUS画像P1を出力することができる第1生成器81が生成される。なお、最適化されるパラメータは、例えばニューロン間の重み(結合係数)等であり、パラメータの最適化には誤差逆伝播法等が用いることができる。
 画像処理装置3は、第1生成器81を用いてIVUS画像P1を生成する際は、第1生成器81のみを用いる。第1生成器81の学習は他の学習装置で行われてもよい。他の学習装置で学習が行われて生成された学習済みの第1生成器81は、例えばネットワーク経由又は記録媒体30経由で学習装置から画像処理装置3にダウンロードされて記憶部32に記憶される。
 図10は、第2生成器82の構成例を示すブロック図である。第2生成器82は、IVUS画像P1からOFDI画像P2を生成する学習モデルである。第2生成器82は、第1生成器81と同様の構成である。第2生成器82は、IVUS画像P1が入力される入力層82aと、IVUS画像P1の特徴量を抽出し、OFDI画像P2を復元する中間層82bと、生成されたOFDI画像P2を出力する出力層82cとを有する。第2生成器82は、pix2pix、CycleGAN、StarGAN等のGAN、VAE(Variational Autoencoder)、CNN(例えばU-net)等のニューラルネットワーク等である。
 第2生成器82は、訓練用の正常画像であるIVUS画像P1と、訓練用の正常画像であるOFDI画像P2とを関連付けた訓練データを用意し、この訓練データを用いて未学習の学習モデルを学習させることにより生成される。なお、訓練用のIVUS画像P1及びOFDI画像P2は、血管内治療を行う必要があると判断された病変部を含む画像であることが望ましい。本実施形態の画像処理装置3は、訓練用に用意されたIVUS画像P1及びOFDI画像P2を用いて学習を行い、IVUS画像P1からOFDI画像P2を生成する第2生成器82を生成する。
<画像処理手順>
 図11及び図12は、本実施形態に係る画像処理手順を示すフローチャート、図13は、IVUS画像P1及びOFDI画像P2の補正方法を示す概念図である。画像処理装置3の超音波ラインデータ生成部33及び光ラインデータ生成部34は、超音波送受信部12aから出力される反射波データ、光送受信部12bから出力される反射光及び参照光の干渉により得られる干渉光データに基づいて、複数本の超音波ラインデータ及び光ラインデータを生成する(ステップS111)。複数本の超音波ラインデータ及び光ラインデータには、例えば観察時間の時系列順にライン番号が付されている。ライン番号は、観察時点に相当する。言い換えると、ライン番号は観察位置及び観察方向に相当する。
 次いで処理部31は、超音波ラインデータに基づいて複数フレームのIVUS画像P1を構築し、光ラインデータに基づいて複数フレームのOFDI画像P2を構築する(ステップS112)。複数フレームのIVUS画像P1及びOFDI画像P2には、例えば観察時間の時系列順にフレーム番号が付されている。フレーム番号は、観察位置に相当する。複数フレームのIVUS画像P1及びOFDI画像P2は、プローブ11の先端側から基端側に亘る複数の観察位置で血管を観察して得た画像に相当する。但し、超音波送受信部12a及び光送受信部12bの配置、超音波又は光の送受信方向が異なるため、同一フレーム番号が付されたIVUS画像P1及びOFDI画像P2の観察位置は必ずしも一致していない。言い換えると、IVUS画像P1と、OFDI画像P2とは、血管の走行方向に位置ずれしている。また、同様の理由により、IVUS画像P1と、OFDI画像P2とは、血管の周方向にも位置ずれしている。
 なお、ステップS111及びステップS112の処理を実行する処理部31、超音波ラインデータ生成部33及び光ラインデータ生成部34は、IVUS画像P1(超音波断層画像)及びOFDI画像P2(光干渉断層画像)を同時的に取得する取得部として機能する。図13左図は、取得された複数のIVUS画像P1及びOFDI画像P2を示している。
 次いで、処理部31は、IVUS画像P1をIVUS画像認識学習モデル71に入力することによって、IVUS画像P1における内腔画像を認識する(ステップS113)。処理部31は、複数フレームのIVUS画像P1それぞれについて、画像認識処理を実行する。なお、IVUS画像認識学習モデル71から出力されるオブジェクト抽出IVUS画像P1’には、入力したIVUS画像P1と同じフレーム番号又は同様のフレーム番号が付されている。
 また、処理部31は、OFDI画像P2をOFDI画像認識学習モデル72に入力することによって、OFDI画像P2における内腔画像を認識する(ステップS114)。処理部31は、複数フレームのOFDI画像P2それぞれについて、画像認識処理を実行する。なお、OFDI画像認識学習モデル72から出力されるオブジェクト抽出OFDI画像P2’には、入力したOFDI画像P2と同じフレーム番号又は同様のフレーム番号が付されている。
 IVUS画像認識学習モデル71及びOFDI画像認識学習モデル72により認識することができるオブジェクト画像は必ずしも同一では無いが、処理部31は、少なくともIVUS画像P1における内腔画像と、OFDI画像P2における内腔画像とを認識することができる。
 次いで、処理部31は、剛体レジストレーションにより、オブジェクト抽出IVUS画像P1’に基づく3次元内腔画像と、オブジェクト抽出OFDI画像P2’に基づく3次元内腔画像との位置及び向きを合致させる、3次元内腔画像の平行移動量及び回転量を特定する(ステップS115)。つまり、処理部31は、複数フレームのIVUS画像P1における内腔画像と、複数フレームのOFDI画像P2における内腔画像とが合致するフレーム番号の対応関係を特定する。また、処理部31は、IVUS画像P1における内腔画像の向きと、OFDI画像P2における内腔画像の向きとを合致させる、IVUS画像P1又はOFDI画像P2の回転量を特定する。
 複数フレームのオブジェクト抽出IVUS画像P1’は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、当該複数フレームのオブジェクト抽出IVUS画像P1’に含まれる内腔領域の画像に基づいて、3次元内腔画像を構成することができる。同様に、複数フレームのオブジェクト抽出OFDI画像P2’は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、当該複数フレームのオブジェクト抽出OFDI画像P2’に含まれる内腔領域の画像に基づいて、3次元内腔画像を構成することができる。そして、処理部31は、例えば、剛体レジストレーションにより、オブジェクト抽出IVUS画像P1’に基づく3次元内腔画像を平行移動させ、周方向に回転させることによって、3次元内腔画像の位置及び向きが合致する平行移動量及び回転量を特定する。具体的には、処理部31は、3次元座標系における2つの3次元内腔画の類似度又は相違度を算出し、類似度が最大又は相違度が最小になる平行移動量及び回転量を特定する。類似度としては、例えば正規化相互相関等を用いればよい。相違度としては、残差2乗和等を用いればよい。なお、処理部31は、3次元内腔画像の輪郭の類似度又は相違度を算出すればよい。
 図14は、IVUS画像P1及びOFDI画像P2の対応付け方法を概念的に示す説明図である。剛体レジストレーションによる3次元内腔画像の平行移動は、IVUS画像P1のフレーム番号と、OFDI画像P2のフレーム画像との対応関係の補正に相当する。また、3次元内腔画像の回転は、IVUS画像P1における画像の回転処理に相当する。
 処理部31は、IVUS画像P1と、OFDI画像P2との対応関係を補正する(ステップS116)。つまり、同じ観察位置で撮像されたIVUS画像P1のフレーム画像と、OFDI画像P2のフレーム画像とを対応付ける。具体的には、同じ観察位置で撮像されたIVUS画像P1のフレーム番号と、OFDI画像P2のフレーム番号とを対応付ける。ステップS115で特定された平行移動量は、同じ観察位置で撮像されたIVUS画像P1のフレーム番号と、OFDI画像P2のフレーム番号との差分に相当するため、当該差分に当たるフレーム数を加減算することによって、IVUS画像P1と、OFDI画像P2とを対応付けることができる。なお、画像処理装置3は、平行移動量と、フレーム番号の差分との対応関係を記憶している。また、ステップS115で特定された回転量は、IVUS画像P1と、OFDI画像P2の向きのずれ量、つまり回転角度のずれ量に相当するため、処理部31は、当該ずれ量分だけIVUS画像P1を画像回転させることによって、IVUS画像P1及びOFDI画像P2の向きを揃えることができる。
 なお、3次元内腔画像の剛体レジストレーションによる観察位置及び観察方向の補正について説明したが、3次元内腔画像を構成せずに、オブジェクト抽出IVUS画像P1’及びオブジェクト抽出OFDI画像P2’を直接的に比較することによって、観察位置、観察方向及びスケールを補正してもよい。
 平行移動前においては、第nフレームのIVUS画像P1と、第nフレームのOFDI画像P2とが対応付けられているものとする。nは1以上の整数である。処理部31は、例えば対応するフレーム番号のオブジェクト抽出IVUS画像P1’における内腔領域と、オブジェクト抽出OFDI画像P2’における内腔領域との類似度又は相違度を算出する。処理部31は、所定数のオブジェクト抽出IVUS画像P1’及びオブジェクト抽出OFDI画像P2’について、内腔領域の類似度又は相違度を算出する。次いで、処理部31は、第(n+α)フレームのオブジェクト抽出IVUS画像P1’における内腔領域と、第nフレームのオブジェクト抽出OFDI画像P2’における内腔領域との類似度又は相違度を同様にして算出する。αは整数であり、3次元内腔画像の平行移動量に相当する。処理部31は、変数αを1ずるインクリメントしながら、オブジェクト抽出IVUS画像P1’と、オブジェクト抽出OFDI画像P2’との対応関係を検証する。
 また、処理部31は、内腔領域を対比する際、オブジェクト抽出IVUS画像P1’における内腔領域の向きを周方向に角度補正量θだけ回転させる。角度補正量θは、3次元内腔画像の回転量に相当する。なお、回転中心はオブジェクト抽出IVUS画像P1’の中心では無く、センサ部12の中心に相当する位置を中心にして回転させる。処理部31は、変数αと共に、角度補正量θを所定量ずつ変化させながら、オブジェクト抽出IVUS画像P1’及びオブジェクト抽出OFDI画像P2’における内腔領域の類似度又は相違度を算出し、類似度が最大になる、又は相違度が最小になる変数α、及び角度補正量θを特定する。そして、処理部31は特定した変数α、及び角度補正量θを記憶する。
 ステップS116の処理を終えた処理部31は、ステップS111及びステップS112の処理で取得した複数のIVUS画像P1をIVUS不良検出学習モデル61に入力することによって、各IVUS画像P1が不良画像であるか否かを判定する(ステップS117)。同様に、処理部31は、ステップS111及びステップS112の処理で取得した複数のOFDI画像P2をOFDI不良検出学習モデル62に入力することによって、各OFDI画像P2が不良画像であるか否かを判定する(ステップS118)。
 図13中央の図において、太枠で囲まれたフレームは、不良画像と判定されたIVUS画像P1及びOFDI画像P2のフレームを示している。
 処理部31は、ステップS117の検出結果に基づいて、IVUS画像P1の画像不良の有無を判定する(ステップS119)。なお、ステップS119の処理を実行する処理部31は、取得したIVUS画像P1の画像不良を判定する判定部として機能する。
 画像不良のIVUS画像P1があると判定した場合(ステップS119:YES)、処理部31は、画像不良と判定されたIVUS画像P1に対応する正常なOFDI画像P2を特定し、対応する正常なOFDI画像P2を第1生成器81に入力することによって、対応する正常なIVUS画像P1を生成及び出力させる(ステップS120)。なお、画像不良と判定されたIVUS画像P1に対応するOFDI画像P2は、画像不良と判定されたIVUS画像P1と略同一の観察位置及び観察方向で得られたOFDI画像P2である。つまりステップS116で補正済みの、IVUS画像P1と対応関係にあるOFDI画像P2である。処理部31は、第1生成器81から出力されたIVUS画像P1を用いて、画像不良と判定されたIVUS画像P1を補正する(ステップS121)。例えば、処理部31は、図13右図に示すように、画像不良と判定されたIVUS画像P1を、生成したIVUS画像P1に置換することによって補正する。なお、処理部31は、画像不良と判定されたIVUS画像P1と、生成したIVUS画像P1とを合成する等、任意の公知の画像補正方法を用いて補正するように構成してもよい。なお、画像不良と判定された複数のIVUS画像P1がある場合、処理部31は、複数のIVUS画像P1それぞれに対してステップS120及びステップS121の処理を実行し、IVUS画像P1を補正する。
 ステップS121の処理を終えた場合、又はステップS119において画像不良のIVUS画像P1が無いと判定した場合(ステップS119:NO)、処理部31は、ステップS118の検出結果に基づいて、OFDI画像P2の画像不良の有無を判定する(ステップS122)。なお、ステップS122の処理を実行する処理部31は、取得したOFDI画像P2の画像不良を判定する判定部として機能する。
 画像不良のOFDI画像P2があると判定した場合(ステップS122:YES)、処理部31は、画像不良と判定されたOFDI画像P2に対応する正常なIVUS画像P1を特定し、対応する正常なIVUS画像P1を第2生成器82に入力することによって、対応する正常なOFDI画像P2を生成及び出力させる(ステップS123)。なお、画像不良と判定されたOFDI画像P2に対応するIVUS画像P1は、画像不良と判定されたOFDI画像P2と略同一の観察位置及び観察方向で得られたIVUS画像P1である。つまりステップS116で補正済みの、OFDI画像P2と対応関係にあるIVUS画像P1である。処理部31は、第2生成器82から出力されたOFDI画像P2を用いて、画像不良と判定されたOFDI画像P2を補正する(ステップS124)。例えば、処理部31は、図13右図に示すように、画像不良と判定されたOFDI画像P2を、生成したOFDI画像P2に置換することによって補正する。なお、処理部31は、画像不良と判定されたOFDI画像P2と、生成したOFDI画像P2とを合成する等、任意の公知の画像補正方法を用いて補正するように構成してもよい。なお、画像不良と判定された複数のOFDI画像P2がある場合、処理部31は、複数のOFDI画像P2それぞれに対してステップS123及びステップS124の処理を実行し、OFDI画像P2を補正する。
 ステップS124の処理を終えた場合、又はステップS122において画像不良のOFDI画像P2が無いと判定した場合(ステップS122:NO)、処理部31は、医用画像信号を表示装置4へ出力し、画像不良が補正されたIVUS画像P1及びOFDI画像P2を表示装置4に表示させる(ステップS125)。
 処理部31は、補正されたIVUS画像P1のフレームに第1枠画像F1を表示し(ステップS126)、補正されたOFDI画像P2のフレームに第2枠画像F2を表示する(ステップS127)。第1枠画像F1及び第2枠画像F2は、異なる色、線種、太さ等を有するように構成してもよい。
 図15は、IVUS画像P1及びOFDI画像P2の第1の画面表示例である。処理部31は、例えば血管の長軸に略垂直な横断面画像であるIVUS画像P1及びOFDI画像P2と、血管の中心軸に略平行な縦断面画像とを上下に並べて表示する。図15に示す例では、遠位側参照部(Ref.Distal)、近位側参照部(Ref.Proximal)及び病変部(MLA:minimum lumen area)におけるIVUS画像P1及びOFDI画像P2が表示されている。上記したように、補正されたIVUS画像P1は第1枠画像F1で囲まれ、補正されたOFDI画像P2は第2枠画像F2によって囲まれている。ユーザは、第1枠画像F1及び第2枠画像F2によって、表示されているIVUS画像P1及びOFDI画像P2のうち、補正されているIVUS画像P1及びOFDI画像P2を認識することができる。
 図16は、IVUS画像P1及びOFDI画像P2の第2の画面表示例である。処理部31は、例えばIVUS画像P1及びOFDI画像P2と、血管の中心軸に略平行な縦断面画像とを上下に並べて表示する。図16に示す例では、処理部31は、補正前の不良画像であるIVUS画像P1と、補正されたIVUS画像P1との双方を表示する。同様に、処理部31は、補正前の不良画像であるOFDI画像P2と、補正後されたOFDI画像P2との双方を表示する。なお、処理部31は、入力装置5にて表示切替操作を受け付けた場合、補正前の不良画像であるIVUS画像P1及びOFDI画像P2と、補正後のIVUS画像P1及びOFDI画像P2とを切り替えて表示するように構成してもよい。また、処理部31は、入力装置5にて所定走査を受け付けた場合、例えば、補正後のIVUS画像P1又はOFDI画像P2がクリック操作された場合、補正前のIVUS画像P1又はOFDI画像P2を表示するように構成してもよい。
 以上の通り、本実施形態に係る画像処理装置3等によれば、IVUS機能及びOFDI機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像P1及びOFDI画像P2の不良を補正することができる。
 また、複数のIVUS画像P1及びOFDI画像P2が検出された場合であっても、これらの複数のIVUS画像P1及びOFDI画像P2を補正することができる。
 画像不良のIVUS画像P1に対応する正常なOFDI画像P2があれば、第1生成器81を用いて、IVUS画像P1を補正することができる。
 同様に、画像不良のOFDI画像P2に対応する正常なIVUS画像P1があれば、第2生成器82を用いて、OFDI画像P2を補正することができる。
 IVUS機能及びOFDI機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像P1及びOFDI画像P2の観察位置及び観察方向を整合させた上で、IVUS画像P1及びOFDI画像P2を補正する構成であるため、より正確に画像不良のIVUS画像P1及びOFDI画像P2を補正することができる。
 また、図15に示すように、処理部31は、補正されたIVUS画像P1に第1枠画像F1を表示することによって、ユーザは、表示装置4に表示されているIVUS画像P1が補正された画像であるか否かを認識できる。同様に、処理部31は、補正されたOFDI画像P2に第2枠画像F2を表示することによって、ユーザは、表示装置4に表示されているOFDI画像P2が補正された画像であるか否かを認識できる。
 更に、図16に示すように、処理部31は、補正されたIVUS画像P1と共に補正前のIVUS画像P1を表示することができる。同様に、補正されたOFDI画像P2と共に補正前のOFDI画像P2を表示することができる。ユーザは、補正前後のIVUS画像P1及びOFDI画像P2を用いて、より正確に血管の状態を認識することができる。
 なお、本実施形態では、学習モデルであるIVUS不良検出学習モデル61及びOFDI不良検出学習モデル62を用いて、IVUS画像P1及びOFDI画像P2の画像不良を検出する例を説明したが、ルールベースの処理で画像不良を検出するように構成してもよい。例えば、処理部31は、IVUS画像P1に含まれる典型的なパターン画像の有無、例えば二重リング画像の有無をパターンマッチング等の処理によって検出し、画像不良を検出するように構成してもよい。また、処理部31は、OFDI画像P2の平均輝度値と、所定閾値とを比較することによって、OFDI画像P2の画像不良を検出するように構成してもよい。より具体的には、平均輝度値が所定閾値未満のOFDI画像P2を不良画像として検出するとよい。
 また、本実施形態では、IVUS画像認識学習モデル71及びOFDI画像認識学習モデル72を用いて、IVUS画像P1及びOFDI画像P2における内腔画像を認識する例を説明したが、2値化、エッジ検出、パターンマッチング等の画像処理によって、内腔画像の輪郭を抽出するようにしてもよい。
 更に、IVUS画像P1及びOFDI画像P2の観察位置及び観察方向の補正を行うことを説明したが、合わせて径方向のスケール補正を行ってもよい。
 更にまた、IVUS画像P1及びOFDI画像P2の対応付けをフレーム画像単位で行う例を説明したが、超音波ラインデータ及び光ラインデータベースで、観察位置及び観察方向を対応付ける補正を行い、各ラインデータの対応付けを行った後にIVUS画像P1及びOFDI画像P2を構成するように構成してもよい。
 1   画像診断用カテーテル
 2   MDU
 3   画像処理装置
 4   表示装置
 5   入力装置
 11 プローブ
 12 センサ部
 12a 超音波送受信部
 12b 光送受信部
 12c ハウジング
 13 シャフト
 14 ガイドワイヤ挿通部
 15 コネクタ部
 30 記録媒体
 31 処理部
 32 記憶部
 33 超音波ラインデータ生成部
 34 光ラインデータ生成部
 61 IVUS不良検出学習モデル
 62 OFDI不良検出学習モデル
 71 IVUS画像認識学習モデル
 72 OFDI画像認識学習モデル
 81 第1生成器
 82 第2生成器
 P1 IVUS画像
 P1’ オブジェクト抽出IVUS画像
 P2 OFDI画像
 P2’ オブジェクト抽出OFDI画像
 100 画像診断装置
 101 血管内検査装置
 102 血管造影装置
 

Claims (8)

  1.  超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得し、
     取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定し、
     前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、
     前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する
     処理をコンピュータに実行させるためのコンピュータプログラム。
  2.  前記センサ部を前記管腔器官の走行方向に沿って移動させながら複数の前記超音波断層画像及び複数の前記光干渉断層画像を取得し、
     複数の前記超音波断層画像及び複数の前記光干渉断層画像それぞれの画像不良を判定し、不良と判定された前記超音波断層画像及び前記光干渉断層画像それぞれを補正する
     請求項1に記載のコンピュータプログラム。
  3.  前記学習モデルは、
     前記光干渉断層画像を入力した場合に対応する前記超音波断層画像を出力するように学習済みの第1学習モデルと
     前記超音波断層画像を入力した場合に対応する前記光干渉断層画像を出力するように学習済みの第2学習モデルと、
     を含み、
     前記第1学習モデルに、画像不良と判定された前記超音波断層画像に対応する前記光干渉断層画像を入力することによって、対応する正常な前記超音波断層画像を出力させると共に、前記第2学習モデルに、画像不良と判定された前記光干渉断層画像に対応する前記超音波断層画像を入力することによって、対応する正常な前記光干渉断層画像を出力させ、
     前記第1学習モデル及び前記第2学習モデルから出力された前記超音波断層画像及び前記光干渉断層画像を用いて、画像不良と判定された前記超音波断層画像及び前記光干渉断層画像を補正する
     請求項2に記載のコンピュータプログラム。
  4.  複数の前記超音波断層画像に含まれる第1オブジェクト画像と、複数の前記光干渉断層画像に含まれる第2オブジェクト画像とを比較することによって、不良画像と判定された前記超音波断層画像(又は前記光干渉断層画像)と略同一の観察位置の断層像である前記光干渉断層画像(又は前記超音波断層画像)を特定し、
     特定された前記光干渉断層画像(又は前記超音波断層画像)を前記学習モデルに入力することによって、前記超音波断層画像(又は前記光干渉断層画像)を出力させる
     請求項1から請求項3のいずれか1項に記載のコンピュータプログラム。
  5.  前記超音波断層画像又は前記光干渉断層画像の補正の有無を画像表示する
     請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。
  6.  補正前の前記超音波断層画像又は前記光干渉断層画像と、補正後の前記超音波断層画像又は前記光干渉断層画像との双方を表示する
     請求項1から請求項5のいずれか1項に記載のコンピュータプログラム。
  7.  超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得し、
     取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定し、
     前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、
     前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する
     画像処理方法。
  8.  超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部を用いて管腔器官の超音波断層画像及び光干渉断層画像を同時的に取得する取得部と、
     前記取得部にて取得した前記超音波断層画像又は前記光干渉断層画像の画像不良を判定する判定部と、
     前記光干渉断層画像(又は前記超音波断層画像)を入力した場合に、対応する超音波断層画像(又は光干渉断層画像)を出力するように学習済みの学習モデルと、
     前記学習モデルに、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)に対応する正常な前記光干渉断層画像(又は前記超音波断層画像)を入力することによって、対応する正常な前記超音波断層画像(又は前記光干渉断層画像)を出力させ、前記学習モデルから出力された前記超音波断層画像(又は前記光干渉断層画像)を用いて、画像不良と判定された前記超音波断層画像(又は前記光干渉断層画像)を補正する処理部と
     を備える画像処理装置。
     
PCT/JP2023/000016 2022-01-06 2023-01-04 コンピュータプログラム、画像処理方法及び画像処理装置 WO2023132332A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023572474A JPWO2023132332A1 (ja) 2022-01-06 2023-01-04

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-001257 2022-01-06
JP2022001257 2022-01-06

Publications (1)

Publication Number Publication Date
WO2023132332A1 true WO2023132332A1 (ja) 2023-07-13

Family

ID=87073667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000016 WO2023132332A1 (ja) 2022-01-06 2023-01-04 コンピュータプログラム、画像処理方法及び画像処理装置

Country Status (2)

Country Link
JP (1) JPWO2023132332A1 (ja)
WO (1) WO2023132332A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041579A1 (ja) * 2012-09-11 2014-03-20 テルモ株式会社 画像診断装置及び画像処理方法
JP2014180575A (ja) * 2013-03-15 2014-09-29 Lightlab Imaging Inc プローブ、システム及び画像を整合する方法(プローブ)
JP2015535723A (ja) * 2012-10-05 2015-12-17 ナサニエル ジェイ. ケンプ, パラメータ確立、再生、およびアーチファクト除去3次元撮像のための方法およびシステム
WO2021193008A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 プログラム、情報処理方法、情報処理装置及びモデル生成方法
WO2021193026A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 プログラム、情報処理方法、情報処理装置及びモデル生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041579A1 (ja) * 2012-09-11 2014-03-20 テルモ株式会社 画像診断装置及び画像処理方法
JP2015535723A (ja) * 2012-10-05 2015-12-17 ナサニエル ジェイ. ケンプ, パラメータ確立、再生、およびアーチファクト除去3次元撮像のための方法およびシステム
JP2014180575A (ja) * 2013-03-15 2014-09-29 Lightlab Imaging Inc プローブ、システム及び画像を整合する方法(プローブ)
WO2021193008A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 プログラム、情報処理方法、情報処理装置及びモデル生成方法
WO2021193026A1 (ja) * 2020-03-27 2021-09-30 テルモ株式会社 プログラム、情報処理方法、情報処理装置及びモデル生成方法

Also Published As

Publication number Publication date
JPWO2023132332A1 (ja) 2023-07-13

Similar Documents

Publication Publication Date Title
US20230230244A1 (en) Program, model generation method, information processing device, and information processing method
WO2021199968A1 (ja) コンピュータプログラム、情報処理方法、情報処理装置及びモデル生成方法
US20240013514A1 (en) Information processing device, information processing method, and program
US20240013385A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
JP2021041029A (ja) 診断支援装置、診断支援システム、及び診断支援方法
US20240013386A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
JP7489882B2 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
US20240013434A1 (en) Program, information processing method, and information processing device
US20230222655A1 (en) Program, information processing device, and information processing method
WO2023132332A1 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
US20230017227A1 (en) Program, information processing method, information processing apparatus, and model generation method
WO2023054467A1 (ja) モデル生成方法、学習モデル、コンピュータプログラム、情報処理方法及び情報処理装置
JP2022146621A (ja) コンピュータプログラム、画質改善学習モデル、学習モデル生成方法、画像処理方法及び画像処理装置
WO2022209652A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP2024523449A (ja) 生体内ナビゲーションのための機械学習を利用するシステムおよび方法
WO2023189308A1 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
WO2022202320A1 (ja) プログラム、情報処理方法及び情報処理装置
WO2022209705A1 (ja) プログラム、画像処理方法及び画像処理装置
JP7548852B2 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
JP2022146619A (ja) コンピュータプログラム、画像処理方法及び画像処理装置
WO2024202465A1 (ja) プログラム、画像処理方法及び画像処理装置
US20240008849A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
JP2020092816A (ja) 医用画像処理装置、x線ct装置及び医用画像処理方法
WO2024071322A1 (ja) 情報処理方法、学習モデルの生成方法、コンピュータプログラム及び情報処理装置
JP2024142137A (ja) プログラム、画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23737283

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023572474

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE