WO2022209705A1 - プログラム、画像処理方法及び画像処理装置 - Google Patents

プログラム、画像処理方法及び画像処理装置 Download PDF

Info

Publication number
WO2022209705A1
WO2022209705A1 PCT/JP2022/010572 JP2022010572W WO2022209705A1 WO 2022209705 A1 WO2022209705 A1 WO 2022209705A1 JP 2022010572 W JP2022010572 W JP 2022010572W WO 2022209705 A1 WO2022209705 A1 WO 2022209705A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
angle
signal data
ivus
data set
Prior art date
Application number
PCT/JP2022/010572
Other languages
English (en)
French (fr)
Inventor
由希子 土井
昌典 時田
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to JP2023510795A priority Critical patent/JPWO2022209705A1/ja
Publication of WO2022209705A1 publication Critical patent/WO2022209705A1/ja
Priority to US18/476,787 priority patent/US20240016460A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4438Means for identifying the diagnostic device, e.g. barcodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/445Details of catheter construction

Definitions

  • the present invention relates to a program, an image processing method, and an image processing apparatus.
  • PCI percutaneous coronary intervention
  • a catheter is inserted into a blood vessel from the wrist, elbow, or groin, and a balloon or stent is used to dilate a narrowed portion of a coronary artery.
  • the catheter is equipped with, for example, a sensor for intravascular ultrasound (IVUS: Intra Vascular Ultra Sound) examination, and the operator confirms the stenosis site in the blood vessel with an IVUS image taken from the inside of the blood vessel with the IVUS sensor. can do.
  • IVUS Intra Vascular Ultra Sound
  • Some catheters are provided with a sensor for optical coherence tomography (OCT) using near-infrared light.
  • OCT optical coherence tomography
  • the IVUS sensor and the OCT sensor are provided at different positions in the longitudinal direction of the catheter (running direction of the blood vessel). Therefore, a deviation occurs between the observation position by the IVUS sensor and the observation position by the OCT sensor at the same imaging timing. Therefore, interpretation of the IVUS and OCT images becomes complicated, and there is a risk that the accuracy of the procedure performed while confirming the IVUS and OCT images may decrease.
  • a contrast marker made of an X-ray opaque substance is provided on the catheter, and the position of the catheter is confirmed by the contrast marker reflected in the X-ray image, and the stenosis site is confirmed by IVUS or OCT images.
  • the IVUS sensor or OCT sensor and the contrast marker are provided at different positions in the longitudinal direction of the catheter. A deviation occurs between the observed position by the sensor or the OCT sensor. Therefore, even with such a configuration, interpretation of IVUS images or OCT images is complicated.
  • the object is to provide a program or the like that can provide images that are easy to interpret based on images taken using a catheter.
  • a program acquires a signal data set by a first inspection wave irradiated in a direction inclined by a first angle with respect to the longitudinal direction of an imaging core used in a catheter, and based on the acquired signal data set and causing the computer to execute a process of constructing an image in which an observation target is in a direction tilted at a second angle different from the first angle with respect to the major axis direction.
  • an image that is easy for the operator to interpret can be provided based on the image captured using the catheter.
  • FIG. 1 is an explanatory diagram showing a configuration example of an image diagnostic apparatus
  • FIG. FIG. 2 is an explanatory diagram for explaining an outline of a diagnostic imaging catheter
  • FIG. 4 is an explanatory view showing a cross section of a blood vessel through which a sensor section is passed
  • FIG. 4 is an explanatory diagram for explaining a tomographic image
  • FIG. 4 is an explanatory diagram for explaining a tomographic image
  • 1 is a block diagram showing a configuration example of an image processing apparatus
  • FIG. FIG. 10 is an explanatory diagram for explaining deviation of an observation position by an IVUS sensor and an OCT sensor
  • FIG. 10 is an explanatory diagram for explaining deviation of an observation position by an IVUS sensor and an OCT sensor
  • FIG. 10 is an explanatory diagram for explaining deviation of an observation position by an IVUS sensor and an OCT sensor
  • FIG. 10 is an explanatory diagram for explaining a process of correcting a shift in observation position;
  • FIG. 10 is an explanatory diagram for explaining a process of correcting a shift in observation position;
  • 7 is a flowchart illustrating an example of a tomographic image correction processing procedure;
  • FIG. 10 is an explanatory diagram of a method of calculating a deviation amount of an observation position according to a distance from the center of rotation of the sensor unit;
  • FIG. 10 is an explanatory diagram showing an example of calculation results of the number of correction frames according to each distance;
  • FIG. 11 is a block diagram showing a configuration example of an image processing apparatus according to a second embodiment;
  • FIG. 10 is a flowchart illustrating an example of a tomographic image correction processing procedure according to the second embodiment;
  • FIG. 11 is a block diagram showing a configuration example of an image processing apparatus and a server according to Embodiment 3;
  • FIG. 3 is a schematic diagram showing a configuration example of a catheter DB;
  • 11 is a flow chart showing an example of a tomographic image correction processing procedure according to the third embodiment.
  • FIG. 4 is a schematic diagram showing a configuration example of a learning model;
  • FIG. 11 is a flowchart showing an example of a learning model generation processing procedure;
  • FIG. 14 is a flowchart showing an example of a tomographic image correction processing procedure according to the fourth embodiment;
  • FIG. 4 is an explanatory diagram for explaining deviation of an observation position from an IVUS sensor with respect to a marker;
  • FIG. 4 is an explanatory diagram for explaining deviation of an observation position from an IVUS sensor with respect to a marker;
  • FIG. 10 is an explanatory diagram for explaining a process of correcting a shift in observation position
  • FIG. 10 is an explanatory diagram for explaining a process of correcting a shift in observation position
  • FIG. 12 is a flowchart showing an example of a tomographic image correction processing procedure according to the fifth embodiment
  • cardiac catheterization which is intravascular treatment
  • lumenal organs targeted for catheterization are not limited to blood vessels. It may be a hollow organ.
  • FIG. 1 is an explanatory diagram showing a configuration example of an image diagnostic apparatus 100.
  • an image diagnostic apparatus using a dual-type catheter having both intravascular ultrasound (IVUS) and optical coherence tomography (OCT) functions will be described.
  • Dual-type catheters are provided with a mode for acquiring ultrasound tomographic images only by IVUS, a mode for acquiring optical coherence tomographic images only by OCT, and a mode for acquiring both tomographic images by IVUS and OCT. , you can switch between these modes.
  • an ultrasound tomographic image and an optical coherence tomographic image will be referred to as an IVUS image and an OCT image, respectively.
  • IVUS images and OCT images are collectively referred to as tomographic images.
  • the diagnostic imaging apparatus 100 of this embodiment includes an intravascular examination apparatus 101 , an angiography apparatus 102 , an image processing apparatus 3 , a display apparatus 4 and an input apparatus 5 .
  • An intravascular examination apparatus 101 includes a diagnostic imaging catheter 1 and an MDU (Motor Drive Unit) 2 .
  • the diagnostic imaging catheter 1 is connected to the image processing device 3 via the MDU 2 .
  • a display device 4 and an input device 5 are connected to the image processing device 3 .
  • the display device 4 is, for example, a liquid crystal display or an organic EL display
  • the input device 5 is, for example, a keyboard, mouse, trackball, microphone, or the like.
  • the display device 4 and the input device 5 may be laminated integrally to form a touch panel.
  • the input device 5 and the image processing device 3 may be configured integrally.
  • the input device 5 may be a sensor that accepts gesture input, line-of-sight input, or the like.
  • the angiography device 102 is connected to the image processing device 3.
  • the angiography apparatus 102 is an angiography apparatus for obtaining an angiographic image, which is a fluoroscopic image of the blood vessel, by imaging the blood vessel using X-rays from outside the patient's body while injecting a contrast medium into the patient's blood vessel.
  • the angiography apparatus 102 includes an X-ray source and an X-ray sensor, and the X-ray sensor receives X-rays emitted from the X-ray source to image a patient's X-ray fluoroscopic image (X-ray image).
  • the diagnostic imaging catheter 1 is provided with a marker composed of an X-ray opaque material that does not transmit X-rays, and the position of the diagnostic imaging catheter 1 (marker) is visualized in the angiographic image.
  • the angiography apparatus 102 outputs an angiographic image obtained by imaging to the image processing device 3 and displayed on the display device 4 via the image processing device 3 .
  • the display device 4 displays an angiographic image and a tomographic image captured using the diagnostic imaging catheter 1 .
  • FIG. 2 is an explanatory diagram for explaining the outline of the diagnostic imaging catheter 1.
  • FIG. The upper one-dot chain line area in FIG. 2 is an enlarged view of the lower one-dot chain line area.
  • the diagnostic imaging catheter 1 has a probe 11 and a connector portion 15 arranged at the end of the probe 11 .
  • the probe 11 is connected to the MDU 2 via the connector section 15 .
  • the side far from the connector portion 15 of the diagnostic imaging catheter 1 is referred to as the distal end side, and the connector portion 15 side is referred to as the proximal end side.
  • the probe 11 has a catheter sheath 11a, and a guide wire insertion portion 14 through which a guide wire can be inserted is provided at the distal end thereof.
  • the guidewire insertion part 14 constitutes a guidewire lumen, receives a guidewire previously inserted into the blood vessel, and is used to guide the probe 11 to the affected part by the guidewire.
  • the catheter sheath 11 a forms a continuous tube portion from the connection portion with the guide wire insertion portion 14 to the connection portion with the connector portion 15 .
  • a shaft 13 is inserted through the catheter sheath 11 a , and a sensor section 12 is connected to the distal end of the shaft 13 .
  • the sensor section 12 has a housing 12d, and the distal end side of the housing 12d is formed in a hemispherical shape to suppress friction and catching with the inner surface of the catheter sheath 11a.
  • an ultrasonic transmission/reception unit 12a (hereinafter referred to as an IVUS sensor 12a) for transmitting ultrasonic waves into the blood vessel and receiving reflected waves from the blood vessel
  • An optical transmitter/receiver 12b (hereinafter referred to as an OCT sensor 12b) for receiving reflected light from inside the blood vessel is arranged.
  • an IVUS sensor 12a is provided on the distal end side of the probe 11
  • an OCT sensor 12b is provided on the proximal end side.
  • the IVUS sensor 12a and the OCT sensor 12b are attached in a direction that is approximately 90 degrees to the axial direction of the shaft 13 (the radial direction of the shaft 13) as the transmitting/receiving direction of ultrasonic waves or near-infrared light. It is The IVUS sensor 12a and the OCT sensor 12b are desirably installed with a slight displacement from the radial direction so as not to receive reflected waves or reflected light from the inner surface of the catheter sheath 11a. In the present embodiment, for example, as indicated by the arrow in FIG.
  • the IVUS sensor 12a emits ultrasonic waves in a direction inclined toward the proximal side with respect to the radial direction, and the OCT sensor 12b It is attached so that the direction inclined toward the tip side is the irradiation direction of the near-infrared light.
  • An electric signal cable (not shown) connected to the IVUS sensor 12a and an optical fiber cable (not shown) connected to the OCT sensor 12b are inserted into the shaft 13.
  • the probe 11 is inserted into the blood vessel from the tip side.
  • the sensor unit 12 and the shaft 13 can move forward and backward inside the catheter sheath 11a, and can rotate in the circumferential direction.
  • the sensor unit 12 and the shaft 13 rotate around the central axis of the shaft 13 as a rotation axis.
  • an ultrasonic tomographic image IVUS image
  • OCT image optical interference image
  • the MDU 2 is a driving device to which the probe 11 (catheter 1 for diagnostic imaging) is detachably attached via the connector portion 15. By driving the built-in motor according to the operation of the medical staff, the image inserted into the blood vessel is displayed. It controls the operation of the diagnostic catheter 1 .
  • the MDU 2 performs a pullback operation in which the sensor unit 12 and the shaft 13 inserted into the probe 11 are pulled toward the MDU 2 side at a constant speed and rotated in the circumferential direction.
  • the sensor unit 12 continuously scans the inside of the blood vessel at predetermined time intervals while rotating while moving from the distal end side to the proximal end side by a pullback operation, thereby obtaining a plurality of transverse layer images substantially perpendicular to the probe 11 . are taken continuously at predetermined intervals.
  • the MDU 2 outputs the ultrasonic reflected wave data received by the IVUS sensor 12 a and the reflected light data received by the OCT sensor 12 b to the image processing device 3 .
  • the image processing device 3 acquires reflected wave data of ultrasonic waves received by the IVUS sensor 12a via the MDU 2 and reflected light data received by the OCT sensor 12b.
  • the image processing device 3 generates ultrasonic line data, which is a signal data set, from reflected ultrasonic wave data, and produces an ultrasonic tomographic image (IVUS image) obtained by imaging a transverse layer of a blood vessel based on the generated ultrasonic line data. to build.
  • the image processing device 3 also generates optical line data, which is a signal data set, from the reflected light data, and constructs an optical tomographic image (OCT image) of the cross-sectional layer of the blood vessel based on the generated optical line data.
  • FIG. 3 is an explanatory view showing a cross section of a blood vessel through which the sensor section 12 is passed
  • FIGS. 4A and 4B are explanatory views explaining tomographic images.
  • the operations of the IVUS sensor 12a and the OCT sensor 12b in the blood vessel and the signal data sets (ultrasound line data and optical line data) acquired by the IVUS sensor 12a and the OCT sensor 12b will be described.
  • the sensor unit 12 rotates about the central axis of the shaft 13 in the direction indicated by the arrow.
  • the IVUS sensor 12a transmits and receives ultrasonic waves at each rotation angle.
  • Lines 1, 2, . . . 512 indicate the transmission and reception directions of ultrasonic waves at each rotation angle.
  • the IVUS sensor 12a intermittently transmits and receives ultrasonic waves 512 times while rotating 360 degrees (one rotation) in the blood vessel. Since the IVUS sensor 12a acquires one line of data (signal data) in the transmission/reception direction by one transmission/reception of ultrasonic waves, 512 ultrasonic line data radially extending from the center of rotation during one rotation. can be obtained. The 512 ultrasonic line data are dense near the center of rotation, but become sparse with distance from the center of rotation. Therefore, the image processing device 3 can construct a two-dimensional ultrasound tomographic image (IVUS image) as shown in FIG. 4A by generating pixels in the empty space of each line by a well-known interpolation process. .
  • IVUS image two-dimensional ultrasound tomographic image
  • the OCT sensor 12b also transmits and receives near-infrared light (measurement light) at each rotation angle. Since the OCT sensor 12b also transmits and receives measurement light 512 times while rotating 360 degrees inside the blood vessel, it is possible to obtain 512 optical line data radially extending from the center of rotation during one rotation. can.
  • the image processing device 3 generates a two-dimensional optical coherence tomographic image (OCT image) similar to the IVUS image shown in FIG. ) can be constructed.
  • a two-dimensional tomographic image constructed from 512 line data in this way is called a one-frame IVUS image or OCT image. Since the sensor unit 12 scans while moving inside the blood vessel, one frame of IVUS image or OCT image is acquired at each position after one rotation within the movement range. That is, since one frame of IVUS image or OCT image is acquired at each position from the distal side to the proximal side of the probe 11 in the movement range, as shown in FIG. 4B, multiple frames of IVUS images or An OCT image is acquired.
  • the IVUS sensor 12a and the OCT sensor 12b each acquire 512 line data, but the number of line data acquired by the IVUS sensor 12a and the OCT sensor 12b is not limited to 512 lines.
  • the diagnostic imaging catheter 1 does not transmit X-rays in order to confirm the positional relationship between the IVUS image obtained by the IVUS sensor 12a or the OCT image obtained by the OCT sensor 12b and the angiographic image obtained by the angiography device 102.
  • markers In the example shown in FIG. 2, a marker 14a is provided at the distal end portion of the catheter sheath 11a, for example, the guide wire insertion portion 14, and a marker 12c is provided at the sensor portion 12 on the shaft 13 side.
  • the diagnostic imaging catheter 1 configured in this manner is photographed with X-rays, an angiographic image in which the markers 14a and 12c are visualized is obtained.
  • the positions at which the markers 14a and 12c are provided are examples, the marker 12c may be provided on the shaft 13 instead of the sensor section 12, and the marker 14a may be provided at a location other than the distal end of the catheter sheath 11a.
  • FIG. 5 is a block diagram showing a configuration example of the image processing device 3.
  • the image processing apparatus 3 is a computer and includes a control section 31 , a main storage section 32 , an input/output I/F 33 , an auxiliary storage section 34 and a reading section 35 .
  • the control unit 31 includes one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), GPGPU (General-purpose computing on graphics processing units), TPU (Tensor Processing Unit), etc. is configured using an arithmetic processing unit.
  • the control unit 31 is connected to each hardware unit constituting the image processing apparatus 3 via a bus.
  • the main storage unit 32 is a temporary storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, etc., and temporarily stores data necessary for the control unit 31 to perform arithmetic processing.
  • SRAM Static Random Access Memory
  • DRAM Dynamic Random Access Memory
  • flash memory etc.
  • the input/output I/F 33 is an interface to which the intravascular examination device 101, the angiography device 102, the display device 4 and the input device 5 are connected.
  • the control unit 31 acquires reflected wave data of ultrasonic waves and reflected light data of measurement light from the intravascular examination apparatus 101 and acquires angiographic images from the angiography apparatus 102 via the input/output I/F 33 .
  • the control unit 31 generates ultrasound line data from reflected wave data acquired from the intravascular examination apparatus 101, and further constructs an IVUS image.
  • the control unit 31 also generates light line data from the reflected light data acquired from the intravascular examination apparatus 101, and constructs an OCT image.
  • control unit 31 displays a medical image on the display device 4 by outputting a medical image signal of an IVUS image, an OCT image, or an angio image to the display device 4 via the input/output I/F 33 . Furthermore, the control unit 31 receives information input to the input device 5 via the input/output I/F 33 .
  • the auxiliary storage unit 34 is a storage device such as a hard disk, EEPROM (Electrically Erasable Programmable ROM), flash memory, or the like.
  • the auxiliary storage unit 34 stores a computer program P executed by the control unit 31 and various data necessary for processing of the control unit 31 .
  • the auxiliary storage unit 34 may be an external storage device connected to the image processing device 3 .
  • the computer program P may be written in the auxiliary storage unit 34 at the manufacturing stage of the image processing apparatus 3, or may be distributed by a remote server apparatus and acquired by the image processing apparatus 3 through communication and stored in the auxiliary storage unit 34. may be stored.
  • the computer program P may be readable and recorded on a recording medium 30 such as a magnetic disk, an optical disk, or a semiconductor memory. good.
  • the image processing device 3 may be a multicomputer including a plurality of computers. Further, the image processing device 3 may be a server client system, a cloud server, or a virtual machine virtually constructed by software. In the following description, it is assumed that the image processing apparatus 3 is one computer. In this embodiment, the image processing device 3 is connected to an angiography device 102 that captures two-dimensional angiographic images. It is not limited to the angiography apparatus 102 as long as it is an apparatus that
  • the control unit 31 reads and executes the computer program P stored in the auxiliary storage unit 34 to generate ultrasound line data from the reflected wave data received by the IVUS sensor 12a. Then, optical line data is generated from the reflected light data received by the OCT sensor 12b. Furthermore, the control unit 31 performs processing for constructing an IVUS image based on the ultrasound line data, and performs processing for constructing an OCT image based on the optical line data. As will be described later, the IVUS sensor 12a and the OCT sensor 12b have different observation positions at the same imaging timing. A process for correcting the deviation of the observation position is performed. Therefore, the image processing apparatus 3 of the present embodiment can construct an IVUS image and an OCT image with matching observation positions, and can provide images that are easy to read.
  • FIGS. 6A and 6B are explanatory diagrams for explaining the observation position shift by the IVUS sensor 12a and the OCT sensor 12b.
  • 6A shows the state of the sensor section 12 viewed from the radial direction of the shaft 13
  • FIG. 6B shows the state of the sensor section 12 viewed from the distal end side of the probe 11.
  • solid line arrows indicate the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a
  • broken line arrows indicate the transmission/reception direction of measurement light by the OCT sensor 12b.
  • the IVUS sensor 12a transmits and receives ultrasonic waves in a direction inclined toward the proximal side with respect to the radial direction of the shaft 13. In the example shown in FIG. It forms an angle .alpha.
  • the OCT sensor 12b has a transmission/reception direction of the measurement light in a direction inclined toward the tip side with respect to the radial direction of the shaft 13, and the transmission/reception direction of the measurement light is at an angle ⁇ is making In such an IVUS sensor 12a and OCT sensor 12b, as shown in FIG.
  • the path of the ultrasonic wave and the path of the measurement light intersect, and the same object is observed at the intersecting position, but at other points,
  • a shift in the axial direction of the shaft 13 occurs at each observation position.
  • the deviation of the observation position is the smallest at the crossing position of the ultrasonic wave and the measurement light, and increases with increasing distance from the crossing position.
  • the area closer to the sensor unit 12 than the intersection position is observed by the OCT sensor 12b before the IVUS sensor 12a, and the area farther from the intersection position is observed by the IVUS sensor 12a before the OCT sensor 12b. So the observed order is different.
  • Such a deviation of the observation position is caused by the distance x between the arrangement positions of the sensors 12a and 12b, the mounting angles of the sensors 12a and 12b (the angle ⁇ in the transmitting/receiving direction of the ultrasonic waves, the angle ⁇ in the transmitting/receiving direction of the measurement light), It differs depending on the distance from the rotation center of the sensor unit 12 to the observation position. Since the distance x between the arrangement positions of the sensors 12a and 12b and the mounting angle include individual differences that occur during the manufacturing process of the diagnostic imaging catheter 1, there is a deviation in the observation position at each distance from the rotation center of the sensor unit 12 to the observation position. The amount differs for each diagnostic imaging catheter 1 .
  • the direction of transmission and reception of ultrasonic waves by the IVUS sensor 12a and the direction of transmission and reception of measurement light by the OCT sensor 12b also deviate in the rotation direction (circumferential direction) of the sensor unit 12.
  • the transmission/reception direction of the measurement light is shifted by an angle ⁇ with the clockwise direction being the positive direction with respect to the transmission/reception direction of the ultrasonic wave. Therefore, the observation position by the IVUS sensor 12a and the observation position by the OCT sensor 12b are also displaced in the circumferential direction, and the displacement (angular difference) in the observation position in the circumferential direction also differs according to the mounting angles of the sensors 12a and 12b. Therefore, the amount of observation position deviation in the circumferential direction also differs for each diagnostic imaging catheter 1 .
  • the image processing apparatus 3 of the present embodiment when constructing the IVUS image and the OCT image from the ultrasound line data and the light line data, corrects the deviation of the observation position by the sensors 12a and 12b as described above. and construct an OCT image.
  • 7A and 7B are explanatory diagrams for explaining the process of correcting the deviation of the observation position.
  • FIG. 7A is an explanatory diagram of the deviation of the observation position in the axial direction of the shaft 13
  • FIG. 7B is an explanatory diagram of the process of correcting the OCT image so that the observation position in the OCT image and the observation position in the IVUS image match. be.
  • FIG. 7A shows that the OCT sensor 12b observed the observation position 1 in the n ⁇ 1th frame, observed the observation position 2 in the nth frame, and observed the observation position 3 in the n+1th frame. indicates that observation positions 1 to 3 were observed in the n-th frame.
  • the observation positions 1 to 3 are captured in the IVUS image in the nth frame, and the observation positions 1 to 3 are not captured in the n ⁇ 1th frame and the n+1th frame.
  • the OCT image is captured at observation position 1 in the n ⁇ 1 frame, at observation position 2 in the n frame, and at observation position 3 in the n+1 frame. is filmed. That is, in the example shown in FIG. 7A, the observation timing of the OCT sensor 12b for the observation position 1 is one frame before the IVUS sensor 12a, and the observation timing for the observation position 3 is one frame after. Therefore, the image processing apparatus 3 corrects the IVUS image and the OCT image to a state in which each observation position 1 to 3 is observed at the same observation timing (a state in which the tomographic image of the same frame number is captured). misalignment can be corrected.
  • observation position is shifted not only in the axial direction of the shaft 13 but also in the circumferential direction (rotational direction) as shown in FIG. 6B.
  • observation positions 1 to 3 are photographed at positions shifted by an angle ⁇ in the circumferential direction. Therefore, as shown in the lower part of FIG. 7B, the image processing apparatus 3 of the present embodiment synthesizes each region of the OCT images of a plurality of frames to construct one frame of the OCT image, thereby obtaining an observation position and an observation position in the OCT image. Correction processing is performed to eliminate the deviation from the observation position in the IVUS image.
  • the OCT image is corrected to match the observation target of the OCT image with the observation target of the IVUS image. You may perform the process which matches with the observation object of .
  • FIG. 8 is a flowchart showing an example of a tomographic image correction processing procedure.
  • the following processing is performed by the control unit 31 of the image processing device 3 according to the computer program P stored in the auxiliary storage unit 34 .
  • the distance x between the arrangement positions of the sensors 12a and 12b shown in FIG. 6A, the angle ⁇ (second angle) in the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a, the angle ⁇ (the second angle) in the transmission/reception direction of the measurement light by the OCT sensor 12b It is assumed that the first angle) and the amount of circumferential deviation (angle ⁇ ) in the transmission/reception directions of the ultrasonic wave and the measurement light shown in FIG.
  • an ultrasonic wave transmitted by the IVUS sensor 12a (second transmission/reception unit) will be described with respect to an OCT image generated from reflected light data of measurement light (first inspection wave) transmitted by the OCT sensor 12b (first transmission/reception unit). Correction processing is performed to match the observation target with the IVUS image generated from the reflected wave data of the sound wave (second inspection wave).
  • the control unit 31 acquires reflected wave data of ultrasonic waves from the IVUS sensor 12a via the MDU 2 when the intravascular imaging process by the intravascular examination apparatus 101 is started. Ultrasonic line data is generated from the reflected ultrasonic wave data. The control unit 31 also acquires reflected light data from the OCT sensor 12b via the MDU 2, and generates light line data from the acquired reflected light data (S11). The control unit 31 constructs a two-dimensional IVUS image by interpolating pixels from the ultrasound line data by interpolation processing (S12). Then, based on the light line data, the control unit 31 constructs an OCT image (hereinafter referred to as an OCT corrected image) in which the IVUS image and the observation target are matched.
  • OCT corrected image OCT image
  • the control unit 31 calculates the frame pitch at the time of photographing by the sensor unit 12 (S13).
  • the frame pitch is the distance between each frame of the tomographic image (the distance between the observation positions of each frame in the axial direction of the shaft 13 (measurement light irradiation interval)), and the moving speed and rotating speed of the sensor unit 12 during imaging. Calculated by Specifically, it is calculated based on the moving speed (for example, moving distance per second (unit: mm)) and rotation speed (for example, the number of rotations per second (unit: times)) of the sensor unit 12 due to the pullback operation.
  • the control unit 31 calculates the frame pitch by (moving speed/rotating speed), for example.
  • the control unit 31 calculates the displacement amount of the observation position at each distance from the center of rotation of the sensor unit 12 (S14).
  • the control unit 31 calculates the amount of deviation of the observation position in the axial direction of the shaft 13, that is, the amount of deviation between the irradiation position of the ultrasonic wave by the IVUS sensor 12a and the irradiation position of the measurement light by the OCT sensor 12b.
  • FIG. 9 is an explanatory diagram of a method of calculating the amount of deviation of the observation position according to the distance from the center of rotation of the sensor section 12 .
  • the amount of deviation of the observation position in the area where the distance from the rotation center of the sensor unit 12 is L is represented by ⁇ x (unit: mm).
  • Equation 1 The shift amount ⁇ x in the axial direction is represented by the following Equation 1.
  • x (unit: mm) is the amount of displacement in the axial direction of the arrangement positions of the sensors 12a and 12b.
  • ⁇ x IVUS (unit: mm) is expressed by Equation 2 below
  • ⁇ x OCT (unit: mm) is expressed by Equation 3 below. Therefore, by substituting equations 2 and 3 into equation 1, equation 4 is obtained, and the amount of deviation ⁇ x of the observation position in the region where the distance from the rotation center of the sensor unit 12 is L is calculated using equation 4. be done.
  • ⁇ x x - ⁇ x IVUS - ⁇ x OCT ...
  • ⁇ x IVUS L ⁇ cot ⁇
  • ⁇ x OCT L ⁇ cot ⁇
  • ⁇ x x ⁇ L ⁇ (cot ⁇ +cot ⁇ ) (Formula 4)
  • control unit 31 calculates the correction amount (correction frame number) in the axial direction at each distance from the rotation center of the sensor unit 12 based on the amount of deviation of the observation position in the axial direction of the shaft 13 (S15 ).
  • the number of frames to be corrected is calculated using Equation 5 below based on the amount of observation position deviation in the axial direction calculated in step S14 and the frame pitch calculated in step S13.
  • the control unit 31 calculates the observation position displacement amount ⁇ x at each location where the observation position displacement amount ⁇ x is a multiple of the frame pitch.
  • Each distance L from the center of rotation may be calculated.
  • each distance L is calculated such that the observation position shift amount ⁇ x is 0.1 mm, 0.2 mm, 0.3 mm, .
  • 1, 2, 3, . . . can be specified as the number of correction frames corresponding to each distance L calculated.
  • FIG. 10 is an explanatory diagram showing an example of calculation results of the number of correction frames according to each distance L.
  • the moving speed of the sensor unit 12 is 10 mm/s
  • the rotational speed is 6000 rpm (100 fps)
  • the axial distance x between the sensors 12a and 12b is 0.80 mm
  • the distance x is 0.80 mm.
  • the calculation results are shown when the angle ⁇ of the transmission/reception direction of the sound wave is 85° and the angle ⁇ of the transmission/reception direction of the measurement light is 84°.
  • the number of corrected frames calculated in this way indicates the number of frames of the OCT image when the observation target photographed in the IVUS image of one frame is photographed by the OCT sensor 12b, and such a corrected number of frames is used.
  • the deviation of the observation position in the axial direction can be corrected in frame pitch units.
  • the control unit 31 calculates the correction amount (correction line number) in the circumferential direction based on the amount of deviation of the observation position in the rotation direction of the sensor unit 12 (S16).
  • the number of correction lines is calculated based on the amount of circumferential deviation (angle ⁇ ) between the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a and the transmission/reception direction of measurement light by the OCT sensor 12b. Since one frame of OCT image is composed of 512 line data arranged in the circumferential direction, the control unit 31 can calculate the number of correction lines using Equation 6 below.
  • the OCT image is corrected forward by the number of correction lines, so that the observation position of the OCT image can be matched with the observation target of the IVUS image, and observation in the circumferential direction can be performed. Correction can be performed to eliminate the positional deviation.
  • the control unit 31 (image constructing unit) generates an OCT corrected image in which the observation target matches the IVUS image based on the number of corrected frames corresponding to each distance calculated in step S15 and the number of corrected lines calculated in step S16. (S17). For example, the control unit 31 subtracts the number of correction lines calculated in step S16 from each line number of the optical line data. If the line number after subtraction is a negative number, 512 is added so that each line number after subtraction has a value of 1-512. As a result, each line of the optical line data is associated with each line of the ultrasound line data, and according to the contents of the correspondence, the deviation of the observation position in the circumferential direction with respect to the IVUS image is corrected.
  • control unit 31 uses the optical line data of each line number after the subtraction to perform correction processing according to the number of correction frames calculated in step S15, and constructs an OCT correction image of each frame.
  • the construction processing of the n-th frame OCT-corrected image will be described below.
  • each pixel value is assigned based on the data value of the light line data of the (n+correction frame number)-th frame.
  • the data of the corresponding region in the light line data of the (n+1)th frame Assign each pixel value based on value.
  • the OCT-corrected image constructed in this manner is a tomographic image in which the displacement of the observation position in the axial direction based on the IVUS image is corrected.
  • the control unit 31 performs correction processing in the rotation direction and the axial direction of the sensor unit 12 by the above-described processing, and interpolates pixels between each line by interpolation processing on the light line data to create a two-dimensional OCT image. (OCT corrected image).
  • control unit 31 constructs an OCT corrected image of multiple frames from the light line data, and generates an OCT corrected image in which the observation position matches the IVUS image.
  • the IVUS image and OCT corrected image constructed by the above-described processing are displayed on, for example, the display device 4 and presented to the operator using the diagnostic imaging catheter 1 .
  • the sensors 12a and 12b are arranged so that the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a and the transmission/reception direction of the measurement light by the OCT sensor 12b intersect.
  • the sensors 12a and 12b are arranged such that the transmission/reception direction of ultrasonic waves is inclined toward the distal side with respect to the radial direction of the shaft 13, and the transmission/reception direction of measurement light is inclined toward the proximal side.
  • similar processing can be used to correct the observation position shift between the IVUS image and the OCT image.
  • Embodiment 2 An image diagnostic apparatus in which information used for correcting a tomographic image is measured when the diagnostic imaging catheter 1 is manufactured, and a code obtained by encoding each measured numerical value is added to the diagnostic imaging catheter 1.
  • the information used for correcting the tomographic image includes the distance x between the sensors 12a and 12b in the axial direction of the shaft 13, the transmission/reception direction (angle ⁇ ) of ultrasonic waves by the IVUS sensor 12a, and the direction of measurement light by the OCT sensor 12b. It includes the transmitting/receiving direction (angle ⁇ ) and the deviation amount (angle ⁇ ) of the transmitting/receiving direction of the ultrasonic wave and the measurement light in the rotation direction of the sensor unit 12 .
  • the diagnostic imaging apparatus 100 of the present embodiment can be realized by devices similar to the respective devices in the diagnostic imaging apparatus 100 of the first embodiment, so the description of the similar configurations will be omitted. Note that the configuration of the image processing apparatus 3 of the image diagnostic apparatus 100 of the present embodiment is slightly different from that of the first embodiment, so only the different portions will be described.
  • FIG. 11 is a block diagram showing a configuration example of the image processing device 3 of the second embodiment.
  • the image processing apparatus 3 of this embodiment includes a code reader 36 in addition to the configuration of the image processing apparatus 3 of Embodiment 1 shown in FIG.
  • the code reader 36 is a device that reads one-dimensional codes such as bar codes and two-dimensional codes such as QR codes (registered trademark), decodes the read codes to obtain code information, and controls the obtained code information. Send to section 31 .
  • the information (x, ⁇ , ⁇ , ⁇ ) used for the correction processing of the tomographic image as described above is measured in the process of manufacturing the diagnostic imaging catheter 1, and each of the measured numerical values , and the serial number assigned to this diagnostic imaging catheter 1 are coded.
  • a QR code C is added to the connector portion 15.
  • the code C may be printed directly on the connector portion 15 , or a sticker printed with the code C may be attached to the connector portion 15 .
  • the operator causes the code reader 36 to read the code C when connecting the diagnostic imaging catheter 1 to the MDU 2 via the connector section 15, so that the image processing apparatus 3 acquires information (x, ⁇ , ⁇ , ⁇ ) used for correction processing of a tomographic image.
  • FIG. 12 is a flowchart showing an example of a tomographic image correction processing procedure according to the second embodiment.
  • the process shown in FIG. 12 is obtained by adding step S21 before step S11 in the process shown in FIG. Description of the same steps as in FIG. 8 will be omitted.
  • the control unit 31 of the image processing apparatus 3 first reads code information from the code C by the code reader 36 (S21).
  • the code information includes numerical values (x, ⁇ , ⁇ , ⁇ ) measured during the manufacturing process of the diagnostic imaging catheter 1 and the serial number of the diagnostic imaging catheter 1. stored in
  • the intravascular imaging process by the intravascular examination apparatus 101 is started, and the control unit 31 executes the processes after step S11.
  • the control unit 31 executes the processes after step S11.
  • the frame pitch at the time of shooting in step S13 when calculating the shift amount of the observation position in the axial direction of the shaft 13 and the number of correction frames in steps S14 and S15, and further in step S16
  • Each piece of information read from the code C is used when calculating the number of correction lines in the rotation direction of the sensor unit 12 .
  • the observation position by the IVUS sensor 12a and the observation position by the OCT sensor 12b are corrected for the deviation in the axial direction and the rotation direction of the sensor unit 12, and the observation position is matched with the IVUS image.
  • An OCT corrected image can be constructed.
  • the same effects as in the first embodiment described above can be obtained.
  • the distance x between the sensors 12a and 12b, the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a (angle ⁇ ), the transmission/reception direction of measurement light by the OCT sensor 12b (angle ⁇ ), the rotation direction of the sensor unit 12 The amount of deviation (angle ⁇ ) between the transmission and reception directions of ultrasonic waves and measurement light is measured during the manufacturing process of the diagnostic imaging catheter 1, coded, and added to the diagnostic imaging catheter 1 (for example, the connector section 15). Therefore, the image processing apparatus 3 can obtain various pieces of information to be used for correction processing to be performed on the tomographic image by reading the code C attached to the diagnostic imaging catheter 1 with the code reader 36 .
  • These pieces of information include mounting errors (individual differences) that occur in each catheter 1 during the manufacturing process. .
  • an image diagnostic apparatus configured such that the image processing apparatus 3 acquires information used when correcting a tomographic image from a server
  • the diagnostic imaging apparatus 100 of the present embodiment can be realized by devices similar to the respective devices in the diagnostic imaging apparatus 100 of the first embodiment, and thus the description of the similar configuration will be omitted.
  • the configuration of the image processing apparatus 3 of the diagnostic imaging apparatus 100 of this embodiment is slightly different from that of the second embodiment.
  • information (x, ⁇ , ⁇ , ⁇ ) used when correcting a tomographic image is managed by a server connected to a network such as the Internet. Therefore, the image processing apparatus 3 can perform correction processing similar to that in the first and second embodiments by acquiring information used for correction processing of tomographic images from the server via the network.
  • FIG. 13 is a block diagram showing a configuration example of the image processing device 3 and the server 6 of the third embodiment.
  • the image processing apparatus 3 of this embodiment includes a communication section 37 in addition to the configuration of the image processing apparatus 3 of Embodiment 2 shown in FIG.
  • the communication unit 37 is a communication module for connecting the image processing device 3 to the network N by wired communication or wireless communication, and transmits and receives information to and from other devices via the network N.
  • the server 6 is configured using, for example, a server computer or a personal computer.
  • a plurality of servers 6 may be provided for distributed processing, may be realized by a plurality of virtual machines provided in one server, or may be realized using a cloud server.
  • the server 6 includes a control section 61 , a main storage section 62 , an input/output I/F 63 , an auxiliary storage section 64 , a reading section 65 and a communication section 66 .
  • the control unit 61, the main storage unit 62, the input/output I/F 63, the auxiliary storage unit 64, the reading unit 65, and the communication unit 66 of the server 6 are connected to the control unit 31, the main storage unit 32, the input/output I/F 63 of the image processing device 3, respectively. Since the configuration is the same as that of the I/F 33, the auxiliary storage unit 34, the reading unit 35, and the communication unit 37, description thereof will be omitted.
  • the auxiliary storage unit 64 of the server 6 stores a catheter DB 64a, which will be described later.
  • the catheter DB 64a may be stored in another storage device connected to the server 6, or may be stored in another storage device with which the server 6 can communicate.
  • FIG. 14 is a schematic diagram showing a configuration example of the catheter DB 64a.
  • the catheter DB 64a stores each numerical value (x, ⁇ , ⁇ , ⁇ ) measured during the manufacturing process of the diagnostic imaging catheter 1 in association with the serial number assigned to the diagnostic imaging catheter 1 .
  • the axial distance x between the sensors 12a and 12b attached to the diagnostic imaging catheter 1 the angle ⁇ in the transmission/reception direction of ultrasonic waves by the IVUS sensor 12a, the angle in the transmission/reception direction of the measurement light by the OCT sensor 12b ⁇ , and the amount of deviation (angle ⁇ ) between the transmission and reception directions of the ultrasonic wave and the measurement light in the rotation direction of the sensor unit 12 are registered.
  • the information (x, ⁇ , ⁇ , ⁇ ) used for correcting the tomographic image is measured in the manufacturing process of the diagnostic imaging catheter 1, and each of the measured numerical values is converted into this image. It is registered in the server 6 together with the serial number given to the diagnostic catheter 1 .
  • the serial number assigned to the diagnostic imaging catheter 1 is coded, and a code C is added to the connector portion 15 in the same manner as in FIG.
  • the operator causes the code reader 36 to read the code C when connecting the diagnostic imaging catheter 1 to the MDU 2 via the connector section 15 .
  • the image processing apparatus 3 acquires the serial number of the diagnostic imaging catheter 1, and acquires information (x, ⁇ , ⁇ , ⁇ ) used for correcting the tomographic image from the server 6 based on the serial number. .
  • FIG. 15 is a flowchart showing an example of a tomographic image correction processing procedure according to the third embodiment.
  • the process shown in FIG. 15 is obtained by adding steps S31 to S34 between steps S21 and S11 in the process shown in FIG. Description of the same steps as in FIG. 12 will be omitted.
  • the processing performed by the image processing apparatus 3 is shown on the left side, and the processing performed by the server 6 is shown on the right side.
  • the control unit 31 of the image processing apparatus 3 first reads code information from the code C by the code reader 36 (S21).
  • the code information here is the serial number of the diagnostic imaging catheter 1, and the controller 31 corrects the tomographic image acquired using the diagnostic imaging catheter 1 here based on the read serial number.
  • Information (x, ⁇ , ⁇ , ⁇ ) used for processing is requested from the server 6 (S31).
  • the control unit 61 of the server 6 reads each piece of information (x, ⁇ , ⁇ , ⁇ ) corresponding to the serial number from the catheter DB 64a (S32). .
  • the control unit 61 transmits the read information (x, ⁇ , ⁇ , ⁇ ) to the image processing device 3 via the network N (S33).
  • the control unit 31 of the image processing device 3 stores each information (x, ⁇ , ⁇ , ⁇ ) acquired from the server 6 in the main storage unit 32 (S34).
  • the intravascular imaging process by the intravascular examination apparatus 101 is started, and the control unit 31 executes the processes after step S11.
  • the control unit 31 executes the processes after step S11.
  • the observation position by the IVUS sensor 12a and the observation position by the OCT sensor 12b are corrected for the deviation in the axial direction and the rotation direction of the sensor unit 12, and the observation position is matched with the IVUS image.
  • An OCT corrected image can be constructed.
  • each piece of information (x, ⁇ , ⁇ , ⁇ ) used for correction processing to be performed on a tomographic image is managed by the server 6 in association with the serial number of the diagnostic imaging catheter 1 . Therefore, the image processing apparatus 3 can acquire from the server 6 each information used for correction processing to be performed on the tomographic image. As a result, even in the present embodiment, it is possible to perform highly accurate correction processing, and to provide an IVUS image and an OCT image in which observation targets are matched. In addition, also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
  • An image diagnostic apparatus 100 configured so that the image processing apparatus 3 specifies each piece of information to be used for correction processing to be performed on an IVUS image or an OCT image based on the IVUS image and the OCT image will be described.
  • the diagnostic imaging apparatus 100 of the present embodiment can be realized by devices similar to the respective devices in the diagnostic imaging apparatus 100 of the first embodiment, and thus the description of the similar configuration will be omitted.
  • the image processing apparatus 3 stores a learning model 34M in the auxiliary storage section 34 in addition to the configuration of the image processing apparatus 3 of the first embodiment shown in FIG.
  • FIG. 16 is a schematic diagram showing a configuration example of the learning model 34M.
  • the learning model 34M is input with the IVUS image and the OCT image generated by the image processing device 3 based on the ultrasound line data and the light line data acquired using the diagnostic imaging catheter 1, and should be performed on the IVUS image or the OCT image. It is a machine learning model that outputs information used for correction processing.
  • the information used for the correction process includes the distance x between the sensors 12a and 12b in the axial direction of the shaft 13, the transmission/reception direction of ultrasonic waves (angle ⁇ ), and the transmission/reception direction of measurement light (angle ⁇ ). and the amount of deviation (angle ⁇ ) between the transmission and reception directions of the ultrasonic wave and the measurement light in the rotation direction of the sensor unit 12 .
  • the learning model 34M outputs probabilities for preset options for each piece of information (x, ⁇ , ⁇ , ⁇ ).
  • the learning model 34M is composed of a CNN (Convolutional Neural Network), which is a neural network generated by deep learning, for example.
  • Learning model 34M in addition to CNN, RNN (Recurrent Neural Network), GAN (Generative Adversarial Network), decision tree, random forest, SVM (Support Vector Machine) may be configured using algorithms such as, a plurality of It may be configured by combining algorithms.
  • the image processing device 3 performs machine learning for learning predetermined training data to generate a learning model 34M in advance.
  • the image processing apparatus 3 then inputs the IVUS image and the OCT image to the learning model 34M, and acquires information used for correction processing to be performed on the IVUS image or the OCT image.
  • an IVUS image and an OCT image acquired by one pullback operation by the MDU2 are input to the learning model 34M.
  • One frame of IVUS image and OCT image acquired at the same timing may be input to the learning model 34M, and the IVUS image and OCT image acquired in time series may be sequentially input.
  • the learning model 34M includes an input layer to which an IVUS image and an OCT image are input, an intermediate layer for extracting feature amounts from the input information, and an output layer for outputting each information used for correction processing.
  • One output layer is provided for each information (x, ⁇ , ⁇ , ⁇ ).
  • the input layer has a plurality of input nodes, and each pixel of the IVUS image and the OCT image is input to each input node.
  • the intermediate layer uses a predetermined function, threshold value, etc. to perform calculations such as filtering and compression processing on the tomographic image input via the input layer, calculates the output value, and outputs the calculated output value. Output to layer.
  • the node of each layer calculates the output value based on the input tomographic image using the function and threshold value etc. between each layer, and the calculated output value is sequentially transferred to the node of the subsequent layer. to enter.
  • the intermediate layer sequentially inputs the output values of the nodes of each layer to the nodes of the succeeding layer, thereby giving the finally calculated output values to the output layer.
  • the learning model 34M has an inter-sensor distance output layer, an ultrasonic angle output layer, a measurement light angle output layer, and a circumferential deviation amount output layer as output layers.
  • the inter-sensor distance output layer outputs the distance x between the sensors 12a and 12b
  • the ultrasonic angle output layer outputs the ultrasonic transmission/reception direction (angle ⁇ )
  • the measurement light angle output layer outputs the measurement light transmission/reception direction (angle ⁇ )
  • the circumferential deviation amount output layer outputs the deviation amount (angle ⁇ ) in the transmitting/receiving direction of the ultrasonic wave and the measuring light in the rotating direction.
  • the inter-sensor distance output layer has a plurality of output nodes each associated with a distance (first distance, second distance, etc.) prepared as options, and from each output node, the associated distance Output the probability to be determined.
  • the output value from each output node in the inter-sensor distance output layer is, for example, a value between 0 and 1, and the sum of the probabilities output from each output node is 1.0 (100%).
  • each of the ultrasonic angle output layer, the measurement light angle output layer, and the circumferential displacement amount output layer has a plurality of angles prepared as options (first angle, second angle, etc.) associated with each It has output nodes, and each output node outputs a probability that the associated angle should be determined.
  • the output value from each output node is, for example, a value of 0 to 1, and the sum of the probabilities output from each output node becomes 1.0 (100%).
  • Different angles are set as options for the ultrasonic angle output layer, the measurement light angle output layer, and the circumferential displacement amount output layer.
  • the learning model 34M outputs each piece of information (x, ⁇ , ⁇ , ⁇ ) on the diagnostic imaging catheter 1 that captured the IVUS image and the OCT image when the IVUS image and the OCT image are input. .
  • the image processing device 3 calculates the distance associated with the output node that outputs the maximum output value (discrimination probability) among the output values from the inter-sensor distance output layer. Specify the inter-sensor distance in the diagnostic catheter 1 . Also, the angle associated with the output node that outputs the maximum output value among the output values from the ultrasonic angle output layer is specified as the transmission/reception angle of ultrasonic waves by the IVUS sensor 12a. Also, the angle associated with the output node that outputs the maximum output value among the output values from the measurement light angle output layer is specified as the transmission/reception angle of the measurement light by the OCT sensor 12b.
  • the angle associated with the output node that outputs the maximum output value among the output values from the circumferential deviation amount output layer is specified as the circumferential deviation amount of the ultrasonic wave and the measurement light.
  • a selection layer that selects and outputs the option with the highest probability may be provided after each output layer. In this case, each output layer has one output node that outputs the option (distance or angle) with the highest discrimination probability.
  • the learning model 34M is an IVUS image and an OCT image acquired using the diagnostic imaging catheter 1 and each information (x, ⁇ , ⁇ , ⁇ ) (correct label) measured during the manufacturing process of the diagnostic imaging catheter 1, for example. can be generated by preparing training data including and performing machine learning on an unlearned learning model using this training data.
  • the output value from the output node corresponding to the correct label (each information) included in the training data becomes 1 in each output layer. It learns so that the output values from other output nodes approach zero.
  • the learning model 34M performs computation in the intermediate layer based on the input IVUS image and OCT image, and calculates the output value from the output node of each output layer. Then, the learning model 34M compares the calculated output value of each output node with the value corresponding to the correct label (1 for the output node corresponding to the correct value, and 0 for the other output nodes). Optimize the parameters used for arithmetic processing in the intermediate layer so that the value approaches the value corresponding to the correct label.
  • the parameters are, for example, weights (coupling coefficients) between neurons.
  • the parameter optimization method is not particularly limited, but steepest descent method, error backpropagation method, or the like can be used.
  • the learning of the learning model 34M may be performed by another learning device.
  • a learned learning model 34M generated by learning in another learning device is downloaded from the learning device to the image processing device 3 via a network or via the recording medium 30, for example, and stored in the auxiliary storage unit 34.
  • FIG. 17 is a flow chart showing an example of a processing procedure for generating the learning model 34M.
  • the following processing is performed by the control unit 31 of the image processing device 3 according to the computer program P stored in the auxiliary storage unit 34, but may be performed by another learning device.
  • the control unit 31 of the image processing device 3 acquires training data to which correct information (x, ⁇ , ⁇ , ⁇ ) is added to the IVUS image and the OCT image (S41).
  • IVUS images and OCT images taken during catheter treatment can be used as IVUS images and OCT images for training data.
  • each piece of correct information each piece of information measured during the manufacturing process of the diagnostic imaging catheter 1 on which the IVUS image and the OCT image are taken can be used.
  • training data IVUS images and OCT images for training data, and information on the diagnostic imaging catheter 1 may be prepared in advance and registered in a training data DB (not shown). In this case, the control unit 31 may acquire training data from the training data DB.
  • the control unit 31 performs learning processing of the learning model 34M using the acquired training data (S42).
  • the control unit 31 inputs the IVUS image and the OCT image included in the training data to the learning model 34M, and the sensor-to-sensor distance x, the ultrasonic angle ⁇ , the measurement light angle ⁇ , and the amount of circumferential deviation ⁇ . Get the output value.
  • the control unit 31 compares the output value of each piece of information that has been output with the value (0 or 1) corresponding to each piece of correct information, and optimizes the parameters used for arithmetic processing in the intermediate layer so that the two approximate each other. become Specifically, the control unit 31 controls the learning model 34M so that the output value from the output node corresponding to the correct value approaches 1 and the output value from the other output nodes approaches 0 in each output layer. let them learn
  • the control unit 31 determines whether there is unprocessed data (S43). For example, when training data is registered in the training data DB in advance, the control unit 31 determines whether there is unprocessed training data in the training data stored in the training data DB. If it is determined that there is unprocessed data (S43: YES), the control unit 31 returns to the process of step S41, and performs the processes of steps S41 to S42 based on the unprocessed training data. If it is determined that there is no unprocessed data (S43: NO), the controller 31 terminates the series of processes.
  • S43 unprocessed data
  • a learning model 34M is obtained.
  • the learning model 34M can be further optimized by repeating the learning process using the training data as described above. Also, the learning model 34M that has already been trained can be re-learned by performing the processing described above, and in this case, the learning model 34M with higher discrimination accuracy can be obtained.
  • each information in the diagnostic imaging catheter 1 is obtained from the acquired IVUS image and OCT image using the learning model 34M. Identify (x, ⁇ , ⁇ , ⁇ ). Then, the image processing apparatus 3 uses the specified information (x, ⁇ , ⁇ , ⁇ ) to perform correction processing on the IVUS image or the OCT image, thereby matching the IVUS image and the OCT image with the observation target. is obtained.
  • FIG. 18 is a flowchart showing an example of a tomographic image correction processing procedure according to the fourth embodiment.
  • the process shown in FIG. 18 is obtained by adding steps S51 to S52 between steps S12 and S13 in the process shown in FIG. Description of the same steps as in FIG. 8 will be omitted.
  • the control unit 31 performs the processing of steps S11 and S12 shown in FIG.
  • a two-dimensional OCT image is constructed (S51). Note that the IVUS image and the OCT image here are images in which the observation position is shifted.
  • the control unit 31 inputs the IVUS image constructed in step S12 and the OCT image constructed in step S51 to the learning model 34M, and captures the IVUS image and the OCT image based on the output values from the learning model 34M.
  • Each piece of information (x, ⁇ , ⁇ , ⁇ ) in the diagnostic imaging catheter 1 is specified (S52).
  • the control unit 31 identifies the output node that outputs the maximum output value among the output nodes of each output layer in the learning model 34M, and the value (distance or angle) associated with the identified output node. is specified for each piece of information in the catheter 1 for diagnostic imaging.
  • Each piece of information (x, ⁇ , ⁇ , ⁇ ) specified in this way is stored in the main storage unit 32, for example.
  • the control unit 31 executes the processes after step S13.
  • step S13 when calculating the frame pitch at the time of shooting in step S13, when calculating the shift amount of the observation position in the axial direction of the shaft 13 and the number of correction frames in steps S14 and S15, and further in step S16
  • step S16 When calculating the number of correction lines in the rotation direction of the sensor unit 12, each piece of information specified using the learning model 34M is used.
  • the deviation of the observation positions of the IVUS sensor 12a and the OCT sensor 12b is corrected, and an IVUS image and an OCT corrected image with matching observation positions can be provided.
  • each piece of information (x, ⁇ , ⁇ , ⁇ ) used for correction processing to be performed on the IVUS image or the OCT image is specified from the IVUS image and the OCT image using the learning model 34M. Therefore, by performing correction processing using such information, it is possible to construct an OCT corrected image in which the observation position matches the IVUS image. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
  • the image processing apparatus 3 locally performs processing for specifying each piece of information (each piece of information used for correction processing) in the diagnostic imaging catheter 1 using the learning model 34M, but the present invention is not limited to this configuration.
  • a server may be provided that performs specific processing for each piece of information using the learning model 34M.
  • the image processing apparatus 3 may be configured to transmit the IVUS image and the OCT image to the server, and acquire each piece of information specified from the IVUS image and the OCT image by the server. Even with such a configuration, the same processing as in the present embodiment is possible, and the same effects can be obtained.
  • the learning model 34M when an IVUS image and an OCT image are input, the learning model 34M replaces the information (x, ⁇ , ⁇ , ⁇ ) used in the correction process with the number of correction frames used in the correction process and the correction It may be configured to output the number of lines (correction amount).
  • the image processing device 3 uses the learning model 34M to specify the correction amount to be used for the correction process, and performs the correction process using the specified correction amount to obtain the corrected IVUS corrected image or OCT corrected image. can be generated.
  • the learning model 34M may be configured to output an IVUS-corrected image or an OCT-corrected image that has undergone correction processing when an IVUS image and an OCT image are input. In this case, the image processing device 3 can acquire the IVUS corrected image or the OCT corrected image after correction by using the learning model 34M.
  • the image processing apparatus 3 is configured to construct an OCT-corrected image in which the observation target is matched with the IVUS image.
  • an image processing apparatus 3 that constructs an IVUS-corrected image or an OCT-corrected image in which an observation target is aligned with the position of a marker 12c (contrast marker) visualized on an angio image will be described.
  • the diagnostic imaging apparatus 100 of the present embodiment can be realized by devices similar to the respective devices in the diagnostic imaging apparatus 100 of the first embodiment, and thus the description of the similar configuration will be omitted.
  • the diagnostic imaging catheter 1 includes both the IVUS sensor 12a and the OCT sensor 12b
  • the diagnostic imaging catheter 1 of the present embodiment may be configured to include only the IVUS sensor 12a.
  • the OCT sensor 12b only.
  • a process for constructing an IVUS-corrected image in which the observation target is matched with the marker 12c on the angio image will be described. It is buildable.
  • FIG. 19 is an explanatory diagram for explaining the deviation of the observation position by the IVUS sensor 12a from the marker 12c.
  • FIG. 19 shows the sensor unit 12 viewed from the radial direction of the shaft 13.
  • the marker 12c is visualized as shown in the lower diagram of FIG. An angio image is obtained.
  • the IVUS sensor 12 a transmits and receives ultrasonic waves in a direction at an angle ⁇ with respect to the direction of the base end on the central axis of the shaft 13 . Therefore, as shown in FIG.
  • the observation position of the IVUS sensor 12a is the axis of the shaft 13 with respect to the position of the marker 12c. deviate in direction.
  • the deviation of the observation position of the IVUS sensor 12a with respect to the position of the marker 12c is determined by the distance y between the positions where the IVUS sensor 12a and the marker 12c are arranged, the mounting angle of the IVUS sensor 12a (the angle ⁇ in the transmission/reception direction of ultrasonic waves), and the sensor unit 12 and the distance L from the center of rotation.
  • the image processing apparatus 3 of the present embodiment constructs an IVUS corrected image by correcting the displacement of the observation position of the IVUS sensor 12a with respect to the position of the marker 12c as described above.
  • 20 and 21 are explanatory diagrams for explaining the process of correcting the deviation of the observation position.
  • FIG. 20 is an explanatory diagram of deviation of the observation position of the IVUS sensor 12a in the axial direction of the shaft 13
  • FIG. 21 is an explanatory diagram of an IVUS corrected image in which the observation position is aligned with the position of the marker 12c.
  • 12c in FIG. 20 shows the position of the marker 12c at the imaging timing of the n-th IVUS image, and 1 to 5 in FIG.
  • the IVUS sensor 12a observes the observation position 5 in the n ⁇ 2th frame, observes the observation position 4 in the n ⁇ 1th frame, observes the observation position 3 in the nth frame, and observes the observation position 2. It shows that the observation was made in the (n+1)th frame, and the observation position 1 was observed in the (n+2)th frame.
  • the IVUS image is captured at observation position 5 in the n ⁇ 2 frame, at observation position 4 in the n ⁇ 1 frame, and observed in the n frame.
  • Position 3 is photographed
  • observation position 2 is photographed in the (n+1)th frame
  • observation position 1 is photographed in the (n+2)th frame.
  • the observation timing of the IVUS sensor 12a for the observation position 5 is two frames before the arrival timing of the marker 12c
  • the observation timing of the IVUS sensor 12a for the observation position 4 is the arrival timing of the marker 12c. It is one frame before the arrival timing.
  • the observation timing of the IVUS sensor 12a for observation position 2 is one frame after the arrival timing of the marker 12c, and the observation timing of the IVUS sensor 12a for observation position 1 is two frames after the arrival timing of the marker 12c. Therefore, as shown in the lower part of FIG. 21, the image processing device 3 synthesizes each area (area corresponding to the distance from the center of rotation) in the IVUS images of multiple frames to construct an IVUS image of one frame. Thus, an IVUS-corrected image can be generated in which the observation position is matched with the position of the marker 12c.
  • FIG. 22 is a flowchart showing an example of a tomographic image correction processing procedure according to the fifth embodiment. It is assumed that the distance y between the IVUS sensor 12a and the marker 12c and the transmission/reception angle ⁇ of the ultrasonic waves by the IVUS sensor 12a shown in FIG.
  • the control unit 31 of the image processing apparatus 3 acquires reflected wave data of ultrasonic waves from the IVUS sensor 12a via the MDU 2, and converts the acquired ultrasonic waves into Ultrasonic line data is generated from the reflected wave data (S61).
  • the control unit 31 calculates the frame pitch at the time of photographing by the sensor unit 12 (S62). Calculation of the frame pitch is the same as step S13 in FIG.
  • the control unit 31 calculates the displacement amount of the observation position of the IVUS sensor 12a with respect to the position of the marker 12c at each distance from the rotation center of the sensor unit 12 (S63).
  • the displacement amount ⁇ y (unit: mm) of the observation position in the region where the distance from the rotation center of the sensor unit 12 is L is calculated using the following formula 7. Note that y (unit: mm) is the axial distance between the IVUS sensor 12a and the marker 12c.
  • control unit 31 calculates a correction amount (correction frame number) in the axial direction at each distance from the rotation center of the sensor unit 12 based on the amount of deviation of the observation position of the IVUS sensor 12a from the marker 12c (S64 ).
  • the number of corrected frames is calculated using the following equation 8 based on the observation position shift amount calculated in step S63 and the frame pitch calculated in step S62.
  • the control unit 31 calculates the distance L may be calculated respectively.
  • each distance L is calculated so that the observation position shift amount ⁇ y is 0.1 mm, 0.2 mm, 0.3 mm, .
  • 1, 2, 3, . . . can be specified as the number of correction frames corresponding to each distance L calculated.
  • the control unit 31 constructs an IVUS corrected image in which the observation target is aligned with the position of the marker 12c based on the number of corrected frames corresponding to each distance calculated in step S64 (S65). For example, the control unit 31 uses ultrasound line data and synthesizes each region of the IVUS images of a plurality of frames according to the number of correction frames according to the distance from the rotation center of the sensor unit 12, thereby performing IVUS correction of one frame. construct the image. In the examples shown in FIGS. 20 and 21, each data value based on the data value corresponding to each region of the five ultrasound line data of the (n ⁇ 2) to (n+2)th frame in order of the region far from the rotation center of the sensor unit 12. Assign pixel values to construct a frame of IVUS corrected images.
  • the control unit 31 performs the above-described correction processing, and interpolates pixels between each line by interpolation processing on the ultrasound line data to construct a two-dimensional IVUS image (IVUS corrected image).
  • the IVUS-corrected image constructed in this manner is an IVUS image of which the imaging range of the marker 12c is an object to be photographed, so that an IVUS-corrected image obtained by photographing the location of the marker 12c on the angiographic image can be provided. Since the imaging position of the IVUS-corrected image and the position of the marker 12c on the angiographic image match in this way, an IVUS image that is easy to read can be provided, and an improvement in the accuracy of the procedure performed while checking the IVUS image can be expected. .
  • the IVUS-corrected image constructed by the above-described processing is displayed, for example, on the display device 4 and presented to the operator using the diagnostic imaging catheter 1 .
  • an IVUS-corrected image can be provided in which the observation target is aligned with the marker 12c on the angiographic image. Easy presentation of IVUS images becomes possible.
  • the configuration of the present embodiment can also be applied to the image diagnostic apparatus 100 of Embodiments 2 and 3, and similar effects can be obtained even when applied to Embodiments 2 and 3.
  • each information used for correction processing (distance y between IVUS sensor 12a and marker 12c, transmission/reception angle ⁇ of ultrasonic waves by IVUS sensor 12a) is added to diagnostic imaging catheter 1. obtained by reading the code C written or by obtaining it from the server 6 . Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
  • the image processing apparatus 3 of Embodiments 1 to 4 described above performs correction processing to match the observation position by the IVUS sensor 12a and the observation position by the OCT sensor 12b.
  • correction processing for matching the observation position with the position of the marker 12c is performed on each of the IVUS image and the OCT image, so that the observation position by the IVUS sensor 12a and the OCT You may match with the observation position by the sensor 12b.
  • the observation position is corrected to match the position of the marker 12c for the obtained IVUS image and OCT image.
  • the configuration uses the IVUS sensor 12a that captures a tomographic image of the blood vessel using ultrasonic waves and the OCT sensor 12b that captures a tomographic image of the blood vessel using near-infrared light.
  • the IVUS sensor 12a or the OCT sensor 12b instead of the IVUS sensor 12a or the OCT sensor 12b, a sensor that receives Raman scattered light from within the blood vessel to capture a tomographic image of the blood vessel, or a sensor that receives excitation light from the blood vessel to capture a tomographic image of the blood vessel.
  • a sensor that receives excitation light from the blood vessel to capture a tomographic image of the blood vessel instead of the IVUS sensor 12a or the OCT sensor 12b, a sensor that receives Raman scattered light from within the blood vessel to capture a tomographic image of the blood vessel, or a sensor that receives excitation light from the blood vessel to capture a tomographic image of the blood vessel.
  • various sensors capable of observing the state of the blood vessel
  • diagnostic imaging catheter 2 MDU 3 image processing device 4 display device 5 input device 6 server 31 control unit 36 code reader 37 communication unit 101 intravascular examination device 102 angiography device 34M learning model 64a catheter DB C code P computer program

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Endoscopes (AREA)

Abstract

読影し易い画像を提供することが可能なプログラム等を提供する。コンピュータは、プログラムに従って、カテーテルに用いられるイメージングコアの長軸方向に対して第1角度傾いた方向に照射した第1検査波による信号データセットを取得する。そして、コンピュータは、取得した信号データセットに基づいて、前記イメージングコアの長軸方向に対して、前記第1角度とは異なる第2角度傾いた方向を観察対象とした画像を構築する。

Description

プログラム、画像処理方法及び画像処理装置
 本発明は、プログラム、画像処理方法及び画像処理装置に関する。
 狭心症又は心筋梗塞等に対する低侵襲治療として、経皮的冠動脈インターベンション(Percutaneous Coronary Intervention:PCI)に代表される血管内治療が行われている。PCIは、手首、肘又は足の付け根からカテーテルを血管内に挿入し、バルーン又はステントを用いて冠動脈の狭窄部位を拡張する治療方法である。カテーテルには、例えば血管内超音波(IVUS:Intra Vascular Ultra Sound)検査用のセンサが設けられており、術者は、IVUS用センサで血管内部から撮影したIVUS画像によって血管内の狭窄部位を確認することができる。またカテーテルには、近赤外光を用いた光干渉断層撮影(OCT:Optical Coherence Tomography)用のセンサが設けられているものもある。特許文献1には、IVUSセンサ及びOCTセンサが設けられたカテーテルが開示されている。
特開2005-95624号公報
 特許文献1に開示されたカテーテルでは、IVUSセンサ及びOCTセンサは、カテーテルの長軸方向(血管の走行方向)に異なる位置に設けられている。よって、同じ撮影タイミングでのIVUSセンサによる観察位置とOCTセンサによる観察位置との間にズレが生じる。よって、IVUS画像及びOCT画像の読影が煩雑化し、IVUS画像及びOCT画像を確認しながら行われる手技の正確性が低下する虞がある。
 また、カテーテルにX線不透過性物質による造影マーカを設け、X線画像に写る造影マーカによって、カテーテルの位置を確認しながら、IVUS画像又はOCT画像によって狭窄部位を確認することが行われている。このような構成においても、IVUSセンサ又はOCTセンサと、造影マーカとは、カテーテルの長軸方向に異なる位置に設けられており、同じ撮影タイミングでのX線画像中の造影マーカの位置と、IVUSセンサ又はOCTセンサによる観察位置との間にズレが生じる。よって、このような構成においても、IVUS画像又はOCT画像の読影が煩雑化する。
 一つの側面では、カテーテルを用いて撮影された画像に基づいて、読影し易い画像を提供することが可能なプログラム等を提供することを目的とする。
 一つの側面に係るプログラムは、カテーテルに用いられるイメージングコアの長軸方向に対して第1角度傾いた方向に照射した第1検査波による信号データセットを取得し、取得した信号データセットに基づいて、前記長軸方向に対して前記第1角度とは異なる第2角度傾いた方向を観察対象とした画像を構築する処理をコンピュータに実行させる。
 一つの側面では、カテーテルを用いて撮影された画像に基づいて、術者が読影し易い画像を提供することができる。
画像診断装置の構成例を示す説明図である。 画像診断用カテーテルの概要を説明する説明図である。 センサ部を挿通させた血管の断面を示す説明図である。 断層画像を説明する説明図である。 断層画像を説明する説明図である。 画像処理装置の構成例を示すブロック図である。 IVUSセンサ及びOCTセンサによる観察位置のズレを説明する説明図である。 IVUSセンサ及びOCTセンサによる観察位置のズレを説明する説明図である。 観察位置のズレを補正する処理を説明する説明図である。 観察位置のズレを補正する処理を説明する説明図である。 断層画像の補正処理手順の一例を示すフローチャートである。 センサ部の回転中心からの距離に応じた観察位置のズレ量の算出方法の説明図である。 各距離に応じた補正フレーム数の算出結果の例を示す説明図である。 実施形態2の画像処理装置の構成例を示すブロック図である。 実施形態2の断層画像の補正処理手順の一例を示すフローチャートである。 実施形態3の画像処理装置及びサーバの構成例を示すブロック図である。 カテーテルDBの構成例を示す模式図である。 実施形態3の断層画像の補正処理手順の一例を示すフローチャートである。 学習モデルの構成例を示す模式図である。 学習モデルの生成処理手順の一例を示すフローチャートである。 実施形態4の断層画像の補正処理手順の一例を示すフローチャートである。 IVUSセンサによる観察位置のマーカに対するズレを説明する説明図である。 観察位置のズレを補正する処理を説明する説明図である。 観察位置のズレを補正する処理を説明する説明図である。 実施形態5の断層画像の補正処理手順の一例を示すフローチャートである。
 以下、本開示のプログラム、画像処理方法及び画像処理装置について、その実施形態を示す図面に基づいて詳述する。以下の各実施形態では、血管内治療である心臓カテーテル治療を一例に説明するが、カテーテル治療の対象とする管腔器官は血管に限定されず、例えば胆管、膵管、気管支、腸等の他の管腔器官であってもよい。
(実施形態1)
 図1は、画像診断装置100の構成例を示す説明図である。本実施形態では、血管内超音波診断法(IVUS)及び光干渉断層診断法(OCT)の両方の機能を備えるデュアルタイプのカテーテルを用いた画像診断装置について説明する。デュアルタイプのカテーテルでは、IVUSのみによって超音波断層画像を取得するモードと、OCTのみによって光干渉断層画像を取得するモードと、IVUS及びOCTによって両方の断層画像を取得するモードとが設けられており、これらのモードを切り替えて使用することができる。以下、超音波断層画像及び光干渉断層画像それぞれを適宜、IVUS画像及びOCT画像という。また、IVUS画像及びOCT画像を総称して断層画像という。
 本実施形態の画像診断装置100は、血管内検査装置101と、血管造影装置102と、画像処理装置3と、表示装置4と、入力装置5とを備える。血管内検査装置101は、画像診断用カテーテル1及びMDU(Motor Drive Unit)2を備える。画像診断用カテーテル1は、MDU2を介して画像処理装置3に接続されている。画像処理装置3には、表示装置4及び入力装置5が接続されている。表示装置4は、例えば液晶ディスプレイ又は有機ELディスプレイ等であり、入力装置5は、例えばキーボード、マウス、トラックボール又はマイク等である。表示装置4と入力装置5とは、一体に積層されて、タッチパネルを構成していてもよい。また入力装置5と画像処理装置3とは、一体に構成されていてもよい。更に入力装置5は、ジェスチャ入力又は視線入力等を受け付けるセンサであってもよい。
 血管造影装置102は画像処理装置3に接続されている。血管造影装置102は、患者の血管に造影剤を注入しながら、患者の生体外からX線を用いて血管を撮影し、当該血管の透視画像であるアンギオ画像を得るためのアンギオグラフィ装置である。血管造影装置102は、X線源及びX線センサを備え、X線源から照射されたX線をX線センサが受信することにより、患者のX線透視画像(X線画像)をイメージングする。なお、画像診断用カテーテル1にはX線を透過しないX線不透過性物質で構成されたマーカが設けられており、アンギオ画像において画像診断用カテーテル1(マーカ)の位置が可視化される。血管造影装置102は、撮影して得られたアンギオ画像を画像処理装置3へ出力し、画像処理装置3を介して表示装置4に表示される。なお、表示装置4には、アンギオ画像と、画像診断用カテーテル1を用いて撮影された断層画像とが表示される。
 図2は画像診断用カテーテル1の概要を説明する説明図である。なお、図2中の上側の一点鎖線の領域は、下側の一点鎖線の領域を拡大したものである。画像診断用カテーテル1は、プローブ11と、プローブ11の端部に配置されたコネクタ部15とを有する。プローブ11は、コネクタ部15を介してMDU2に接続される。以下の説明では画像診断用カテーテル1のコネクタ部15から遠い側を先端側と記載し、コネクタ部15側を基端側と記載する。プローブ11は、カテーテルシース11aを備え、その先端部には、ガイドワイヤが挿通可能なガイドワイヤ挿通部14が設けられている。ガイドワイヤ挿通部14はガイドワイヤルーメンを構成し、予め血管内に挿入されたガイドワイヤを受け入れ、ガイドワイヤによってプローブ11を患部まで導くのに使用される。カテーテルシース11aは、ガイドワイヤ挿通部14との接続部分からコネクタ部15との接続部分に亘って連続する管部を形成している。カテーテルシース11aの内部にはシャフト13が挿通されており、シャフト13の先端側にはセンサ部12が接続されている。
 センサ部12は、ハウジング12dを有し、ハウジング12dの先端側は、カテーテルシース11aの内面との摩擦や引っ掛かりを抑制するために半球状に形成されている。ハウジング12d内には、超音波を血管内に送信すると共に血管内からの反射波を受信する超音波送受信部12a(以下ではIVUSセンサ12aという)と、近赤外光を血管内に送信すると共に血管内からの反射光を受信する光送受信部12b(以下ではOCTセンサ12bという)とが配置されている。図2に示す例では、プローブ11の先端側にIVUSセンサ12aが設けられており、基端側にOCTセンサ12bが設けられており、シャフト13の中心軸上(図2中の二点鎖線上)において軸方向(シャフト13の長軸方向)に沿って距離xだけ離れて配置されている。画像診断用カテーテル1において、IVUSセンサ12a及びOCTセンサ12bは、シャフト13の軸方向に対して略90度となる方向(シャフト13の径方向)を超音波又は近赤外光の送受信方向として取り付けられている。なお、IVUSセンサ12a及びOCTセンサ12bは、カテーテルシース11aの内面での反射波又は反射光を受信しないように、径方向よりややずらして取り付けられることが望ましい。本実施形態では、例えば図2中の矢符で示すように、IVUSセンサ12aは径方向に対して基端側に傾斜した方向を超音波の照射方向とし、OCTセンサ12bは径方向に対して先端側に傾斜した方向を近赤外光の照射方向として取り付けられている。
 シャフト13には、IVUSセンサ12aに接続された電気信号ケーブル(図示せず)と、OCTセンサ12bに接続された光ファイバケーブル(図示せず)とが内挿されている。プローブ11は、先端側から血管内に挿入される。センサ部12及びシャフト13は、カテーテルシース11aの内部で進退可能であり、また、周方向に回転することができる。センサ部12及びシャフト13は、シャフト13の中心軸を回転軸として回転する。画像診断装置100では、センサ部12及びシャフト13によって構成されるイメージングコアを用いることにより、血管の内側から撮影された超音波断層画像(IVUS画像)、又は、血管の内側から撮影された光干渉断層画像(OCT画像)によって血管内部の状態を測定する。
 MDU2は、コネクタ部15によってプローブ11(画像診断用カテーテル1)が着脱可能に取り付けられる駆動装置であり、医療従事者の操作に応じて内蔵モータを駆動することにより、血管内に挿入された画像診断用カテーテル1の動作を制御する。例えばMDU2は、プローブ11に内挿されたセンサ部12及びシャフト13を一定の速度でMDU2側に向けて引っ張りながら周方向に回転させるプルバック操作を行う。センサ部12は、プルバック操作によって先端側から基端側に移動しながら回転しつつ、所定の時間間隔で連続的に血管内を走査することにより、プローブ11に略垂直な複数枚の横断層像を所定の間隔で連続的に撮影する。MDU2は、IVUSセンサ12aが受信した超音波の反射波データと、OCTセンサ12bが受信した反射光データとを画像処理装置3へ出力する。
 画像処理装置3は、MDU2を介してIVUSセンサ12aが受信した超音波の反射波データと、OCTセンサ12bが受信した反射光データとを取得する。画像処理装置3は、超音波の反射波データから信号データセットである超音波ラインデータを生成し、生成した超音波ラインデータに基づいて血管の横断層を撮影した超音波断層画像(IVUS画像)を構築する。また、画像処理装置3は、反射光データから信号データセットである光ラインデータを生成し、生成した光ラインデータに基づいて血管の横断層を撮影した光断層画像(OCT画像)を構築する。ここで、IVUSセンサ12a及びOCTセンサ12bによって取得される信号データセットと、信号データセットから構築される断層画像とについて説明する。図3は、センサ部12を挿通させた血管の断面を示す説明図であり、図4A及び図4Bは断層画像を説明する説明図である。
 まず、図3を用いて、血管内におけるIVUSセンサ12a及びOCTセンサ12bの動作と、IVUSセンサ12a及びOCTセンサ12bによって取得される信号データセット(超音波ラインデータ及び光ラインデータ)について説明する。センサ部12及びシャフト13が血管内に挿通された状態で断層画像の撮影が開始されると、センサ部12が矢符で示す方向に、シャフト13の中心軸を回転中心として回転する。このとき、IVUSセンサ12aは、各回転角度において超音波の送信及び受信を行う。ライン1,2,…512は各回転角度における超音波の送受信方向を示している。本実施形態では、IVUSセンサ12aは、血管内において360度回動(1回転)する間に512回の超音波の送信及び受信を断続的に行う。IVUSセンサ12aは、1回の超音波の送受信により、送受信方向の1ラインのデータ(信号データ)を取得するので、1回転の間に、回転中心から放射線状に延びる512本の超音波ラインデータを得ることができる。512本の超音波ラインデータは、回転中心の近傍では密であるが、回転中心から離れるにつれて互いに疎になっていく。そこで、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示すような2次元の超音波断層画像(IVUS画像)を構築することができる。
 同様に、OCTセンサ12bも、各回転角度において近赤外光(測定光)の送信及び受信を行う。OCTセンサ12bも血管内において360度回動する間に512回の測定光の送信及び受信を行うので、1回転の間に、回転中心から放射線状に延びる512本の光ラインデータを得ることができる。光ラインデータについても、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示すIVUS画像と同様の2次元の光干渉断層画像(OCT画像)を構築することができる。
 このように512本のラインデータから構築される2次元の断層画像を1フレームのIVUS画像又はOCT画像という。なお、センサ部12は血管内を移動しながら走査するため、移動範囲内において1回転した各位置で1フレームのIVUS画像又はOCT画像が取得される。即ち、移動範囲においてプローブ11の先端側から基端側への各位置で1フレームのIVUS画像又はOCT画像が取得されるので、図4Bに示すように、移動範囲内で複数フレームのIVUS画像又はOCT画像が取得される。本実施形態では、IVUSセンサ12a及びOCTセンサ12bはそれぞれ、512本のラインデータを取得する構成とするが、IVUSセンサ12a及びOCTセンサ12bが取得するラインデータの数は512本に限定されない。
 画像診断用カテーテル1は、IVUSセンサ12aによって得られるIVUS画像又はOCTセンサ12bによって得られるOCT画像と、血管造影装置102によって得られるアンギオ画像との位置関係を確認するために、X線を透過しないマーカを有する。図2に示す例では、カテーテルシース11aの先端部、例えばガイドワイヤ挿通部14にマーカ14aが設けられており、センサ部12のシャフト13側にマーカ12cが設けられている。このように構成された画像診断用カテーテル1をX線で撮影すると、マーカ14a,12cが可視化されたアンギオ画像が得られる。マーカ14a,12cを設ける位置は一例であり、マーカ12cはセンサ部12ではなくシャフト13に設けてもよく、マーカ14aはカテーテルシース11aの先端部以外の箇所に設けてもよい。
 図5は画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、制御部31、主記憶部32、入出力I/F33、補助記憶部34、読取部35を備える。制御部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。制御部31は、バスを介して画像処理装置3を構成するハードウェア各部と接続されている。
 主記憶部32は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部31が演算処理を実行するために必要なデータを一時的に記憶する。
 入出力I/F33は、血管内検査装置101及び血管造影装置102、表示装置4及び入力装置5が接続されるインタフェースである。制御部31は、入出力I/F33を介して、血管内検査装置101から超音波の反射波データ及び測定光の反射光データを取得し、血管造影装置102からアンギオ画像を取得する。なお、制御部31は、血管内検査装置101から取得した反射波データから超音波ラインデータを生成し、更にIVUS画像を構築する。また制御部31は、血管内検査装置101から取得した反射光データから光ラインデータを生成し、更にOCT画像を構築する。また、制御部31は、入出力I/F33を介して、IVUS画像、OCT画像、又はアンギオ画像の医用画像信号を表示装置4へ出力することによって、表示装置4に医用画像を表示する。更に、制御部31は、入出力I/F33を介して、入力装置5に入力された情報を受け付ける。
 補助記憶部34は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部34は、制御部31が実行するコンピュータプログラムP、制御部31の処理に必要な各種データを記憶する。なお、補助記憶部34は画像処理装置3に接続された外部記憶装置であってもよい。コンピュータプログラムPは、画像処理装置3の製造段階において補助記憶部34に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部34に記憶させてもよい。コンピュータプログラムPは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体30に読み出し可能に記録された態様であってもよく、読取部35が記録媒体30から読み出して補助記憶部34に記憶させてもよい。
 画像処理装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよい。また、画像処理装置3は、サーバクライアントシステムや、クラウドサーバ、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。以下の説明では、画像処理装置3が1台のコンピュータであるものとして説明する。本実施形態では、画像処理装置3に、2次元のアンギオ画像を撮影する血管造影装置102が接続されているが、生体外の複数の方向から患者の管腔器官及び画像診断用カテーテル1を撮影する装置であれば、血管造影装置102に限定されない。
 本実施形態の画像処理装置3において、制御部31は、補助記憶部34に記憶されたコンピュータプログラムPを読み出して実行することにより、IVUSセンサ12aが受信した反射波データから超音波ラインデータを生成し、OCTセンサ12bが受信した反射光データから光ラインデータを生成する。更に制御部31は、超音波ラインデータに基づいてIVUS画像を構築する処理を行い、光ラインデータに基づいてOCT画像を構築する処理を行う。なお、IVUSセンサ12a及びOCTセンサ12bは、後述するように同じ撮影タイミングでの観察位置にズレが生じるので、制御部31は、IVUS画像及びOCT画像を構築する際に、IVUS画像及びOCT画像における観察位置のズレを補正する処理を行う。よって、本実施形態の画像処理装置3は、観察位置を一致させたIVUS画像及びOCT画像を構築することができ、読影し易い画像を提供することができる。
 図6A及び図6Bは、IVUSセンサ12a及びOCTセンサ12bによる観察位置のズレを説明する説明図である。図6Aはセンサ部12をシャフト13の径方向から見た状態を示し、図6Bはセンサ部12をプローブ11の先端側から見た状態を示す。図6A,Bにおいて実線矢符はIVUSセンサ12aによる超音波の送受信方向を示し、破線矢符はOCTセンサ12bによる測定光の送受信方向を示す。
 本実施形態のセンサ部12では、IVUSセンサ12aはシャフト13の径方向に対して基端側に傾斜した方向を超音波の送受信方向としており、図6Aに示す例では、超音波の送受信方向はシャフト13の中心軸上の基端側の方向に対して角度αをなしている。またOCTセンサ12bはシャフト13の径方向に対して先端側に傾斜した方向を測定光の送受信方向としており、測定光の送受信方向はシャフト13の中心軸上の先端側の方向に対して角度βをなしている。このようなIVUSセンサ12a及びOCTセンサ12bでは、図6Aに示すように超音波の経路及び測定光の経路が交差しており、交差する位置では同じ対象が観察されるが、その他の箇所では、それぞれの観察位置にシャフト13の軸方向のズレが生じる。観察位置のズレは、超音波及び測定光の交差位置で最も小さく、交差位置から離れるにつれて大きくなる。また、交差位置よりもセンサ部12側の領域は、OCTセンサ12bがIVUSセンサ12aよりも先に観察し、交差位置よりも更に遠い領域は、IVUSセンサ12aがOCTセンサ12bよりも先に観察するので、観察される順番が異なる。このような観察位置のズレは、センサ12a,12bの配置位置間の距離xと、センサ12a,12bの取付角度(超音波の送受信方向の角度α、測定光の送受信方向の角度β)と、センサ部12の回転中心から観察位置までの距離とに応じて異なる。センサ12a,12bの配置位置間の距離x及び取付角度は、画像診断用カテーテル1の製造過程で生じる個体差を含むので、センサ部12の回転中心から観察位置までの各距離における観察位置のズレ量は画像診断用カテーテル1毎に異なる。
 また図6Bに示すように、IVUSセンサ12aによる超音波の送受信方向と、OCTセンサ12bによる測定光の送受信方向とは、センサ部12の回転方向(周方向)にもズレが生じる。図6Bに示す例では、超音波の送受信方向を基準として時計回りを正方向として角度φだけ測定光の送受信方向がずれている。従って、IVUSセンサ12aによる観察位置とOCTセンサ12bによる観察位置とは周方向にもずれており、周方向の観察位置のズレ(角度差)も、センサ12a,12bの取付角度に応じて異なる。よって、周方向の観察位置のズレ量も画像診断用カテーテル1毎に異なる。
 従って、本実施形態の画像処理装置3は、超音波ラインデータ及び光ラインデータからIVUS画像及びOCT画像を構築する際に、上述したようなセンサ12a,12bによる観察位置のズレを補正したIVUS画像及びOCT画像を構築する。図7A及び図7Bは観察位置のズレを補正する処理を説明する説明図である。図7Aはシャフト13の軸方向における観察位置のズレの説明図であり、図7Bは、OCT画像における観察位置とIVUS画像における観察位置とが一致するようにOCT画像を補正する処理の説明図である。
 図7A中の1,2,3は、センサ部12の回転中心からの距離がr1,r2,r3の観察位置を示す。図7Aには、OCTセンサ12bは観察位置1をn-1フレーム目で観察し、観察位置2をnフレーム目で観察し、観察位置3をn+1フレーム目で観察したことを示し、IVUSセンサ12aは観察位置1~3をnフレーム目で観察したことを示している。このような状況では、図7Bの上段に示すように、IVUS画像にはnフレーム目に観察位置1~3が撮影され、n-1フレーム目及びn+1フレーム目は観察位置1~3が撮影されない。一方、図7Bの上から二段目に示すように、OCT画像にはn-1フレーム目に観察位置1が撮影され、nフレーム目に観察位置2が撮影され、n+1フレーム目に観察位置3が撮影される。即ち、図7Aに示す例では、観察位置1に対するOCTセンサ12bによる観察タイミングはIVUSセンサ12aよりも1フレーム前であり、観察位置3に対する観察タイミングは1フレーム後である。よって、画像処理装置3は、IVUS画像及びOCT画像を、各観察位置1~3を同じ観察タイミングで観察した状態(同じフレーム番号の断層画像に撮影された状態)に補正することにより、観察位置のズレを補正することができる。
 なお、観察位置はシャフト13の軸方向だけでなく、図6Bに示すように周方向(回転方向)にもずれているので、図7Bの上から三段目に示すように、OCT画像には、観察位置1~3がそれぞれ周方向に角度φずれた位置に撮影される。従って、本実施形態の画像処理装置3は、図7Bの下段に示すように、複数フレームのOCT画像における各領域を合成して1フレームのOCT画像を構築することにより、OCT画像における観察位置とIVUS画像における観察位置とのズレを解消する補正処理を行う。以下では、OCT画像に対して補正を行ってOCT画像の観察対象をIVUS画像の観察対象に一致させる処理を行うが、IVUS画像に対して同様の補正を行ってIVUS画像の観察対象をOCT画像の観察対象に一致させる処理を行ってもよい。
 図8は、断層画像の補正処理手順の一例を示すフローチャートである。以下の処理は、画像処理装置3の制御部31が、補助記憶部34に記憶してあるコンピュータプログラムPに従って行う。なお、図6Aに示したセンサ12a,12bの配置位置間の距離x、IVUSセンサ12aによる超音波の送受信方向の角度α(第2角度)、OCTセンサ12bによる測定光の送受信方向の角度β(第1角度)、図6Bに示した超音波及び測定光の送受信方向における周方向のズレ量(角度φ)は、主記憶部32又は補助記憶部34に記憶されているものとする。以下では、OCTセンサ12b(第1送受信部)が送信した測定光(第1検査波)の反射光データから生成されたOCT画像に対して、IVUSセンサ12a(第2送受信部)が送信した超音波(第2検査波)の反射波データから生成されたIVUS画像に観察対象を一致させる補正処理を行う。
 画像処理装置3の制御部31(取得部)は、血管内検査装置101による血管内の撮影処理が開始された場合、MDU2を介してIVUSセンサ12aから超音波の反射波データを取得し、取得した超音波の反射波データから超音波ラインデータを生成する。また制御部31は、MDU2を介してOCTセンサ12bから反射光データを取得し、取得した反射光データから光ラインデータを生成する(S11)。制御部31は、超音波ラインデータに対して、補間処理によって画素を補間して2次元のIVUS画像を構築する(S12)。そして、制御部31は、光ラインデータに基づいて、IVUS画像と観察対象を一致させたOCT画像(以下ではOCT補正画像という)を構築する。具体的には、まず制御部31は、センサ部12による撮影時のフレームピッチを算出する(S13)。フレームピッチは、断層画像の各フレーム間の距離(シャフト13の軸方向において各フレームの観察位置間の距離(測定光の照射間隔))であり、撮影時におけるセンサ部12の移動速度及び回転速度によって算出される。具体的には、プルバック操作によるセンサ部12の移動速度(例えば1秒間の移動距離(単位:mm))及び回転速度(例えば1秒間の回転数(単位:回))によって算出される。制御部31は、例えば(移動速度/回転速度)によってフレームピッチを算出する。
 次に制御部31は、センサ部12の回転中心から各距離の箇所における観察位置のズレ量を算出する(S14)。ここでは制御部31は、シャフト13の軸方向における観察位置のズレ量、即ち、IVUSセンサ12aによる超音波の照射位置とOCTセンサ12bによる測定光の照射位置との間のズレ量を算出する。図9は、センサ部12の回転中心からの距離に応じた観察位置のズレ量の算出方法の説明図である。図9において、センサ部12の回転中心からの距離がLである領域における観察位置のズレ量はΔx(単位:mm)で表される。軸方向におけるズレ量Δxは以下の式1で表される。なお、x(単位:mm)はセンサ12a,12bの配置位置の軸方向におけるズレ量である。また、ΔxIVUS(単位:mm)は以下の式2で表され、ΔxOCT (単位:mm)は以下の式3で表される。よって、式2及び式3を式1に代入することによって、式4が得られ、センサ部12の回転中心からの距離がLである領域における観察位置のズレ量Δxは式4を用いて算出される。
  Δx=x-ΔxIVUS-ΔxOCT        …(式1)
  ΔxIVUS=L×cotα         …(式2)
  ΔxOCT =L×cotβ         …(式3)
  Δx=x-L×(cotα+cotβ) …(式4)
 次に制御部31は、シャフト13の軸方向における観察位置のズレ量に基づいて、センサ部12の回転中心から各距離の箇所において、軸方向における補正量(補正フレーム数)を算出する(S15)。補正フレーム数は、ステップS14で算出した軸方向における観察位置のズレ量と、ステップS13で算出したフレームピッチとに基づいて、以下の式5を用いて算出される。
  補正フレーム数=Δx/フレームピッチ  …(式5)
 なお、制御部31は、センサ部12の回転中心からの各距離における観察位置のズレ量Δx及び補正フレーム数を算出する代わりに、観察位置のズレ量Δxがフレームピッチの倍数となる各箇所における回転中心からの距離Lをそれぞれ算出してもよい。例えばフレームピッチが0.1mmの場合、観察位置のズレ量Δxが0.1mm,0.2mm,0.3mm,…となる各距離Lを算出する。この場合、算出した各距離Lに応じた補正フレーム数として1,2,3,…を特定できる。図10は各距離Lに応じた補正フレーム数の算出結果の例を示す説明図である。図10に示す例は、例えばセンサ部12の移動速度が10mm/sであり、回転速度が6000rpm(100fps)であり、センサ12a,12b間の軸方向の距離xが0.80mmであり、超音波の送受信方向の角度αが85°であり、測定光の送受信方向の角度βが84°である場合の算出結果を示す。このように算出された補正フレーム数は、1フレームのIVUS画像に撮影された観察対象をOCTセンサ12bで撮影した場合のOCT画像のフレーム数を示しており、このような補正フレーム数を用いることにより、軸方向における観察位置のズレを、フレームピッチ単位で補正することができる。
 次に制御部31は、センサ部12の回転方向における観察位置のズレ量に基づいて、周方向における補正量(補正ライン数)を算出する(S16)。補正ライン数は、IVUSセンサ12aによる超音波の送受信方向と、OCTセンサ12bによる測定光の送受信方向とにおける周方向のズレ量(角度φ)に基づいて算出される。なお、1フレームのOCT画像は周方向に並ぶ512本のラインデータで構成されているので、制御部31は、以下の式6を用いて補正ライン数を算出できる。これにより、送受信方向が角度φずれている場合に、OCT画像を補正ライン数だけ前倒しに補正することにより、OCT画像の観察位置をIVUS画像の観察対象に一致させることができ、周方向における観察位置のズレを解消する補正を行うことができる。
  補正ライン数=512×φ/360°  …(式6)
 制御部31(画像構築部)は、ステップS15で算出した各距離に応じた補正フレーム数と、ステップS16で算出した補正ライン数とに基づいて、観察対象をIVUS画像に一致させたOCT補正画像を構築する(S17)。例えば制御部31は、光ラインデータの各ライン番号に対して、ステップS16で算出した補正ライン数を減算する。なお、減算後のライン番号が負の数となった場合、512を加算し、減算後の各ライン番号が1~512の値となるようにする。これにより、光ラインデータの各ラインと超音波ラインデータの各ラインとが対応付けられ、対応付けられた内容に従って、IVUS画像を基準とした周方向における観察位置のズレが補正される。そして制御部31は、減算後の各ライン番号の光ラインデータを用いて、ステップS15で算出した補正フレーム数に応じた補正処理を行い、各フレームのOCT補正画像を構築する。以下では、nフレーム目のOCT補正画像の構築処理について説明する。
 図10に示す算出結果の場合、例えば回転中心からの距離が0.78mm(0.52mmと1.04mmとの中間の箇所)までの領域については、n-7フレーム目の光ラインデータにおいて、回転中心からの距離が0.78mmまでの領域に対応するデータ値に基づく各画素値を割り当てる。また、回転中心からの距離が0.78~1.30mm(1.04mmと1.56mmとの中間の箇所)の領域については、n-6フレーム目の光ラインデータにおいて、回転中心からの距離が0.78~1.30mmの領域に対応するデータ値に基づく各画素値を割り当てる。このような処理を、回転中心からの距離に応じた各領域に対して行うことにより、光ラインデータの各ラインのデータと超音波ラインデータの各ラインのデータとが対応付けられ、対応付けられた内容に従って、各領域におけるズレ量に応じたフレームのOCT画像が合成されて1フレームのOCT補正画像を構築することができる。なお、観察位置のズレ量が0となる位置よりも回転中心から離れた領域では、(n+補正フレーム数)番目のフレームの光ラインデータのデータ値に基づいて各画素値が割り当てられる。例えば、観察位置のズレ量が0となる位置よりも回転中心から離れた領域のうちで、算出した補正フレーム数が1の領域については、n+1フレーム目の光ラインデータにおいて、対応する領域のデータ値に基づく各画素値を割り当てる。このように構築されたOCT補正画像は、IVUS画像を基準とした軸方向における観察位置のズレが補正された断層画像となる。なお、制御部31は、上述した処理によってセンサ部12の回転方向及び軸方向における補正処理を行うと共に、光ラインデータに対して補間処理によって各ライン間の画素を補間して2次元のOCT画像(OCT補正画像)を構築する。
 制御部31は、上述したような補正処理を行うことにより、光ラインデータから複数フレームのOCT補正画像を構築し、観察位置をIVUS画像に一致させたOCT補正画像を生成する。上述した処理によって構築されたIVUS画像及びOCT補正画像は、例えば表示装置4に表示され、画像診断用カテーテル1を使用する術者に提示される。
 本実施形態では、図2及び図6Aに示すようにIVUSセンサ12aによる超音波の送受信方向と、OCTセンサ12bによる測定光の送受信方向とが交差するようにセンサ12a,12bが配置されているが、このような構成に限定されない。例えば超音波の送受信方向がシャフト13の径方向に対して先端側に傾斜した方向であり、測定光の送受信方向が基端側に傾斜した方向となるようにセンサ12a,12bが配置された構成であっても、同様の処理によってIVUS画像及びOCT画像における観察位置のズレを補正することができる。
(実施形態2)
 断層画像を補正する際に用いる情報が画像診断用カテーテル1の製造時に測定され、測定された各数値をコード化したコードが画像診断用カテーテル1に付加してある画像診断装置について説明する。なお、断層画像の補正処理に用いる情報は、シャフト13の軸方向におけるセンサ12a,12b間の距離xと、IVUSセンサ12aによる超音波の送受信方向(角度α)と、OCTセンサ12bによる測定光の送受信方向(角度β)と、センサ部12の回転方向における超音波及び測定光の送受信方向のズレ量(角度φ)とを含む。
 本実施形態の画像診断装置100は、実施形態1の画像診断装置100における各装置と同様の装置によって実現できるので、同様の構成については説明を省略する。なお、本実施形態の画像診断装置100では、画像処理装置3の構成が実施形態1とは若干異なるので、異なる箇所についてのみ説明する。
 図11は実施形態2の画像処理装置3の構成例を示すブロック図である。本実施形態の画像処理装置3は、図5に示す実施形態1の画像処理装置3の構成に加えてコードリーダ36を備える。コードリーダ36は、バーコード等の1次元コード及びQRコード(登録商標)等の二次元コードを読み取る装置であり、読み取ったコードをデコードしてコード情報を取得し、得られたコード情報を制御部31へ送出する。
 本実施形態の画像診断装置100では、画像診断用カテーテル1の製造過程において、上述したような断層画像の補正処理に用いる情報(x,α,β,φ)が計測され、計測された各数値と、この画像診断用カテーテル1に付与されるシリアルナンバーとをコード化する。図11に示す例ではQRコードCがコネクタ部15に付加されている。コードCはコネクタ部15に直接印字されてもよく、コードCが印刷されたシールがコネクタ部15に貼付されてもよい。このような構成の画像診断装置100では、例えば術者が、コネクタ部15を介して画像診断用カテーテル1をMDU2に接続する際にコードCをコードリーダ36に読み取らせることにより、画像処理装置3は、断層画像の補正処理に用いる情報(x,α,β,φ)を取得する。
 図12は、実施形態2の断層画像の補正処理手順の一例を示すフローチャートである。図12に示す処理は、図8に示す処理において、ステップS11の前にステップS21を追加したものである。図8と同じステップについては説明を省略する。本実施形態の画像診断装置100では、画像処理装置3の制御部31は、まずコードリーダ36によってコードCからコード情報を読み取る(S21)。コード情報は、画像診断用カテーテル1の製造過程において測定された各数値(x,α,β,φ)と、画像診断用カテーテル1のシリアルナンバーとを含み、読み取った各情報は主記憶部32に記憶される。
 その後、血管内検査装置101による血管内の撮影処理が開始され、制御部31は、ステップS11以降の処理を実行する。なお、本実施形態では、ステップS13で撮影時のフレームピッチを算出する場合、ステップS14~S15でシャフト13の軸方向における観察位置のズレ量及び補正フレーム数を算出する場合、更に、ステップS16でセンサ部12の回転方向における補正ライン数を算出する場合に、コードCから読み取った各情報を用いる。
 上述した処理により、本実施形態においても、IVUSセンサ12aによる観察位置及びOCTセンサ12bによる観察位置において、センサ部12の軸方向及び回転方向におけるズレが補正され、観察位置をIVUS画像に一致させたOCT補正画像を構築できる。
 本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、センサ12a,12b間の距離x、IVUSセンサ12aによる超音波の送受信方向(角度α)、OCTセンサ12bによる測定光の送受信方向(角度β)、センサ部12の回転方向における超音波及び測定光の送受信方向のズレ量(角度φ)が、画像診断用カテーテル1の製造過程において測定され、コード化されて画像診断用カテーテル1(例えばコネクタ部15)に付加される。よって、画像処理装置3は、画像診断用カテーテル1に付加されたコードCをコードリーダ36で読み取ることにより、断層画像に行うべき補正処理に用いる各情報を取得することができる。これらの情報は、製造過程においてカテーテル1毎に生じる取付誤差(個体差)を含むので、このようなコードCをカテーテル1に付与しておくことにより、精度の良い補正処理の実行が可能となる。なお、本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。例えば、光ラインデータから、観察対象をIVUS画像に一致させたOCT補正画像を構築する代わりに、超音波ラインデータから、観察対象をOCT画像に一致させたIVUS補正画像を構築する処理を行ってもよい。このような構成とした場合であっても、本実施形態と同様の効果が得られる。
(実施形態3)
 実施形態2の画像診断装置100において、断層画像を補正する際に用いる情報を画像処理装置3がサーバから取得するように構成された画像診断装置について説明する。本実施形態の画像診断装置100は、実施形態1の画像診断装置100における各装置と同様の装置によって実現できるので、同様の構成については説明を省略する。なお、本実施形態の画像診断装置100では、画像処理装置3の構成が実施形態2と若干異なる。本実施形態では、断層画像を補正する際に用いる情報(x,α,β,φ)が、インターネット等のネットワークに接続されたサーバで管理されている。よって、画像処理装置3は、ネットワークを介してサーバから断層画像の補正処理に用いる情報を取得することにより、実施形態1,2と同様の補正処理の実行が可能となる。
 図13は実施形態3の画像処理装置3及びサーバ6の構成例を示すブロック図である。本実施形態の画像処理装置3は、図11に示す実施形態2の画像処理装置3の構成に加えて通信部37を備える。通信部37は、有線通信又は無線通信によって画像処理装置3をネットワークNに接続するための通信モジュールであり、ネットワークNを介して他の装置との間で情報の送受信を行う。
 サーバ6は、例えばサーバコンピュータ又はパーソナルコンピュータを用いて構成される。サーバ6は、複数台設けられて分散処理する構成でもよいし、1台のサーバ内に設けられた複数の仮想マシンによって実現されていてもよいし、クラウドサーバを用いて実現されていてもよい。サーバ6は、制御部61、主記憶部62、入出力I/F63、補助記憶部64、読取部65、通信部66を備える。サーバ6の制御部61、主記憶部62、入出力I/F63、補助記憶部64、読取部65、通信部66のそれぞれは、画像処理装置3の制御部31、主記憶部32、入出力I/F33、補助記憶部34、読取部35、通信部37と同様の構成であるので説明を省略する。なお、サーバ6の補助記憶部64は、制御部61が実行するコンピュータプログラムに加えて、後述するカテーテルDB64aを記憶する。カテーテルDB64aは、サーバ6に接続された他の記憶装置に記憶されていてもよく、サーバ6が通信可能な他の記憶装置に記憶されていてもよい。
 図14はカテーテルDB64aの構成例を示す模式図である。カテーテルDB64aは、画像診断用カテーテル1に付与されたシリアルナンバーに対応付けて、画像診断用カテーテル1の製造過程において測定された各数値(x,α,β,φ)を記憶する。具体的には、画像診断用カテーテル1に取り付けられたセンサ12a,12b間の軸方向の距離x、IVUSセンサ12aによる超音波の送受信方向の角度α、OCTセンサ12bによる測定光の送受信方向の角度β、センサ部12の回転方向における超音波及び測定光の送受信方向のズレ量(角度φ)が登録されている。
 上述した構成の画像診断装置100では、画像診断用カテーテル1の製造過程において、断層画像の補正処理に用いる情報(x,α,β,φ)が計測され、計測された各数値が、この画像診断用カテーテル1に付与されたシリアルナンバーと共にサーバ6に登録される。一方、画像診断用カテーテル1に付与されたシリアルナンバーがコード化され、図11と同様にコードCがコネクタ部15に付加される。本実施形態の画像診断装置100においても、術者がコネクタ部15を介して画像診断用カテーテル1をMDU2に接続する際にコードCをコードリーダ36に読み取らせる。これにより、画像処理装置3は、画像診断用カテーテル1のシリアルナンバーを取得し、シリアルナンバーに基づいて、断層画像の補正処理に用いる情報(x,α,β,φ)をサーバ6から取得する。
 図15は、実施形態3の断層画像の補正処理手順の一例を示すフローチャートである。図15に示す処理は、図12に示す処理において、ステップS21,S11の間にステップS31~S34を追加したものである。図12と同じステップについては説明を省略する。なお、図15では左側に画像処理装置3が行う処理を、右側にサーバ6が行う処理をそれぞれ示す。本実施形態の画像診断装置100では、画像処理装置3の制御部31は、まずコードリーダ36によってコードCからコード情報を読み取る(S21)。ここでのコード情報は、画像診断用カテーテル1のシリアルナンバーであり、制御部31は、読み取ったシリアルナンバーに基づいて、ここでの画像診断用カテーテル1を用いて取得した断層画像に行うべき補正処理に用いる情報(x,α,β,φ)をサーバ6に要求する(S31)。
 サーバ6の制御部61は、画像処理装置3から画像診断用カテーテル1のシリアルナンバーを取得した場合、シリアルナンバーに対応する各情報(x,α,β,φ)をカテーテルDB64aから読み出す(S32)。そして制御部61は、読み出した情報(x,α,β,φ)をネットワークN経由で画像処理装置3へ送信する(S33)。画像処理装置3の制御部31は、サーバ6から取得した各情報(x,α,β,φ)を主記憶部32に記憶する(S34)。
 その後、血管内検査装置101による血管内の撮影処理が開始され、制御部31は、ステップS11以降の処理を実行する。なお、本実施形態では、ステップS13で撮影時のフレームピッチを算出する場合、ステップS14~S15でシャフト13の軸方向における観察位置のズレ量及び補正フレーム数を算出する場合、更に、ステップS16でセンサ部12の回転方向における補正ライン数を算出する場合に、サーバ6から取得した各情報を用いる。上述した処理により、本実施形態においても、IVUSセンサ12aによる観察位置及びOCTセンサ12bによる観察位置において、センサ部12の軸方向及び回転方向におけるズレが補正され、観察位置をIVUS画像に一致させたOCT補正画像を構築できる。
 本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、断層画像に行う補正処理に用いる各情報(x,α,β,φ)が、画像診断用カテーテル1のシリアルナンバーに対応付けてサーバ6で管理される。よって、画像処理装置3は、断層画像に行うべき補正処理に用いる各情報をサーバ6から取得することができる。これにより、本実施形態においても、精度の良い補正処理の実行が可能となり、観察対象を一致させたIVUS画像及びOCT画像の提供が可能となる。なお、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
(実施形態4)
 画像処理装置3がIVUS画像及びOCT画像に基づいて、IVUS画像又はOCT画像に行うべき補正処理に用いる各情報を特定するように構成された画像診断装置100について説明する。本実施形態の画像診断装置100は、実施形態1の画像診断装置100における各装置と同様の装置によって実現できるので、同様の構成については説明を省略する。なお、本実施形態の画像診断装置100において、画像処理装置3は、図5に示す実施形態1の画像処理装置3の構成に加えて、補助記憶部34に学習モデル34Mを記憶している。
 図16は学習モデル34Mの構成例を示す模式図である。学習モデル34Mは、画像診断用カテーテル1を用いて取得した超音波ラインデータ及び光ラインデータに基づいて画像処理装置3が生成したIVUS画像及びOCT画像を入力として、IVUS画像又はOCT画像に行うべき補正処理に用いる情報を出力する機械学習モデルである。補正処理に用いる情報は、画像診断用カテーテル1において、シャフト13の軸方向におけるセンサ12a,12b間の距離xと、超音波の送受信方向(角度α)と、測定光の送受信方向(角度β)と、センサ部12の回転方向における超音波及び測定光の送受信方向のズレ量(角度φ)とを含む。学習モデル34Mは、各情報(x,α,β,φ)に対して予め設定された選択肢に対する確率を出力する。
 学習モデル34Mは、例えば深層学習によって生成されるニューラルネットワークであるCNN(Convolutional Neural Network)で構成される。学習モデル34Mは、CNNのほかに、RNN(Recurrent Neural Network)、GAN(Generative Adversarial Network)、決定木、ランダムフォレスト、SVM(Support Vector Machine)等のアルゴリズムを用いて構成されてもよく、複数のアルゴリズムを組み合わせて構成されてもよい。画像処理装置3は、所定の訓練データを学習する機械学習を行って学習モデル34Mを事前に生成しておく。そして画像処理装置3は、IVUS画像及びOCT画像を学習モデル34Mに入力し、IVUS画像又はOCT画像に行うべき補正処理に用いる情報を取得する。
 学習モデル34Mには、例えばMDU2による1回のプルバック操作で取得されたIVUS画像及びOCT画像が入力される。学習モデル34Mには、同じタイミングで取得した1フレームのIVUS画像及びOCT画像が入力され、時系列で取得されたIVUS画像及びOCT画像が順次入力されてもよい。学習モデル34Mは、IVUS画像及びOCT画像が入力される入力層と、入力情報から特徴量を抽出する中間層と、補正処理に用いる各情報を出力する出力層とを備える。出力層は、各情報(x,α,β,φ)について1つの出力層が設けられている。
 入力層は複数の入力ノードを有しており、各入力ノードにはIVUS画像及びOCT画像の各画素がそれぞれ入力される。中間層は、所定の関数及び閾値等を用いて、入力層を介して入力された断層画像に対してフィルタ処理及び圧縮処理等の演算を行って出力値を算出し、算出した出力値を出力層へ出力する。中間層が複数の層を有する場合、各層のノードは、各層間の関数及び閾値等を用いて、入力された断層画像に基づく出力値を算出し、算出した出力値を順次後の層のノードに入力する。中間層は、各層のノードの出力値を順次後の層のノードに入力することにより、最終的に算出した出力値を出力層へ与える。
 学習モデル34Mは、出力層としてセンサ間距離出力層、超音波角度出力層、測定光角度出力層、及び周方向ズレ量出力層を有する。センサ間距離出力層はセンサ12a,12b間の距離xを出力し、超音波角度出力層は超音波の送受信方向(角度α)を出力し、測定光角度出力層は測定光の送受信方向(角度β)を出力し、周方向ズレ量出力層は回転方向における超音波及び測定光の送受信方向のズレ量(角度φ)を出力する。センサ間距離出力層は、選択肢として用意された距離(第1距離、第2距離等)をそれぞれ対応付けられた複数の出力ノードを有し、各出力ノードから、対応付けられた距離であると判別すべき確率を出力する。センサ間距離出力層の各出力ノードからの出力値は例えば0~1の値であり、各出力ノードから出力された確率の合計が1.0(100%)となる。同様に、超音波角度出力層、測定光角度出力層、及び周方向ズレ量出力層のそれぞれは、選択肢として用意された角度(第1角度、第2角度等)をそれぞれ対応付けられた複数の出力ノードを有し、各出力ノードから、対応付けられた角度であると判別すべき確率を出力する。超音波角度出力層、測定光角度出力層、及び周方向ズレ量出力層のそれぞれにおいて、各出力ノードからの出力値は例えば0~1の値であり、各出力ノードから出力された確率の合計が1.0(100%)となる。超音波角度出力層、測定光角度出力層、及び周方向ズレ量出力層に対して選択肢として設定される角度はそれぞれ異なる角度である。上述した構成により、学習モデル34Mは、IVUS画像及びOCT画像が入力された場合に、IVUS画像及びOCT画像を撮影した画像診断用カテーテル1における各情報(x,α,β,φ)を出力する。
 上述した学習モデル34Mを用いる場合、画像処理装置3は、センサ間距離出力層からの出力値のうちで最大の出力値(判別確率)を出力した出力ノードに対応付けられている距離を、画像診断用カテーテル1におけるセンサ間距離に特定する。また、超音波角度出力層からの出力値のうちで最大の出力値を出力した出力ノードに対応付けられている角度を、IVUSセンサ12aによる超音波の送受信角度に特定する。また、測定光角度出力層からの出力値のうちで最大の出力値を出力した出力ノードに対応付けられている角度を、OCTセンサ12bによる測定光の送受信角度に特定する。更に、周方向ズレ量出力層からの出力値のうちで最大の出力値を出力した出力ノードに対応付けられている角度を、超音波及び測定光の周方向のズレ量に特定する。なお、それぞれの出力層の後段に、最も確率が高い選択肢を選択して出力する選択層が設けられていてもよい。この場合、それぞれの出力層は、判別確率が最も高い選択肢(距離又は角度)を出力する1個の出力ノードを有する構成となる。
 学習モデル34Mは、画像診断用カテーテル1を用いて取得したIVUS画像及びOCT画像と、例えば画像診断用カテーテル1の製造過程において測定された各情報(x,α,β,φ)(正解ラベル)とを含む訓練データを用意し、この訓練データを用いて未学習の学習モデルを機械学習させることにより生成することができる。学習モデル34Mは、訓練データに含まれるIVUS画像及びOCT画像が入力された場合に、各出力層において、訓練データに含まれる正解ラベル(各情報)に対応する出力ノードからの出力値が1に近づき、他の出力ノードからの出力値が0に近づくように学習する。具体的には、学習モデル34Mは、入力されたIVUS画像及びOCT画像に基づいて中間層での演算を行い、各出力層の出力ノードからの出力値を算出する。そして学習モデル34Mは、算出した各出力ノードの出力値と、正解ラベルに応じた値(正解の値に対応する出力ノードについては1、その他の出力ノードについては0)とを比較し、各出力値が正解ラベルに応じた値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)等である。パラメータの最適化の方法は特に限定されないが、最急降下法、誤差逆伝播法等を用いることができる。
 学習モデル34Mの学習は他の学習装置で行われてもよい。他の学習装置で学習が行われて生成された学習済みの学習モデル34Mは、例えばネットワーク経由又は記録媒体30経由で学習装置から画像処理装置3にダウンロードされて補助記憶部34に記憶される。
 以下に、訓練データを学習して学習モデル34Mを生成する処理について説明する。図17は学習モデル34Mの生成処理手順の一例を示すフローチャートである。以下の処理は、画像処理装置3の制御部31が、補助記憶部34に記憶してあるコンピュータプログラムPに従って行うが、他の学習装置で行われてもよい。
 画像処理装置3の制御部31は、IVUS画像及びOCT画像に対して、正解の各情報(x,α,β,φ)が付与された訓練データを取得する(S41)。訓練データ用のIVUS画像及びOCT画像は、カテーテル治療の際に撮影されたIVUS画像及びOCT画像を用いることができる。正解の各情報は、IVUS画像及びOCT画像を撮影した画像診断用カテーテル1に対して例えば製造過程において測定した各情報を用いることができる。なお、訓練データは、予め訓練データ用のIVUS画像及びOCT画像と画像診断用カテーテル1の各情報とを用意して訓練データDB(図示せず)に登録しておいてもよい。この場合、制御部31は、訓練データDBから訓練データを取得すればよい。
 制御部31は、取得した訓練データを用いて学習モデル34Mの学習処理を行う(S42)。ここでは、制御部31は、訓練データに含まれるIVUS画像及びOCT画像を学習モデル34Mに入力し、センサ間距離x、超音波角度α、測定光角度β、周方向ズレ量φの各情報に関する出力値を取得する。制御部31は、出力された各情報に関する出力値を、正解の各情報に応じた値(0又は1)と比較し、両者が近似するように、中間層での演算処理に用いるパラメータを最適化する。具体的には、制御部31は、各出力層において、正解の値に対応する出力ノードからの出力値が1に近づき、他の出力ノードからの出力値が0に近づくように学習モデル34Mを学習させる。
 制御部31は、未処理のデータがあるか否かを判断する(S43)。例えば訓練データが予め訓練データDBに登録してある場合、制御部31は、訓練データDBに記憶してある訓練データにおいて、未処理の訓練データがあるか否かを判断する。未処理のデータがあると判断した場合(S43:YES)、制御部31はステップS41の処理に戻り、学習処理が未処理の訓練データに基づいて、ステップS41~S42の処理を行う。未処理のデータがないと判断した場合(S43:NO)、制御部31は一連の処理を終了する。
 上述した処理により、IVUS画像及びOCT画像を入力することによって、IVUS画像及びOCT画像の撮影に用いた画像診断用カテーテル1における各情報(x,α,β,φ)を出力するように学習された学習モデル34Mが得られる。なお、上述したような訓練データを用いた学習処理を繰り返し行うことにより、学習モデル34Mを更に最適化することができる。また、既に学習済みの学習モデル34Mについても、上述した処理を行うことによって再学習させることができ、この場合、判別精度がより高い学習モデル34Mが得られる。
 本実施形態の画像診断装置100では、画像診断用カテーテル1を用いてIVUS画像及びOCT画像を取得した後、取得したIVUS画像及びOCT画像から学習モデル34Mを用いて画像診断用カテーテル1における各情報(x,α,β,φ)を特定する。そして画像処理装置3は、特定した各情報(x,α,β,φ)を用いて、IVUS画像又はOCT画像に対して補正処理を行うことにより、観察対象を一致させたIVUS画像及びOCT画像が得られる。
 図18は、実施形態4の断層画像の補正処理手順の一例を示すフローチャートである。図18に示す処理は、図8に示す処理において、ステップS12,S13の間にステップS51~S52を追加したものである。図8と同じステップについては説明を省略する。本実施形態の画像処理装置3では、制御部31は、図8に示すステップS11~S12の処理を行った後、ステップS11で取得した光ラインデータに対して、補間処理によって画素を補間して2次元のOCT画像を構築する(S51)。なお、ここでのIVUS画像及びOCT画像は観察位置にズレが生じている画像である。
 次に制御部31は、ステップS12で構築したIVUS画像と、ステップS51で構築したOCT画像とを学習モデル34Mに入力し、学習モデル34Mからの出力値に基づいて、IVUS画像及びOCT画像を撮影した画像診断用カテーテル1における各情報(x,α,β,φ)を特定する(S52)。例えば制御部31は、学習モデル34Mにおいて、各出力層の出力ノードのうちで、最大の出力値を出力した出力ノードを特定し、特定した出力ノードに対応付けられている値(距離又は角度)を、画像診断用カテーテル1における各情報に特定する。このように特定した各情報(x,α,β,φ)は例えば主記憶部32に記憶される。
 その後、制御部31は、ステップS13以降の処理を実行する。なお、本実施形態では、ステップS13で撮影時のフレームピッチを算出する場合、ステップS14~S15でシャフト13の軸方向における観察位置のズレ量及び補正フレーム数を算出する場合、更に、ステップS16でセンサ部12の回転方向における補正ライン数を算出する場合に、学習モデル34Mを用いて特定した各情報を用いる。上述した処理により、本実施形態においても、IVUSセンサ12a及びOCTセンサ12bにおける観察位置のズレが補正され、観察位置を一致させたIVUS画像及びOCT補正画像を提供できる。
 本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、IVUS画像又はOCT画像に行うべき補正処理に用いる各情報(x,α,β,φ)が、学習モデル34Mを用いてIVUS画像及びOCT画像から特定される。よって、このような情報を用いて補正処理を行うことにより、観察位置をIVUS画像に一致させたOCT補正画像を構築することが可能となる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
 本実施形態では、学習モデル34Mを用いて画像診断用カテーテル1における各情報(補正処理に用いる各情報)を特定する処理を画像処理装置3がローカルで行う構成であるが、この構成に限定されない。例えば、学習モデル34Mを用いた各情報の特定処理を行うサーバを設けてもよい。この場合、画像処理装置3は、IVUS画像及びOCT画像をサーバへ送信し、サーバでIVUS画像及びOCT画像から特定された各情報を取得するように構成されていてもよい。このような構成とした場合であっても、本実施形態と同様の処理が可能であり、同様の効果が得られる。
 本実施形態において、学習モデル34Mは、IVUS画像及びOCT画像が入力された場合に、補正処理に用いる各情報(x,α,β,φ)の代わりに、補正処理に用いる補正フレーム数及び補正ライン数(補正量)を出力するように構成されていてもよい。この場合、画像処理装置3は、学習モデル34Mを用いて補正処理に用いる補正量を特定し、特定した補正量を用いた補正処理を行うことにより、補正後のIVUS補正画像又はOCT補正画像を生成できる。また、学習モデル34Mは、IVUS画像及びOCT画像が入力された場合に、補正処理が施されたIVUS補正画像又はOCT補正画像を出力するように構成されていてもよい。この場合、画像処理装置3は、学習モデル34Mを用いることにより、補正後のIVUS補正画像又はOCT補正画像を取得できる。
(実施形態5)
 上述した実施形態1~4の画像診断装置100では、画像処理装置3は、観察対象をIVUS画像に一致させたOCT補正画像を構築する構成である。本実施形態では、観察対象をアンギオ画像上に可視化されたマーカ12c(造影マーカ)の位置に一致させたIVUS補正画像又はOCT補正画像を構築する画像処理装置3について説明する。本実施形態の画像診断装置100は、実施形態1の画像診断装置100における各装置と同様の装置によって実現できるので、同様の構成については説明を省略する。以下では、画像診断用カテーテル1がIVUSセンサ12a及びOCTセンサ12bの両方を備える構成を例に説明するが、本実施形態の画像診断用カテーテル1はIVUSセンサ12aのみを備える構成であってもよく、OCTセンサ12bのみを備える構成であってもよい。以下では、観察対象をアンギオ画像上のマーカ12cに一致させたIVUS補正画像を構築する処理について説明するが、同様の処理によって、観察対象をアンギオ画像上のマーカ12cに一致させたOCT補正画像も構築可能である。
 図19は、IVUSセンサ12aによる観察位置のマーカ12cに対するズレを説明する説明図である。図19はセンサ部12をシャフト13の径方向から見た状態を示しており、このような画像診断用カテーテル1を血管造影装置102によって撮影すると、図19下図のようにマーカ12cが可視化されたアンギオ画像が得られる。本実施形態のセンサ部12では、IVUSセンサ12aはシャフト13の中心軸上の基端側の方向に対して角度αの方向を超音波の送受信方向としている。よって、図19に示すように超音波の経路とマーカ12cの造影範囲とが交差しており、交差位置以外の箇所では、IVUSセンサ12aの観察位置がマーカ12cの位置に対してシャフト13の軸方向にずれる。マーカ12cの位置に対するIVUSセンサ12aの観察位置のズレは、IVUSセンサ12a及びマーカ12c配置位置間の距離yと、IVUSセンサ12aの取付角度(超音波の送受信方向の角度α)と、センサ部12の回転中心からの距離Lとに応じて異なる。
 本実施形態の画像処理装置3は、超音波ラインデータからIVUS画像を構築する際に、上述したようなマーカ12cの位置に対するIVUSセンサ12aの観察位置のズレを補正したIVUS補正画像を構築する。図20及び図21は観察位置のズレを補正する処理を説明する説明図である。図20はシャフト13の軸方向におけるIVUSセンサ12aの観察位置のズレの説明図であり、図21は観察位置をマーカ12cの位置に一致させたIVUS補正画像の説明図である。図20中の12cは、nフレーム目のIVUS画像の撮影タイミングでのマーカ12cの位置を示しており、図20中の1~5は、nフレーム目におけるマーカ12cの位置(造影範囲)において、センサ部12の回転中心からの距離がr1~r5の位置を示す。図20には、IVUSセンサ12aが観察位置5をn-2フレーム目で観察し、観察位置4をn-1フレーム目で観察し、観察位置3をnフレーム目で観察し、観察位置2をn+1フレーム目で観察し、観察位置1をn+2フレーム目で観察したことを示している。
 このような状況では、図21の上側に示すように、IVUS画像にはn-2フレーム目に観察位置5が撮影され、n-1フレーム目に観察位置4が撮影され、nフレーム目に観察位置3が撮影され、n+1フレーム目に観察位置2が撮影され、n+2フレーム目に観察位置1が撮影される。即ち、図20及び図21に示す例では、観察位置5に対するIVUSセンサ12aの観察タイミングはマーカ12cの到達タイミングよりも2フレーム前であり、観察位置4に対するIVUSセンサ12aの観察タイミングはマーカ12cの到達タイミングよりも1フレーム前である。また、観察位置2に対するIVUSセンサ12aの観察タイミングはマーカ12cの到達タイミングよりも1フレーム後であり、観察位置1に対するIVUSセンサ12aの観察タイミングはマーカ12cの到達タイミングよりも2フレーム後である。よって、画像処理装置3は、図21の下側に示すように、複数フレームのIVUS画像における各領域(回転中心からの距離に応じた領域)を合成して1フレームのIVUS画像を構築することにより、観察位置をマーカ12cの位置に一致させたIVUS補正画像を生成することができる。
 図22は、実施形態5の断層画像の補正処理手順の一例を示すフローチャートである。図19に示したIVUSセンサ12a及びマーカ12c間の距離y、IVUSセンサ12aによる超音波の送受信角度αは、主記憶部32又は補助記憶部34に記憶されているものとする。
 画像処理装置3の制御部31は、血管内検査装置101による血管内の撮影処理が開始された場合、MDU2を介してIVUSセンサ12aから超音波の反射波データを取得し、取得した超音波の反射波データから超音波ラインデータを生成する(S61)。次に制御部31は、センサ部12による撮影時のフレームピッチを算出する(S62)。フレームピッチの算出は、図8中のステップS13と同様である。次に制御部31は、センサ部12の回転中心からの各距離における、マーカ12cの位置に対するIVUSセンサ12aの観察位置のズレ量を算出する(S63)。センサ部12の回転中心からの距離がLである領域における観察位置のズレ量Δy(単位:mm)は以下の式7を用いて算出される。なお、y(単位:mm)はIVUSセンサ12a及びマーカ12c間の軸方向における距離である。
  Δy=y-ΔxIVUS=y-L×cotα …(式7)
 次に制御部31は、マーカ12cに対するIVUSセンサ12aの観察位置のズレ量に基づいて、センサ部12の回転中心からの各距離において、軸方向における補正量(補正フレーム数)を算出する(S64)。補正フレーム数は、ステップS63で算出した観察位置のズレ量と、ステップS62で算出したフレームピッチとに基づいて、以下の式8を用いて算出される。
  補正フレーム数=Δy/フレームピッチ  …(式8)
 本実施形態においても、制御部31は、センサ部12の回転中心からの各距離におけるズレ量Δyを算出する代わりに、ズレ量Δyがフレームピッチの倍数となる各箇所における回転中心からの距離Lをそれぞれ算出してもよい。例えばフレームピッチが0.1mmの場合、観察位置のズレ量Δyが0.1mm,0.2mm,0.3mm,…となる各距離Lを算出する。この場合、算出した各距離Lに応じた補正フレーム数として1,2,3,…を特定できる。
 制御部31は、ステップS64で算出した各距離に応じた補正フレーム数に基づいて、観察対象をマーカ12cの位置に一致させたIVUS補正画像を構築する(S65)。例えば制御部31は、超音波ラインデータを用いて、センサ部12の回転中心からの距離に応じた補正フレーム数に従い、複数フレームのIVUS画像の各領域を合成することにより、1フレームのIVUS補正画像を構築する。図20及び図21に示す例では、センサ部12の回転中心から遠い領域の順に、n-2フレーム目~n+2フレーム目の5本の超音波ラインデータの各領域に対応するデータ値に基づく各画素値を割り当て、1フレームのIVUS補正画像を構築する。なお、制御部31は、上述した補正処理を行うと共に、超音波ラインデータに対して補間処理によって各ライン間の画素を補間して2次元のIVUS画像(IVUS補正画像)を構築する。このように構築されたIVUS補正画像は、マーカ12cの造影範囲を撮影対象としたIVUS画像となるので、アンギオ画像上のマーカ12cの箇所を撮影したIVUS補正画像を提供できる。このようにIVUS補正画像の撮影位置とアンギオ画像上のマーカ12cの位置とが一致するので、読影し易いIVUS画像を提供でき、IVUS画像を確認しながら行われる手技の正確性の向上が期待できる。上述した処理によって構築されたIVUS補正画像は、例えば表示装置4に表示され、画像診断用カテーテル1を使用する術者に提示される。
 本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、観察対象をアンギオ画像上のマーカ12cに一致させたIVUS補正画像を提供できるので、画像診断装置100をIVUS画像のみを取得するモードで使用する場合であっても、読影し易いIVUS画像の提示が可能となる。なお、本実施形態において、同様の処理によって、観察対象をアンギオ画像上のマーカ12cに一致させたOCT補正画像も構築可能である。この場合、画像診断装置100をOCT画像のみを取得するモードで使用する場合であっても、読影し易いOCT画像の提示が可能となる。
 本実施形態の構成は、実施形態2~3の画像診断装置100にも適用可能であり、実施形態2~3に適用した場合であっても同様の効果が得られる。なお、実施形態2~3に適用した場合、補正処理に用いる各情報(IVUSセンサ12a及びマーカ12c間の距離y、IVUSセンサ12aによる超音波の送受信角度α)は、画像診断用カテーテル1に付加されたコードCを読み取ることによって、又はサーバ6から取得することによって得られる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
 上述した実施形態1~4の画像処理装置3は、IVUSセンサ12aによる観察位置とOCTセンサ12bによる観察位置とを一致させる補正処理を行う。このほかに、例えば実施形態5のように、観察位置をマーカ12cの位置(造影範囲)に一致させる補正処理を、IVUS画像及びOCT画像のそれぞれに行うことにより、IVUSセンサ12aによる観察位置とOCTセンサ12bによる観察位置とを一致させてもよい。この場合、例えばIVUS画像の取得処理とOCT画像の取得処理とを別々に行う場合であっても、それぞれ得られたIVUS画像及びOCT画像に対して、観察位置をマーカ12cの位置に一致させる補正処理を実行することにより、IVUS画像及びOCT画像における観察対象を一致させることが可能となる。
 上述した各実施形態では、超音波を用いて血管内の断層画像を撮影するIVUSセンサ12aと、近赤外光を用いて血管内の断層画像を撮影するOCTセンサ12bとを使用する構成であるが、このような構成に限定されない。例えばIVUSセンサ12a又はOCTセンサ12bの代わりに、血管内からのラマン散乱光を受光して血管内の断層画像を撮影するセンサ、血管内からの励起光を受光して血管内の断層画像を撮影するセンサ等、血管の状態を観察できる各種のセンサを使用する構成とすることもできる。
 今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 1   画像診断用カテーテル
 2   MDU
 3   画像処理装置
 4   表示装置
 5   入力装置
 6   サーバ
 31  制御部
 36  コードリーダ
 37  通信部
 101 血管内検査装置
 102 血管造影装置
 34M 学習モデル
 64a カテーテルDB
 C   コード
 P   コンピュータプログラム
 

Claims (10)

  1.  カテーテルに用いられるイメージングコアの長軸方向に対して第1角度傾いた方向に照射した第1検査波による信号データセットを取得し、
     取得した信号データセットに基づいて、前記長軸方向に対して前記第1角度とは異なる第2角度傾いた方向を観察対象とした画像を構築する
     処理をコンピュータに実行させるプログラム。
  2.  前記イメージングコアは、前記第1検査波を照射して前記第1検査波の反射波を受信する第1送受信部と、前記長軸方向に対して前記第2角度傾いた方向に第2検査波を照射して前記第2検査波の反射波を受信する第2送受信部とを有し、
     前記第1検査波による信号データセットに基づいて、前記第2検査波が照射される方向を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項1に記載のプログラム。
  3.  前記第1送受信部による前記第1検査波の照射方向と、前記第2送受信部による前記第2検査波の照射方向とにおける、前記長軸方向を軸とした周方向の角度差に基づいて、前記第1検査波による信号データセット又は前記第2検査波による信号データセットに対して、前記周方向の角度差を解消する補正を行う
     処理を前記コンピュータに実行させる請求項2に記載のプログラム。
  4.  前記第1角度及び前記第2角度と、前記イメージングコアに設けられた前記第1送受信部及び前記第2送受信部の配置位置における前記長軸方向の距離とに基づいて、前記第1検査波による信号データセットに含まれる各信号データと、前記第2検査波による信号データセットに含まれる各信号データとを対応付け、
     対応付けた内容に基づいて、前記第1検査波による信号データセットから、前記第2検査波が照射される方向を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項2又は3に記載のプログラム。
  5.  前記カテーテルの製造時に計測された前記第1角度、前記第2角度、及び前記イメージングコアの前記第1送受信部及び前記第2送受信部の配置位置における前記長軸方向の距離を取得し、
     取得した前記第1角度、前記第2角度及び前記長軸方向の距離に基づいて、前記第1検査波による信号データセットから、前記第2検査波が照射される方向を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項2から4までのいずれかひとつに記載のプログラム。
  6.  前記第1角度、前記第2角度、及び前記イメージングコアの前記第1送受信部及び前記第2送受信部の配置位置における前記長軸方向の距離に基づいて、前記イメージングコアから観察対象までの各距離において、前記第1検査波の照射位置と、前記第2検査波の照射位置とにおける前記長軸方向の距離を算出し、
     算出した前記照射位置の距離と、前記第1検査波の照射間隔とに基づいて、前記第1検査波による信号データセットから、前記第2検査波が照射される方向を観察対象とした画像を構築するための補正量を算出し、
     算出した補正量に基づいて、前記第1検査波による信号データセットから、前記第2検査波が照射される方向を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項2から5までのいずれかひとつに記載のプログラム。
  7.  前記第1検査波による信号データセット及び前記第2検査波による信号データセットを入力した場合に、前記第1角度、前記第2角度、及び前記イメージングコアの前記第1送受信部及び前記第2送受信部の配置位置における前記長軸方向の距離を出力するように学習済みの学習モデルに、取得した前記第1検査波による信号データセット及び前記第2検査波による信号データセットを入力して前記第1角度、前記第2角度、及び前記長軸方向の距離を特定し、
     特定した前記第1角度、前記第2角度、及び前記長軸方向の距離に基づいて、前記第1検査波による信号データセットから、前記第2検査波が照射される方向を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項2から6までのいずれかひとつに記載のプログラム。
  8.  前記イメージングコアは、前記第1検査波を照射して前記第1検査波の反射波を受信する第1送受信部と、X線不透過性物質によって構成された造影マーカとを有しており、
     前記イメージングコアに設けられた前記第1送受信部及び前記造影マーカの配置位置における前記長軸方向の距離並びに前記第1角度に基づいて、前記第1検査波による信号データセットに含まれる各信号データと、前記造影マーカを撮影したX線画像とを対応付け、
     対応付けた内容に基づいて、前記第1検査波による信号データセットから、前記X線画像中の造影マーカの造影範囲を観察対象とした画像を構築する
     処理を前記コンピュータに実行させる請求項1に記載のプログラム。
  9.  カテーテルに用いられるイメージングコアの長軸方向に対して第1角度傾いた方向に照射した第1検査波による信号データセットを取得し、
     取得した信号データセットに基づいて、前記長軸方向に対して前記第1角度とは異なる第2角度傾いた方向を観察対象とした画像を構築する
     処理をコンピュータが実行する画像処理方法。
  10.  カテーテルに用いられるイメージングコアの長軸方向に対して第1角度傾いた方向に照射した第1検査波による信号データセットを取得する取得部と、
     取得した信号データセットに基づいて、前記長軸方向に対して前記第1角度とは異なる第2角度傾いた方向を観察対象とした画像を構築する画像構築部と
     を備える画像処理装置。
     
PCT/JP2022/010572 2021-03-29 2022-03-10 プログラム、画像処理方法及び画像処理装置 WO2022209705A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023510795A JPWO2022209705A1 (ja) 2021-03-29 2022-03-10
US18/476,787 US20240016460A1 (en) 2021-03-29 2023-09-28 Program, image processing method, and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-055867 2021-03-29
JP2021055867 2021-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/476,787 Continuation US20240016460A1 (en) 2021-03-29 2023-09-28 Program, image processing method, and image processing device

Publications (1)

Publication Number Publication Date
WO2022209705A1 true WO2022209705A1 (ja) 2022-10-06

Family

ID=83456052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010572 WO2022209705A1 (ja) 2021-03-29 2022-03-10 プログラム、画像処理方法及び画像処理装置

Country Status (3)

Country Link
US (1) US20240016460A1 (ja)
JP (1) JPWO2022209705A1 (ja)
WO (1) WO2022209705A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145689A1 (ja) * 2012-03-28 2013-10-03 テルモ株式会社 プローブ及び画像診断装置
WO2016047772A1 (ja) * 2014-09-26 2016-03-31 テルモ株式会社 画像診断プローブ
JP2017506933A (ja) * 2014-01-14 2017-03-16 ボルケーノ コーポレイション 血管アクセスを形成する装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145689A1 (ja) * 2012-03-28 2013-10-03 テルモ株式会社 プローブ及び画像診断装置
JP2017506933A (ja) * 2014-01-14 2017-03-16 ボルケーノ コーポレイション 血管アクセスを形成する装置及び方法
WO2016047772A1 (ja) * 2014-09-26 2016-03-31 テルモ株式会社 画像診断プローブ

Also Published As

Publication number Publication date
JPWO2022209705A1 (ja) 2022-10-06
US20240016460A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
US20230230244A1 (en) Program, model generation method, information processing device, and information processing method
US20240013385A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
WO2021199968A1 (ja) コンピュータプログラム、情報処理方法、情報処理装置及びモデル生成方法
JP7489882B2 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
US20240013514A1 (en) Information processing device, information processing method, and program
WO2022209705A1 (ja) プログラム、画像処理方法及び画像処理装置
WO2023054467A1 (ja) モデル生成方法、学習モデル、コンピュータプログラム、情報処理方法及び情報処理装置
US20230017227A1 (en) Program, information processing method, information processing apparatus, and model generation method
WO2022071265A1 (ja) プログラム、情報処理装置及び情報処理方法
WO2022272239A1 (en) Systems and methods utilizing machine-learning for in vivo navigation
WO2023132332A1 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
JP7164423B2 (ja) 医用画像処理装置、x線ct装置及び医用画像処理方法
WO2023189308A1 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
WO2022209652A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
WO2022202320A1 (ja) プログラム、情報処理方法及び情報処理装置
WO2022209657A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
WO2022202323A1 (ja) プログラム、情報処理方法及び情報処理装置
US20240008849A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
JP2022142607A (ja) プログラム、画像処理方法、画像処理装置及びモデル生成方法
JP2022146619A (ja) コンピュータプログラム、画像処理方法及び画像処理装置
WO2023100838A1 (ja) コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法
JP2022146620A (ja) コンピュータプログラム、画像処理方法及び画像処理装置
JP2022146621A (ja) コンピュータプログラム、画質改善学習モデル、学習モデル生成方法、画像処理方法及び画像処理装置
WO2024071322A1 (ja) 情報処理方法、学習モデルの生成方法、コンピュータプログラム及び情報処理装置
KR102553961B1 (ko) 의료 영상 기반으로 내시경 시술의 맹점을 방지하기 위한 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22779927

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023510795

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22779927

Country of ref document: EP

Kind code of ref document: A1