WO2019069867A1 - 血管抽出装置および血管抽出方法 - Google Patents

血管抽出装置および血管抽出方法 Download PDF

Info

Publication number
WO2019069867A1
WO2019069867A1 PCT/JP2018/036733 JP2018036733W WO2019069867A1 WO 2019069867 A1 WO2019069867 A1 WO 2019069867A1 JP 2018036733 W JP2018036733 W JP 2018036733W WO 2019069867 A1 WO2019069867 A1 WO 2019069867A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
pass
blood vessel
input
volume data
Prior art date
Application number
PCT/JP2018/036733
Other languages
English (en)
French (fr)
Inventor
増田 和正
根本 茂
渉 宇田
嵐 ▲ハイ▼島
Original Assignee
株式会社根本杏林堂
株式会社ユーワークス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社根本杏林堂, 株式会社ユーワークス filed Critical 株式会社根本杏林堂
Priority to US16/651,885 priority Critical patent/US11392793B2/en
Priority to JP2019546703A priority patent/JP7295022B2/ja
Priority to EP18865027.9A priority patent/EP3692920A4/en
Publication of WO2019069867A1 publication Critical patent/WO2019069867A1/ja
Priority to JP2023094482A priority patent/JP2023123542A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to a blood vessel extraction apparatus and a blood vessel extraction method, and in particular, a blood vessel extraction apparatus and a blood vessel extraction method capable of labor saving of the operator's work and extracting blood vessels from medical volume data with high accuracy. About.
  • X-ray CT Computed Tomography
  • MRI Magnetic Resonance Imaging
  • PET Positron Emission Tomography
  • ultrasound diagnostic apparatuses ultrasound diagnostic apparatuses
  • angiography imaging apparatuses etc.
  • Patent Document 1 discloses that a region of a coronary artery is extracted by segmentation processing based on CT volume data obtained by imaging the vicinity of the heart with an X-ray CT apparatus.
  • the inventors have found that the convolutional neural network technology can be applied to save the work of such an operator and efficiently extract the target blood vessel.
  • an object of the present invention is to provide a blood vessel extraction apparatus and a blood vessel extraction method capable of labor saving of the operator's work and capable of extracting a blood vessel with high accuracy from medical volume data.
  • An apparatus comprising an image processing unit for extracting blood vessels contained therein from medical volume data using a convolutional neural network, comprising:
  • the convolutional neural network is a1: A first pass including a plurality of convolutional layers, and data on a first target area including a part of target voxels of the medical volume data is input at a first resolution
  • the first pass a2: A second pass including a plurality of convolutional layers, and data on a second target area including a part of target voxels of the medical volume data is input at a second resolution Second pass
  • a folding network unit having b an output unit having a neural network structure, using the output results of the first pass and the second pass as input data, and outputting a numerical value related to visualization of the target voxel;
  • An apparatus for extracting blood vessels comprising:
  • Convolutional neural network includes at least one convolutional layer (CNN: Convolutional Neural Network), and the convolutional layer convolutes input image data (including three-dimensional ones) It refers to one that performs processing to extract feature quantities.
  • CNN Convolutional Neural Network
  • a filter used for convolution processing a three-dimensional filter is prepared for three-dimensional input data, and each element of the filter is set with a numerical value (weight) called a so-called filter parameter.
  • Data regarding visualization is, for example, a numerical value (voxel value) given for each voxel, and the corresponding voxel is displayed or not displayed corresponding to the numerical value, or how bright the display is. It is a numerical value that can decide whether to display etc. For example, it is a numerical value within the range of “0” to “1”.
  • a blood vessel extraction apparatus and a blood vessel extraction method which can save labor of the operator and can extract blood vessels with high accuracy from medical volume data.
  • FIG. 1 It is a figure showing typically about the system containing the blood-vessel extraction device of one form of the present invention. It is a perspective view which shows an example of a drug
  • FIG. 1 is a view schematically showing the configuration of an entire system including a blood vessel extraction device according to an embodiment of the present invention.
  • the entire system is, for example, an imaging apparatus 300, HIS 360 which is a medical record management apparatus, RIS 370 which is an imaging management apparatus, PACS 380 which is a data storage apparatus, a drug injection apparatus 100 for injecting a contrast agent etc. into a patient, a blood vessel extraction apparatus 400 , And may be provided with a network 350 or the like for connecting the respective devices.
  • the configuration other than the blood vessel extraction device 400 may be a conventionally known one.
  • a HIS (Hospital Information System) 360 is a computer in which a dedicated computer program is implemented, and has a chart management system.
  • the electronic medical records managed by the medical record management system include, for example, data such as medical record ID which is unique identification information, patient ID for each patient, personal data such as patient's name, medical chart data concerning patient's disease, etc. It may be.
  • medical chart data the weight, sex, age, etc. of the patient may be registered as personal condition data related to the entire treatment.
  • the RIS (Radiology Information System) 370 manages imaging order data for imaging fluoroscopic image data of a patient with unique identification information.
  • the imaging order data may be created based on an electronic medical chart acquired from the HIS.
  • the imaging order data includes, for example, unique identification information such as imaging work ID, work type such as CT imaging and MR imaging, patient ID and medical chart data of the above electronic medical record, identification information of CT scanner, date and time of imaging start and end It may include data such as body classification or imaging site, appropriate type consisting of chemical liquid type corresponding to imaging work, appropriate ID consisting of chemical liquid ID adapted to imaging work, and the like.
  • a Picture Archiving and Communication Systems (PACS) 380 receives fluoroscopic image data to which imaging order data has been added from an imaging device and stores it in a storage device.
  • the imaging apparatus 300 is, for example, an X-ray CT apparatus, and may have an imaging unit configured to capture a fluoroscopic image of a patient, a bed on which the patient is placed, and a control unit configured to control the operation thereof.
  • the imaging unit includes an X-ray irradiation unit disposed in a gantry and having an X-ray tube, a collimator, and the like for irradiating X-rays toward the patient, and an X-ray detector for detecting X-rays transmitted through the patient. It may have a detection unit.
  • the X-ray irradiator and the detector are configured to scan while rotating around the patient's body axis while maintaining their positional relationship.
  • the drug solution injector 100 will be described with reference to FIG.
  • the drug solution injector 100 includes, for example, an injection head 110 held by a movable stand 111 and a console 150 connected to the injection head 110 by a cable 102.
  • two syringes are removably mounted on the injection head 110 in parallel.
  • the injection head 110 and the console 150 may be connected by wireless method.
  • Examples of the drug solution filled in the syringe include a contrast agent and physiological saline.
  • one syringe may be filled with a contrast agent, and the other syringe may be filled with saline.
  • the syringe has a hollow cylindrical cylinder member and a piston member slidably inserted into the cylinder member.
  • the cylinder member may have a cylinder flange formed at its proximal end and a conduit formed at its distal end. By pushing the piston member into the cylinder member, the drug solution in the syringe is pushed out through the conduit portion.
  • the syringe may be a prefilled type in which a drug solution is filled in advance, or may be a suction type in which the drug solution is sucked into an empty syringe for use.
  • the injection head may be as follows although detailed illustration is omitted. That is, the injection head has a housing extending in the front-rear direction as an example, and on the top end side of the housing, two concave portions on which the syringes are placed are formed respectively.
  • the recess is a portion that functions as a syringe holder.
  • the syringe may be attached directly to the recess or may be attached via a predetermined syringe adapter.
  • the injection head also has a piston drive mechanism having at least the function of pushing the piston member of the syringe.
  • the piston drive mechanism is provided in two systems, and each mechanism operates independently.
  • the piston drive mechanism may have a function of retracting the piston member, for example, for suctioning a drug solution into the syringe.
  • the two piston drive mechanisms may be driven simultaneously or may be driven at different times.
  • the piston drive mechanism is connected to a drive motor, a motion conversion mechanism that converts the rotational output of the drive motor into linear motion, and the motion conversion mechanism to advance and / or retract the piston member.
  • a syringe presser (a ram member).
  • a piston drive mechanism a known mechanism generally used in a drug solution injector can be used.
  • An actuator other than the motor may be used as the drive source.
  • a drive mechanism may be provided which delivers the drug solution to the patient from a predetermined drug solution container (for example, a bottle, a bag, etc.) other than the syringe.
  • the injection head may have a reader / writer that reads the information of the IC tag and / or writes the information to the IC tag.
  • the reader / writer may be provided in the recess in which the syringe is mounted. Note that the reader / writer may have only the function of reading the information of the IC tag.
  • the console 150 may be placed and used in an operation room adjacent to the examination room in one example.
  • the console 150 has a display 151 for displaying a predetermined image, an operation panel 159 provided on the front of the case, and a control circuit disposed in the case.
  • the operation panel 159 is a portion where one or more physical buttons are arranged, and is operated by the operator.
  • the display 151 may be a touch panel display device or a simple display device.
  • the console 150 may have a speaker or the like (not shown) for outputting sound and / or sound.
  • the storage unit (not shown) of the console 150 may store various data related to the creation of the injection protocol and the execution of the injection. For example, data of a graphical user interface or data of an injection condition (injection pattern) or the like.
  • the blood vessel extraction device 400 includes an input device 461, an image processing unit 450, an interface 463, a storage unit 460, and the like as an example.
  • Examples of the input device 461 include general devices such as a keyboard and a mouse. If necessary, a microphone or the like for voice input may be used.
  • the blood vessel extraction device 400 may be configured by a workstation, a laptop computer, a tablet terminal, or the like.
  • the blood vessel extraction device 400 does not necessarily have to be a physically independent device, and may be realized by, for example, one or more computers on a network. Alternatively, it may be provided as a part of an imaging device, or may be provided as a part of a drug solution injection device.
  • a computer program according to an embodiment of the present invention is mounted on a console of an imaging device, mounted on one or more computers on a network, or mounted on a console of a liquid injector or the like. This may be realized.
  • the interface 463 is for connecting with various external devices and the like, and although only one is shown in the drawing, it is needless to say that a plurality of interfaces may be provided.
  • the connection method (communication method) may be wired or wireless.
  • the imaging device 300 and the like are connected to the interface 463 via the network, whereby data from, for example, the imaging device 300 and the PACS 380 are read into the blood vessel extraction device 400 (or identified by the device It has become so.
  • Storage unit 460 is a hard disk drive (HDD: Hard Disk) Drive (OS), solid state drive (SSD), and / or memory, etc. Program) and a blood vessel extraction program according to an embodiment of the present invention may be stored.
  • HDD Hard Disk
  • SSD solid state drive
  • Program a blood vessel extraction program according to an embodiment of the present invention may be stored.
  • computer programs used for various processes, data tables, image data, and the like may be stored in the storage unit 460 as needed.
  • the computer program is executed by being loaded into the memory of a processor (CPU, GPU, etc.).
  • the computer program may be downloaded in whole or in part from an external device as needed via any network.
  • the computer program may be stored in a computer readable recording medium.
  • the blood vessel extraction device 400 is configured to display predetermined information on the display 430.
  • the display 430 is not particularly limited, but an LCD (Liquid A Crystal Display) display, an Organic Electro-Luminescence (EL) display, etc. can be used.
  • the display 430 may be integrally provided on a part of the case. Alternatively, it may be configured separately from the main body (not shown) and used in connection.
  • the image processing unit 450 is configured to operate a processor or the like in accordance with the instructions of the computer program to perform predetermined image processing and machine learning calculations. Although this is not a limitation, in the present embodiment, as described later, convolution processing and the like in a neural network are performed, so that a GPU (Graphics Processing Unit) is used. Preferred in one form.
  • this convolutional neural network 600 has a convolution unit 600a in which a plurality of paths for convolution processing are arranged in parallel, and an output unit 600b following it.
  • the functions of the respective paths constituting the convolution unit 600a are basically the same, but depending on the type of input data, in the following description, paths A1 to A3 and additional paths C1 to C2 (simply, both paths C1 and C2 And so on.
  • the first pass A1 includes a plurality of folding layers 611 to 619 that perform folding processing. Each of the folding layers 611 to 619 folds in the input three-dimensional data (details described below) using a three-dimensional filter (not shown).
  • the number of folding layers is not particularly limited, it is nine in this example.
  • the number of layers may be increased or decreased as needed.
  • the three-dimensional filter one having a filter size of, for example, 3 ⁇ 3 ⁇ 3 can be used.
  • a filter parameter (weight) is set for each element of the filter (in this case, 27 elements of 3 ⁇ 3 ⁇ 3).
  • this filter parameter as an example, a data set adjusted to an appropriate value can be used by prior machine learning.
  • the distance (stride) by which the filter is moved at the time of convolution is not limited, but may be, for example, one voxel or two voxels.
  • the data 51 input to the first path A1 is 25 ⁇ 25 ⁇ 25 three-dimensional data (details will be described later).
  • the size of one side is "25” ⁇ "23” ⁇ "21” ⁇ “19” ⁇ “17” ⁇ “15” ⁇ "13” ⁇ "11” by sequentially folding it in each convolution layer. And finally get a size of 9x9x9.
  • the other paths A2, A3, C1, and C2 are basically the same as the above-described path A1, and each have nine folding layers. However, there are differences with respect to the input data. Although details will be described later, data having different resolutions from the first path A1 is input for the paths A2 and A3. That is, in this embodiment, a method is adopted in which input data is flowed in different paths as multiple resolutions. On the other hand, the additional paths C1 and C2 are input data in which the range of CT values is different, not the difference in resolution.
  • the size of the data input to paths A2 and A3 is displayed as one side “19”, but this is not an essential part of the present invention, and data of 25 ⁇ 25 ⁇ 25 size is input. You may do so. Also, as another matter of note, in the paths A2 and A3, since the input data is 19 ⁇ 19 ⁇ 19, the size is 3 ⁇ 3 ⁇ 3 at the stage of the eighth layer. Therefore, up-sampling processing (processing to increase the size of the target generated by the convolution processing) is performed so that the size of the output data of each pass is finally aligned (that is, 9x9x9). .
  • FIG. 4 represents as a two-dimensional image on account of description. Further, in order to simplify the description, the size of one side of the data 52 and 53 input to the paths A2 and A3 is also shown as "25" instead of "19".
  • the medical volume data 601 may be, for example, CT volume data near the heart as shown in FIG. 5 (a).
  • the volume data 601 includes the heart 11 and the coronary artery 12, and further includes other blood vessels 13 such as the aorta and the vena cava, bones (not shown), and the like.
  • the size of medical volume data is 512 ⁇ 512 ⁇ 512 as an example.
  • the medical volume data may be obtained by imaging a subject in advance with an X-ray CT apparatus or the like and using the imaging data by a conventionally known method. For example, CT volume data stored in a predetermined server on the network may be read and used.
  • the data 51 input to the first path A1 is, as shown in FIG. 4, a first target area R1 including one voxel 681a of the medical volume data 601 and an area of a predetermined range around it.
  • Data of The target region R1 may be, for example, data in a range of 25 ⁇ 25 ⁇ 25 centered on the voxel 681a.
  • the data 52 input to the second path A2 is substantially the same as described above in the data of the region centered on the voxel 681a.
  • the following processing is performed in order to set it as multi-resolution input. That is, a target area R2 larger than the first target area R1 is sampled, and the resolution is lowered with respect to that to obtain data 52 of a desired size. Specifically, the target region R2 of (25 ⁇ 3 ) 3 may be obtained, and the data 52 of 25 ⁇ 25 ⁇ 25 may be obtained by reducing the resolution to 1/3.
  • the size of one side may be "19" instead of "25", and in this case, it is the target area R2 of (19 x 3 ) 3 .
  • the concept of the data 53 input to the third path A3 is the same as that of the second path A2.
  • the target area R3 is (25 ⁇ 9) 3 and the resolution is reduced to 1/9.
  • the sizes of R2 and R3 illustrated in FIG. 4 are schematic and do not accurately represent the actual size.
  • the data 54 and 55 input to the paths C1 and C2 are similar in size to the data 51 of the first path A1, but differ in that the CT value is clipped (restricted) within a predetermined range. ing. That is, only data within the CT value range is input. This will be described below with reference to FIG.
  • FIG. 6 schematically shows a histogram of CT values of voxels included in the medical volume data 601.
  • the horizontal axis is the CT value (HU)
  • the vertical axis is the number of occurrences (N).
  • the histogram of medical volume data is data in which peaks exist at relatively low CT values such as soft tissue and moisture and at relatively high CT values including bone / mineralized tissue.
  • the CT values of water and air are 0 HU and -1000 HU, respectively, and soft tissue (soft tissue, blood, brain, organ parenchyma etc.) is about 20 to less than 100 HU, and bone / calcified tissue is about 1000 HU , Fat is about -100 HU.
  • the range 18 is a range on the lower side of the CT value whose upper limit is about 500 HU
  • the range 19 is the range on the side of the higher CT value whose lower limit is about 300 HU.
  • the specific CT value is not particularly limited, and may be appropriately set according to the examination content, the region of interest of the patient, and the like.
  • the lower limit may be -1000 HU, -200 HU, -100 HU, or 0 HU.
  • specific examples of the range 18 include the range of 0 to 500 HU or 0 to 400 HU.
  • Specific examples of the range 19 include the range of 300 to 2,000 HU or 300 to 1,700 HU.
  • the medical volume data 601 is divided into the CT value range, and data narrowed to the lower range of the CT value is input to the path C1, and data narrowed to the high range of the CT value is passed to the path C1. It is made to input to C2.
  • the CT values of voxels may be converted into a numerical range within a certain range, as necessary (this state).
  • the numerical values may also be referred to as “voxel values” and the like, and may be subjected to preprocessing such as batch normalization and whitening.
  • the output unit 600b is a neural network structure including all the coupled layers B1 and B2 and an output layer B3. Also in this case, the number of all bonding layers is not particularly limited, and only one layer or three or more layers may be used.
  • the output results of the respective paths A1 to A5 are input to the total coupling layer B1. That is, the numerical values of the elements of the three-dimensional data, which are the output results of the paths A1 to A5, are coupled as input to nodes (not shown) of all the coupled layers B1.
  • all connected layer basically refers to a forward-propagation type network connecting all nodes literally, but in relation to the technical idea of the present invention, it is not always strictly all nodes It does not have to be connected.
  • the output layer B3 is a layer that performs a final output based on the data from the total coupling layer B2, and in this example, outputs numerical data in the range of “0” to “1”. This can be considered as a probability indicating whether or not the target voxel 681a is a coronary artery, and if it is 1 (or close to 1) it is regarded as a coronary artery, if it is 0 (or close to 0) it is not a coronary artery It may be Although various activation functions can be used to obtain such an output, a sigmoid function or the like can be used in one example. As shown in FIG. 8, the sigmoid function is a function that performs output (y) within the range of “0” to “1” for the input x.
  • the image processing unit 450 (see FIG. 1) identifies or reads the medical volume data 601 prepared in advance.
  • step S1 data processing is performed on one voxel 681a (see FIG. 4) (step S1).
  • Convolution processing of three-dimensional input data 51 to 55 is performed in the convolutional neural network unit 601a by the function of the multi-layered neural network 600 described above (step S2), and forward propagation calculation processing is performed in the output unit 600b.
  • step S3 numerical data indicating whether or not the voxel 681a is a coronary artery is determined (see also step S3, FIG. 4).
  • step S4 The same process is repeated for all voxels of the medical volume data 601 (step S4).
  • the voxel value is compared with a predetermined threshold, and when the voxel value exceeds the threshold, the voxel is displayed. Other than the above is not displayed (or may be displayed with the lightness lowered).
  • the blood vessel extraction method using the convolutional neural network 600 as described above only by inputting the medical volume data 601 as shown in FIG. 5 (a), as shown in FIG. 5 (b), automatic Since only the target blood vessel 12 is extracted, the blood vessel extraction can be performed very efficiently.
  • a blood vessel shape (figure of the blood vessel shape of FIG. 5 (a)) is accurately reproduced. It is possible to obtain 5 (b).
  • This embodiment is basically a method of displaying only the coronary artery 12 by not displaying unnecessary voxels based on the medical volume data 601. Therefore, for example, it is possible to display a voxel which is not originally a coronary artery as a coronary artery, unlike a method of creating a central path of a blood vessel and displaying a certain radius portion as the blood vessel for that path. It also reduces the
  • the technical idea of extracting a blood vessel using the convolutional neural network 600 is applicable not only to the coronary artery but also to blood vessel extraction of other parts.
  • blood vessel extraction with relatively high accuracy can be performed using only resolution paths A1 to A3 (only two paths may be used) and without using CT value paths C1 and C2, paths C1 and C2 may be used. May be omitted.
  • a set of teacher data for learning prepared a set of teacher data for learning.
  • coronary artery volume data obtained by performing blood vessel extraction manually while a doctor or the like actually looks at data based on certain medical volume data 601 can be used as teacher data.
  • a plurality of such pairs of medical volume data 601 and coronary artery volume data extracted therefrom are prepared as a set of teacher data.
  • an error value E is obtained using a predetermined error function (loss function) using an output value when a certain medical volume data 601 is input to the convolutional neural network 600 and a value of teacher data. Repeat learning until it is sufficiently small.
  • a predetermined error function loss function
  • the error function is not particularly limited, but a mean squared error or the like can be used.
  • the method for reducing the error E is not particularly limited, but a parameter may be sequentially updated using a gradient descent method or the like.
  • a Jaccard coefficient, a Dice coefficient, a Simpson coefficient or the like may be used as a function for evaluating the similarity between sets of data.
  • gradient descent learning naturally, not all learning data are used at one time, but so-called minibatch learning in which only some samples are used for learning sequentially It is also good.
  • the parameters of the convolutional neural network 600 can be optimized to a sufficient accuracy. From the viewpoint of learning efficiency, as in the present embodiment, in the case where two paths C1 and C2 having different CT value ranges are provided, it can be expected that learning can be performed with a smaller number of teacher data. .
  • -Data Augmentation Regarding data used for learning, it is also preferable to perform learning by increasing the number of data by data extension.
  • a method of data expansion in addition to such as movement, rotation, and scaling, for example, non-rigid deformation that deforms shape data or vector data may be used.
  • a neural network structure including three paths A1 to A3 having different resolutions has been described.
  • the common volume data “1” may be input to the respective paths A1 to A3 with different resolutions, but the following method is considered to be more effective. That is, in the case of the method of inputting the volume data “1” to each of the paths A1 to A3, the reduced image can be substantially the same, and there is a concern that the learning efficiency in each path becomes relatively low.
  • different learning data may be input for each path (or for each path group and each other path group). More specifically, improvement in learning in each pass can be expected, for example, by inputting different batch data in each of the passes A1 to A3 in mini-batch learning, for example.
  • the technique of the present invention may be applied to three-dimensional data if necessary.
  • the subject that performs learning and / or the subject that performs blood vessel extraction processing need not necessarily be a single computer, but may be multiple computers.
  • the description is basically made with the name "blood vessel extraction device”, but the subject of the present invention is not necessarily limited to such a name, and is expressed as, for example, "image processing device” Also, the "device” may be replaced with a representation such as “device” or "system”.
  • a device (400) comprising an image processing unit (450) for extracting blood vessels contained therein from medical volume data (601) using a convolutional neural network (600),
  • the above convolutional neural network (600) is a1: data on a first target region (R1) including a first target region (R1) including a plurality of target voxels (681a) of the medical volume data, which is a first path including a plurality of convolution layers (conv) 51) a first pass (A1) input at a first resolution, a2: A second pass including a plurality of convolution layers (conv), and data (2) on a second target region (R2) including a part of target voxels (681a) of the medical volume data 52) a second pass (A2) input at a second resolution,
  • a folding portion (600a) having b: an output unit (600b
  • volume data of different resolutions is thus input to a convolutional neural network parallel path (A1, A2, etc.) to obtain numerical values for visualization of the target voxel (limited)
  • A1, A2, etc. convolutional neural network parallel path
  • the display / non-display of the voxel may be determined or the display concentration may be determined based on the numerical value, the object can be extracted with high accuracy.
  • c1 a CT of the medical volume data (601) for a target area including a plurality of target voxels (681a) of the medical volume data, which is a first additional path including a plurality of convolutional layers A first additional path (C1) into which data (54) obtained by clipping the value into the first range is input; c1: a CT of the medical volume data (601) for a target area including a plurality of target voxels (681a) of the medical volume data, which is a second additional path including a plurality of convolutional layers And a second additional path (C2) into which data (55) clipped the value into the second range is input.
  • the first range is a range in which the upper limit is 500 HU
  • the second range is a range in which the lower limit is 300 HU.
  • a3 a third pass including a plurality of convolutional layers, and the data (53) on a third target region (R3) including a part of target voxels (681a) of the medical volume data is , And a third pass (A3) input at a third resolution.
  • the image processing unit (450) is configured to determine the display mode of the voxel based on the numerical value (e.g., 080) regarding the visualization, and to display a blood vessel based thereon.
  • the blood vessel is a coronary artery
  • the medical volume data is data in a range including at least a heart and a coronary artery.
  • a blood vessel extraction method for extracting a blood vessel included in medical volume data (601) using a convolutional neural network (600), comprising:
  • the above convolutional neural network (600) is a1: data on a first target region (R1) including a first target region (R1) including a plurality of target voxels (681a) of the medical volume data, which is a first path including a plurality of convolution layers (conv) 51) a first pass (A1) input at a first resolution, a2: A second pass including a plurality of convolution layers (conv), and data (2) on a second target region (R2) including a part of target voxels (681a) of the medical volume data 52) a second pass (A2) input at a second resolution,
  • the above convolutional neural network (600) is a1: data on a first target region (R1) including a first target region (R1) including a plurality of target voxels (681a) of the medical volume data, which is a first path including a plurality of convolution layers (conv) 51) a first pass (A1) input at a first resolution
  • a device (400) comprising an image processing unit (450) for extracting anatomical structures contained therein from medical data (601) using a convolutional neural network (600),
  • the above convolutional neural network (600) is a1: A first pass including a plurality of convolutional layers (conv), and data (51) on a first target area (R1) including a part of target pixels (681 a) of the medical data ) Is input at a first resolution (A1), a2: a second pass including a plurality of convoluted layers (conv), and data (52) on a second target area (R2) including a part of target pixels (681a) of the medical data ) Is input at a second resolution (A2),
  • a folding portion (600a) having An apparatus, characterized in that it comprises:
  • the anatomical structure is not limited to a blood vessel, and may be an organ, a bone or the like.
  • an output unit (600b) having a neural network structure and outputting numerical values related to visualization of the target pixel (681a) using the output results of the first pass and the second pass as input data;

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

畳込みニューラルネットワーク(600)が、a1:前記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第1の対象領域(R1)についてのデータ(51)が、第1の解像度で入力される第1のパス(A1)と、a2:前記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第2の対象領域(R2)についてのデータ(52)が、第2の解像度で入力される第2のパス(A2)と、を有する畳込み部(600a)と、b:ニューラルネット構造を有し、前記第1のパスと前記第2のパスとの出力結果を入力データとして、前記対象ボクセルの可視化に関する数値を出力する出力部(600b)とを含むことを特徴とする、血管抽出装置。

Description

血管抽出装置および血管抽出方法
 本発明は、血管抽出装置および血管抽出方法に関し、特には、操作者の作業を省力化でき、かつ、医療用ボリュームデータから高精度に血管を抽出することが可能な血管抽出装置および血管抽出方法に関する。
 医用画像診断装置として、従来、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、超音波診断装置、血管造影(アンギオグラフィ)撮像装置等が知られている。
 また、このような撮像装置で取得された撮像データを使用して被検者の身体内部を三次元画像化することも行われている。例えば特許文献1では、心臓付近をX線CT装置で撮影して得たCTボリュームデータに基づき、冠動脈の領域をセグメンテーション処理によって抽出することが開示されている。
特開2015-119768号
 ところで、従来、医療用ボリュームデータから例えば冠動脈などの血管を抽出しようとする場合、操作者が、例えば当該血管の複数の断面画像を見ながら血管の輪郭を決定する作業が必要となる。あるいは、ソフトウェアで自動的に抽出を行う場合であっても自動抽出のために必要な閾値の設定を行うといった作業が必要となるのが一般的である。
 これに対して、本発明者らは、畳込みニューラルネットワーク技術を応用してそのような操作者の作業を省力化し効率的に対象の血管を抽出し得ることを見出した。
 そこで本発明の目的は、操作者の作業を省力化でき、かつ、医療用ボリュームデータから高精度に血管を抽出することが可能な血管抽出装置および血管抽出方法を提供することにある。
 上記課題を解決するための本発明の一形態の血管抽出装置は下記の通りである:
 畳込みニューラルネットワークを利用し医療用ボリュームデータからそれに含まれる血管を抽出する画像処理ユニットを有する装置であって、
 前記畳込みニューラルネットワークは、
a1:複数の畳込み層を含む第1のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第1の対象領域についてのデータが、第1の解像度で入力される第1のパスと、
a2:複数の畳込み層を含む第2のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第2の対象領域についてのデータが、第2の解像度で入力される第2のパスと、
 を有する畳込みネットワーク部と、
b:ニューラルネット構造を有し、前記第1のパスと前記第2のパスとの出力結果を入力データとして、前記対象ボクセルの可視化に関する数値を出力する出力部と、
 を含むことを特徴とする、血管抽出装置。
(用語の説明)
・「畳込みニューラルネットワーク」とは、少なくとも1つの畳込み層(CNN:Convolutional Neural Network)を含み、その畳込み層により、入力された画像データ(3次元のものも含む)に対して畳込み処理を実行して特徴量抽出を行うものをいう。畳込み処理に用いられるフィルタとしては、3次元の入力データに対しては3次元のフィルタが用意され、フィルタの各要素にはいわゆるフィルタパラメータと呼ばれる数値(重み)が設定されている。
・「可視化に関するデータ」とは、例えばボクセルごとに与えられた数値(ボクセル値)であり、その数値に対応して、当該ボクセルを表示するかしないか、または、表示する場合にどの程度の明度で表示するか等を決定できる数値のことをいう。例えば、「0」~「1」の範囲内の数値である。
 本発明によれば、操作者の作業を省力化でき、かつ、医療用ボリュームデータから高精度に血管を抽出することが可能な血管抽出装置および血管抽出方法を提供することができる。
本発明の一形態の血管抽出装置を含むシステムについて模式的に示す図である。 薬液注入装置の一例を示す斜視図である。 畳込みニューラルネットワークの構成を示す図である。 図3の畳込みニューラルネットワークの機能を説明するための図である。 CTボリュームデータと、そこから自動抽出された血管とを示す図である。 CTボリュームデータに含まれるボクセル値の模式的なヒストグラムである。 図3の畳込みニューラルネットワークでの処理のフローチャートである。 活性化関数の一例を示すグラフである。 図3の畳込みニューラルネットワークの学習を説明するための図である。
1.基本的構成
 図1は、本発明の一形態に係る血管抽出装置を含むシステム全体の構成を模式的に示す図である。システム全体としては、一例で、撮像装置300、カルテ管理装置であるHIS360、撮像管理装置であるRIS370、データ保存装置であるPACS380、患者に造影剤等を注入する薬液注入装置100、血管抽出装置400、それらの各機器を接続するネットワーク350等を備えるものであってもよい。なお、血管抽出装置400以外の構成は従来公知のものを利用してもよい。
 HIS(Hospital Information System)360は、専用のコンピュータプログラムが実装されたコンピュータであり、カルテ管理システムを有する。カルテ管理システムで管理される電子カルテは、例えば、固有の識別情報であるカルテID、患者ごとの患者ID、患者の氏名などの個人データ、患者の疾病に関するカルテデータ、等のデータを含むものであってもよい。また、カルテデータには、治療全般に関連した個人条件データとして、患者の体重、性別、年齢等が登録されていてもよい。
 RIS(Radiology Information System)370は、患者の透視画像データを撮像するための撮像オーダデータを固有の識別情報で管理する。この撮像オーダデータは、HISから取得する電子カルテに基づいて作成されるものであってもよい。撮像オーダデータは、例えば、固有の識別情報である撮像作業ID、CT撮像やMR撮像などの作業種別、前述の電子カルテの患者IDとカルテデータ、CTスキャナの識別情報、撮像開始および終了の日時、身体区分または撮像部位、撮像作業に対応した造影剤などの薬液種別からなる適正種別、撮像作業に適合した薬液IDからなる適正ID、等のデータを含むものであってもよい。
 PACS(Picture Archiving and Communication Systems)380は、撮像装置から撮像オーダデータが付与された透視画像データを受信してそれを記憶装置内に保存する。
 撮像装置300は、一例でX線CT装置であり、患者の透視画像を撮像する撮像部と、患者を載せるベッドと、それらの動作を制御する制御部とを有するものであってもよい。撮像部は、ガントリ内に配置された、X線管やコリメータ等を有しX線を患者に向けて照射するX線照射部と、患者を透過したX線の検出するX線検出器を有する検出部とを有するものであってもよい。X線照射部および検出部が、それらの位置関係を保ったまま患者の体軸の周りを回転しながらスキャンを行うように構成されている。
 薬液注入装置100について図2も参照して説明する。薬液注入装置100は、一例で可動式スタンド111に保持された注入ヘッド110と、ケーブル102で注入ヘッド110に接続されたコンソール150とを備えている。この例では、注入ヘッド110には、2本のシリンジが並列に取外し自在に装着される。なお、注入ヘッド110とコンソール150とは無線方式で接続されていてもよい。
 シリンジに充填される薬液としては、造影剤および生理食塩水などが挙げられる。例えば、一方のシリンジに造影剤が充填され、もう一方のシリンジに生理食塩水が充填されていてもよい。シリンジは、中空筒状のシリンダ部材と、そのシリンダ部材にスライド自在に挿入されたピストン部材とを有している。シリンダ部材は、その基端部にシリンダフランジが形成されるとともに先端部に導管部が形成されたものであってもよい。ピストン部材をシリンダ部材内に押し込むことにより、シリンジ内の薬液が導管部を介して外部に押し出される。なお、シリンジは予め薬液が充填されたプレフィルドタイプであってもよいし、空のシリンジに薬液を吸引して使用する吸引式のものであってもよい。
 注入ヘッドは、詳細な図示は省略するが、次のようなものであってもよい。すなわち、注入ヘッドは、一例として前後方向に長く延びるような筐体を有しており、この筐体の上面先端側には、それぞれシリンジが載せられる2つの凹部が形成されている。凹部はシリンジ保持部として機能する部分である。凹部に対しては、シリンジが直接装着されてもよいし、または、所定のシリンジアダプタを介して装着されてもよい。
 注入ヘッドは、また、シリンジのピストン部材を押し込む機能を少なくとも有するピストン駆動機構を有している。ピストン駆動機構は二系統設けられており、各機構は独立して動作する。ピストン駆動機構は、例えばシリンジ内への薬液吸引のために、ピストン部材を後退させる機能を有するものであってもよい。2つのピストン駆動機構は同時に駆動されてもよいし、別々のタイミングで駆動されてもよい。ピストン駆動機構は、詳細な図示は省略するが、駆動モータと、その駆動モータの回転出力を直線運動に変換する運動変換機構と、その運動変換機構に連結され、ピストン部材を前進および/または後退させるシリンジプレッサー(ラム部材)とを有するものであってもよい。
 このようなピストン駆動機構としては、薬液注入装置で一般に用いられる公知の機構を用いることができる。なお、モータ以外のアクチュエータを駆動源としてもよい。「ピストン駆動機構」に代えて、シリンジ以外の所定の薬液収容体(例えばボトル、バッグ等)から薬液を患者に向けて送達する駆動機構が設けられていてもよい。
 シリンジにICタグ(識別タグ)が付されている場合には、注入ヘッドは、同ICタグの情報を読み取るおよび/または同ICタグに情報を書き込むリーダ/ライタを有していてもよい。このリーダ/ライタは、シリンジが装着される凹部に設けられていてもよい。なお、リーダ/ライタは、ICタグの情報を読み取る機能のみを有するものであってもよい。
 コンソール150は、一例で検査室に隣接した操作室内に置かれて使用されるものであってもよい。コンソール150は、所定の画像を表示するディスプレイ151と、その筐体前面に設けられた操作パネル159と、筐体内に配置された制御回路などを有している。操作パネル159は、1つまたは複数の物理ボタンが配置された部分であり、操作者によって操作される。ディスプレイ151は、タッチパネル式表示デバイスであってもよいし、単なる表示デバイスであってもよい。コンソール150は、音および/または音声を出力するためのスピーカ等(不図示)を有していてもよい。コンソール150の記憶部(不図示)には、注入プロトコルの作成や注入の実行などに関わる各種データが格納されていてもよい。例えば、グラフィカルユーザインターフェースのデータや、注入条件(注入パターン)等のデータである。
(血管抽出装置)
 血管抽出装置400は、入力デバイス461、画像処理ユニット450、インターフェース463、記憶部460等を一例として備えている。入力デバイス461としては、例えばキーボードやマウス等といった一般的なデバイスが挙げられる。必要に応じて、音声入力のためのマイクなどを利用してもよい。限定されるものではないが、血管抽出装置400は、ワークステーション、ラップトップコンピュータ、タブレット端末等で構成されてもよい。なお、血管抽出装置400は、必ずしも物理的に独立した機器である必要はなく、例えばネットワーク上の1つまたは複数のコンピュータによって実現されるものであってもよい。または、撮像装置の一部として設けられていてもよいし、薬液注入装置の一部として設けられたものであってもよい。具体的には、本発明の一形態に係るコンピュータプログラムを、撮像装置のコンソールに実装する、ネットワーク上の1つまたは複数のコンピュータに実装する、または、薬液注入装置のコンソール等に実装するなどして、これを実現してもよい。
 インターフェース463は外部の種々の機器等との接続を行うためのものであり、図では1つのみ示されているが、当然ながら複数設けられていてもよい。接続の方式(通信の方式)は有線であっても無線であってもよい。図1の例では、インターフェース463にネットワーク経由で撮像装置300等が接続されており、これにより、例えば撮像装置300やPACS380等からのデータが血管抽出装置400に読み込まれる(または当該装置によって識別される)ようになっている。
 記憶部460は、ハードディスクドライブ(HDD:Hard Disk
Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、および/またはメモリなどで構成されたものであってもよく、OS(Operating
System)のプログラムや、本発明の一形態に係る血管抽出プログラムが格納されていてもよい。
 また、各種処理に用いるその他のコンピュータプログラムや、データテーブル、画像データ等が必要に応じて記憶部460に格納されていてもよい。コンピュータプログラムは、プロセッサ(CPUやGPU等)のメモリにロードされることによって実行される。コンピュータプログラムは、任意のネットワークを介して必要時に外部機器からその全部または一部がダウンロードされるものであってもよい。コンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納してもよい。
 血管抽出装置400は、ディスプレイ430に所定の情報を表示するように構成されている。ディスプレイ430としては、特に限定されるものではないが、LCD(Liquid
Crystal Display)ディスプレイや有機EL(Organic Electro-Luminescence)ディスプレイ等を利用可能である。ディスプレイ430は、血管抽出装置400が1つの筐体として構成されている場合、その一部に一体的に設けられたものであってもよい。あるいは、本体部(不図示)とは別体に構成され、接続して使用されるものであってもよい。
(画像処理ユニットの構成)
 画像処理ユニット450は、コンピュータプログラムの命令にしたがってプロセッサ等を動作させ所定の画像処理や機械学習の演算を行うように構成されている。限定されるものではないが、本実施形態では後述するようにニューラルネットワークでの畳込み処理等を行うものであるので、GPU(Graphics Processing Unit:グラフィックス プロセッシング ユニット)を利用するものであることが一形態において好ましい。
2.ニューラルネットワークの構成および動作
〔構成〕
 本実施形態で使用するニューラルネットワークの一例を図3に示す。図3に示すように、この畳込みニューラルネットワーク600は、畳込み処理を行う複数のパスが並列に配置された畳込み部600aと、それに続く出力部600bとを有している。畳込み部600aを構成する各パスの機能は基本的に同様であるが、入力されるデータの種別によって、以下の説明では、パスA1~A3と追加パスC1~C2(単にパスC1、C2ともいう)というように区別するものとする。
(第1のパスA1)
 第1のパスA1は、畳込み処理を行う複数の畳込み層611~619を有している。各畳込み層611~619は、不図示の3次元フィルタを用いて、入力された3次元データ(詳細下記)を畳み込む。
 畳込み層の数は特に限定されるものではないが、この例では、9層である。必要に応じて、層の数を増減してもよい。3次元フィルタとしては、フィルタサイズが例えば3x3x3のものを使用することができる。フィルタの各要素(この場合、3x3x3の27要素)ごとにフィルタパラメータ(重み)が設定されている。このフィルタパラメータとしては、一例として、事前の機械学習により、適切な値に調整されたデータセットを利用することができる。
 なお、畳込みの際にフィルタを移動させる距離(ストライド)は、限定されるものではないが、例えば1ボクセルずつであってもよいし2ボクセルずつであってもよい。
 本実施形態では、第1のパスA1に入力されるデータ51は、25x25x25の3次元のデータである(詳しい内容については後述する)。それを各畳込み層で順次畳み込んでいくことで、一辺のサイズが「25」→「23」→「21」→「19」→「17」→「15」→「13」→「11」と減少し、最終的に9x9x9のサイズが得られるようになっている。
(他のパスA2、A3、C1、C2)
 他のパスA2、A3、C1、C2についても、基本的には、上述したパスA1と同様であり、各々、9つの畳込み層を有している。ただし、入力されるデータに関して相違がある。詳細は後述するが、パスA2、A3については第1のパスA1と解像度を異らせたデータが入力される。すなわち、この実施形態では、入力データを多重解像度として、異なるパスに流す方式を採用している。一方、追加パスC1、C2については、解像度の違いではなく、CT値の範囲を異らせた入力データとしている。
 なお、図3では、パスA2、A3への入力されるデータのサイズが一辺「19」のように表示されているが、これは本発明の本質的部分ではなく、25x25x25サイズのデータを入力するようにしてもよい。また、他の留意事項として、パスA2、A3においては、入力データが19x19x19であるため、第8層の段階でサイズが3x3x3となる。そこで、最終的に各パスの出力データのサイズが揃うように(つまり、9x9x9となるように)アップサンプリング処理(畳込み処理によって生成された対象のサイズを大きくするための処理)を行っている。
(入力データ)
 次に、入力画像の詳細について、図4を参照して説明する。なお、図4では説明の都合上、2次元の画像として表現している。また、説明を簡単にするためにパスA2、A3に入力されるデータ52、53についても、一辺のサイズが「19」ではなく「25」と示している。
 医療用ボリュームデータ601としては、例えば図5(a)に示すような心臓付近のCTボリュームデータであってもよい。この例では、ボリュームデータ601は、心臓11および冠動脈12を含み、さらに大動脈や大静脈のような他の血管13や骨(不図示)なども含んでいる。限定されるものではないが、医療用ボリュームデータのサイズは一例として512x512x512である。なお、この医療用ボリュームデータとしては、予めX線CT装置などによって被検者を撮像し、その撮像データを用いて従来公知の方法で作成されたものであってもよい。例えば、ネットワーク上の所定のサーバに保管されたCTボリュームデータを読み出して使用するようにしてもよい。
 第1のパスA1へ入力されるデータ51は、図4に示すように、医療用ボリュームデータ601のうちの1つのボクセル681aと、その周辺の所定範囲の領域とを含む第1の対象領域R1のデータである。対象領域R1は、例えば、ボクセル681aを中心とした、25x25x25の範囲のデータであってもよい。
 第2のパスA2へ入力されるデータ52は、ボクセル681aを中心とした領域のデータということでは上記とほぼ共通する。ただし、多重解像度の入力とするために、次のような処理を行っている。すなわち、第1の対象領域R1よりも大きな対象領域R2をサンプリングし、それに対して解像度を下げて所望のサイズのデータ52としている。具体的には、(25x3)の対象領域R2とし、解像度を1/3に落とすことで25x25x25のデータ52を得るようにしてもよい。もっとも、「25」ではなく、一辺のサイズが「19」であってもよいことは前述のとおりであり、この場合は、(19x3)の対象領域R2ということになる。
 第3のパスA3へ入力されるデータ53についても、考え方は第2のパスA2の場合と同様である。ただし、データ53については、(25x9)の対象領域R3とし、解像度を1/9に落としている。なお、図4で図示しているR2やR3のサイズは模式的なものであり、実際のサイズを正確に表したものではない。
 パスC1、C2へ入力されるデータ54、55は、第1のパスA1のデータ51とサイズは同様であるが、CT値を所定の範囲内にクリップした(制限した)ものである点で異なっている。すなわち、そのCT値範囲内のデータのみを入力するようにしている。これについて、以下、図6も参照しつつ説明する。
 図6は、医療用ボリュームデータ601に含まれるボクセルのCT値のヒストグラムを模式的に示したものである。横軸はCT値(HU)であり、縦軸は出現数(N)である。このように、一般に、医療用ボリュームデータのヒストグラムは、軟組織や水分といった比較的CT値が低い個所と、骨/石灰化組織を含む比較的CT値が高い個所とにピークが存在するデータとなる。具体的には、水および空気のCT値はそれぞれ0HU、-1000HUであり、軟部組織等(軟部組織、血液、脳、臓器実質など)は20~100HU未満程度、骨/石灰化組織は1000HU程度、脂肪は-100HU程度である。
 図6において、範囲18は、上限を500HU程度とするCT値が低い側の範囲であり、範囲19は、下限を300HU程度とするCT値が高い側の範囲である。具体的なCT値は特に限定されるものではなく、検査内容や患者の関心部位等に応じて適宜設定すればよい。範囲18としては、下限が-1000HU、-200HU、-100HU、または0HUであってもよい。冠動脈抽出のケースでは、範囲18の具体的な例として、0~500HUまたは0~400HUの範囲内などが挙げられる。範囲19の具体的な例としては、300~2000HUまたは300~1700HUの範囲内などが挙げられる。
 このように医療用ボリュームデータ601をCT値の範囲で区分したうえで、CT値の低い側の範囲に絞ったデータをパスC1に入力し、CT値の高い側の範囲に絞ったデータをパスC2に入力するようにしている。
 なお、上記説明において入力データ51~55について説明したが、畳込みニューラルネットワークでデータ処理をするにあたっては、必要に応じて、ボクセルのCT値を一定範囲の数値範囲に変換したり(この状態の数値を「ボクセル値」などともいう)、バッチノーマライゼーションや白色化といった前処理を行ってもよい。
 次に、畳込みニューラルネットワーク600の出力部600bについて説明する。出力部600bは、全結合層B1、B2と、出力層B3と含むニューラルネットワーク構造である。なお、この場合も、全結合層の数は特に限定されるものではなく、1層のみまたは3層以上としてもよい。全結合層B1へは、各パスA1~A5の出力結果が入力される。つまり、各パスA1~A5の出力結果である3次元データの各要素の数値が、入力として、全結合層B1のノード(不図示)に結合されている。
 なお、「全結合層」とは、基本的には、文字通り、全てのノードどうしを接続した順伝播型のネットワークのことをいうが、本願の技術思想との関係では、必ずしも厳密に全てのノードどうしが接続されている必要はない。
 出力層B3は、全結合層B2からのデータに基づき、最終的な出力を行う層であり、この例では、「0」~「1」の範囲の数値データを出力する。これは、対象ボクセル681aが冠動脈であるか否かを示す確率と考えることができ、1(または1に近い)であれば冠動脈であるとし、0(または0に近い)であれば冠動脈ではないとするようにしてもよい。このような出力を得るためには、種々の活性化関数を利用し得るが、一例でシグモイド関数などを用いることができる。図8に示すように、シグモイド関数は、入力されたxに対して「0」~「1」の範囲内で出力(y)を行う関数である。
〔動作〕
 続いて、本実施形態の多層ニューラルネットワーク600の動作について説明する。なお、前提として、ネットワークの重みパラメータ(不図示)は、例えば事前の機械学習によって既に与えられているものとする。
 まず、画像処理ユニット450(図1参照)は、予め用意された医療用ボリュームデータ601を識別するかまたは読み込む。
 次いで、図7のフローチャートに示すように、1つのボクセル681a(図4参照)を対象としたデータ処理を行う(ステップS1)。上述した多層ニューラルネットワーク600の機能により、畳込みニューラルネット部601aで3次元の入力データ51~55の畳込み処理が行われる(ステップS2)とともに、出力部600bでの順伝播計算処理が行われ、最終的に、出力層B3において、当該ボクセル681aが冠動脈であるか否かを示す数値データが求められる(ステップS3、図4も参照)。
 同様の処理を医療用ボリュームデータ601の全ボクセルについて、繰り返し実施する(ステップS4)。これにより、全てのボクセルを0~1の範囲内で数値化することができる。このようにして得られたデータに基づき、所定のボクセルについてのみ画像表示を行うことで、図5(b)に示すような、冠動脈12のみが抽出された3次元画像を生成することができる(ステップS5)。
 画像表示に関する具体的な手法は特に限定されるものではないが、例えば、ボクセル値を所定の閾値とを比較し、当該ボクセル値が閾値を超えていた場合には、当該ボクセルを表示とし、それ以外を非表示(または明度を下げた状態での表示等でもよい)とする。
 以上説明したような畳込みニューラルネットワーク600を利用した血管抽出手法によれば、図5(a)のような医療用ボリュームデータ601を入力するだけで、図5(b)に示すように、自動的に対象の血管12のみが抽出されるため、非常に効率的に血管抽出を実施することができる。
 また、多層ニューラルネットワーク601において、適切な数値範囲内とされた重みパラメータのデータセットを使用することで、実際の血管形状(図5(a)の血管形状)を精度よく再現した血管形状(図5(b))を得ることが可能となる。本実施形態は、基本的には、医療用ボリュームデータ601に基づき、不要なボクセルを表示させないことで冠動脈12のみを表示するという手法である。したがって、例えば、血管の中心のパスを作成してそのパスに対してある一定の半径部分を血管と見做して表示するような手法と異なり、本来冠動脈でないボクセルを冠動脈として表示してしまう可能性も低減する。
 なお、上記実施形態では、解像度に関連するパスA1~A3の3つと、CT値に関連するパスC1、C2の計5つのパスを利用したが、パスの数は適宜変更してもよい。
 畳込みニューラルネットワーク600を利用して血管を抽出するという技術的思想は、必ずしも冠動脈に限らず他の部位の血管抽出にも適用可能である。また、解像度のパスA1~A3(2つのパスのみでもよい)のみを用い、CT値のパスC1、C2を用いることなく、比較的精度のよい血管抽出が実施できる場合には、パスC1、C2を省略してもよい。
 また、以上、血管の抽出を中心として説明を行ったが、本発明の技術思想は、臓器や骨のようなその他の解剖学的構造に応用することも可能である。
〔学習フェーズ〕
 次に、上述したような畳込みニューラルネットワーク600の重みパラメータの学習について説明する。図9を参照してパスA1の例に単純化して説明を行う。
 畳込み層611~619には、それぞれには3次元フィルタが設定されており、その3次元フィルタは重みパラメータを含んでいる。具体的には、3x3x3の3次元フィルタであれば、3=27個のフィルタパラメータを含むこととなる。また全結合層に関してもノード(不図示)どうしの結合強度を表すパラメータが含まれている。
 学習に際しては、教師データのセットを用意する。本実施形態では、教師データとしては、ある医療用ボリュームデータ601に基づき、医師等が実際にデータを見ながら手作業で血管抽出を行って得られた冠動脈ボリュームデータを使用することができる。このような、医療用ボリュームデータ601とそこから抽出された冠動脈ボリュームデータの対を複数用意して教師データのセットとする。
 そして、畳込みニューラルネットワーク600に対して、ある医療用ボリュームデータ601を入力した際の出力値と、教師データの値とを用い、所定の誤差関数(損失関数)を使用してその誤差Eが十分に小さくなるまで学習を繰り返す。
 誤差関数としては特に限定されるものではないが、二乗平均誤差(Mean Squared Error)等を用いることができる。誤差Eを小さくするための手法としては、特に限定されるものではないが、勾配降下法などを利用してパラメータを順次更新するものであってもよい。データの集合どうしの類似度を評価するための関数として、Jaccard係数、Dice係数、またはSimpson係数等を使用するようにしてもよい。また、勾配降下法の学習においては、当然ながら、全ての学習用データを一度に使用するのではなく、一部のサンプルのみを順に学習に使っていくいわゆるミニバッチ学習(minibatch learning)を利用してもよい。
 以上一連の学習工程により、畳込みニューラルネット600のパラメータを、十分な精度にまで最適化することができる。学習の効率という観点で言えば、本実施形態のように、CT値の範囲を異ならせた2つパスC1、C2が設けられている場合、より少ない教師データ数で学習を行えることが期待できる。
 以上、本発明の一形態について、具体的な例を挙げて説明したが、本発明はその趣旨を逸脱しない範囲で適宜変更可能である:
・データ拡張(Data Augmentation)
 学習に用いるデータに関し、データ拡張によってデータ数を増加させ、学習を行うことも好ましい。データ拡張の手法としては、移動、回転、拡大縮小のようなものの他にも、例えば、形状データやベクトルデータを変形させる非剛体変形を用いるようにしてもよい。比較的少量のデータであってもデータ拡張を有効に利用することで、効果的な学習を実施でき、血管抽出の精度の向上を図ることが可能となる。
・異なるパスに対する異なる学習用データの入力
 上述した実施形態では、解像度の異なる3つのパスA1~A3を含むニューラルネットワーク構造を説明した。ここで、例えば、10個のボリュームデータを順に学習させていく場合を考える。この場合、共通のボリュームデータ「1」を、解像度を変えて、それぞれのパスA1~A3に入力してもよいが、次のような手法がより効果的であると考えられる。すなわち、ボリュームデータ「1」をそれぞれのパスA1~A3に入力する手法の場合、縮小画像はほぼ同様のものとなり得るので、各パスでの学習効率が比較的低くなってしまう懸念がある。その場合には、それぞれのパスに対し(または、あるパスグループと他のパスグループとのそれぞれに対し)異なる学習用データを入力するようにしてもよい。より具体的には、例えばミニバッチ学習の際、パスA1~A3のそれぞれに、異なるバッチデータを入力するように上記のようにすることで、各パスでの学習の改善が期待できる。
 上記実施形態では、3次元のボクセルデータを対象に説明を行ったが必要であれば、3次元データに本発明の技術を応用してもよい。学習を行う主体および/または血管抽出処理を行う主体は、必ずしも単一のコンピュータである必要はなく、複数のコンピュータであってもよい。
 なお、本出願では基本的に「血管抽出装置」という名称で説明を行ったが、本発明の対象は必ずしもそのような名称に限定されるものでなく、例えば「画像処理装置」などと表現されてもよいし、また、「装置」の部分に関しても、「デバイス」や「システム」などの表現に置き換えてもよい。
(付記)
 本出願は以下の発明を開示する。なお、括弧内の符号は参考のために付したものであり、これにより本発明が限定されるものではない。
1.畳込みニューラルネットワーク(600)を利用し医療用ボリュームデータ(601)からそれに含まれる血管を抽出する画像処理ユニット(450)を有する装置(400)であって、
 上記畳込みニューラルネットワーク(600)は、
a1:複数の畳込み層(conv)を含む第1のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第1の対象領域(R1)についてのデータ(51)が、第1の解像度で入力される第1のパス(A1)と、
a2:複数の畳込み層(conv)を含む第2のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第2の対象領域(R2)についてのデータ(52)が、第2の解像度で入力される第2のパス(A2)と、
 を有する畳込み部(600a)と、
b:ニューラルネット構造を有し、上記第1のパスと上記第2のパスとの出力結果を入力データとして、上記対象ボクセル(681a)の可視化に関する数値を出力する出力部(600b)と、
 を含むことを特徴とする、血管抽出装置。
 本発明の一形態によれば、このように、異なる解像度のボリュームデータを畳込みニューラルネットワーク並列のパス(A1、A2等)に入力して、対象ボクセルの可視化に関する数値を得る(限定されるものではないが、その数値に基づいて当該ボクセルの表示・非表示を決定したり、表示濃度を決定したりしてもよい)ものであるので、精度よく対象物の抽出を行うことができる。
2.さらに、上記畳込み部(600a)として、
c1:複数の畳込み層を含む第1の追加パスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む対象領域について、上記医療用ボリュームデータ(601)のCT値を第1の範囲内にクリップしたデータ(54)が入力される第1の追加パス(C1)と、
c1:複数の畳込み層を含む第2の追加パスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む対象領域について、上記医療用ボリュームデータ(601)のCT値を第2の範囲内にクリップしたデータ(55)が入力される第2の追加パス(C2)と、を含む。
3.上記第1の範囲は上限を500HUとする範囲であり、上記第2の範囲は下限を300HUとする範囲である。
 このように、一方を比較的低いCT値範囲とし他方を比較的高いCT値範囲として、これらの別々に畳込み処理を行うことで機械学習が効率的に実施できるようになることが期待できる。
4.さらに、上記畳込み部(600a)として、
a3:複数の畳込み層を含む第3のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第3の対象領域(R3)についてのデータ(53)が、第3の解像度で入力される第3のパス(A3)を有する。
5.上記画像処理ユニット(450)は、上記可視化に関する数値(例:080)に基づき当該ボクセルの表示態様を決定し、それに基いて血管を表示するように構成されている。
6.上記血管が冠動脈であり、上記医療用ボリュームデータは、少なくとも心臓と冠動脈とを含む範囲のデータである。
7.畳込みニューラルネットワーク(600)を利用し医療用ボリュームデータ(601)からそれに含まれる血管を抽出する血管抽出方法であって、
 上記畳込みニューラルネットワーク(600)は、
a1:複数の畳込み層(conv)を含む第1のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第1の対象領域(R1)についてのデータ(51)が、第1の解像度で入力される第1のパス(A1)と、
a2:複数の畳込み層(conv)を含む第2のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第2の対象領域(R2)についてのデータ(52)が、第2の解像度で入力される第2のパス(A2)と、
 を有する畳込み部(600a)と、
b:ニューラルネット構造を有し、上記第1のパスと上記第2のパスとの出力結果を入力データとして、上記対象ボクセル(681a)の可視化に関する数値を出力する出力部(600b)と、
 を含むことを特徴とする、血管抽出方法。
8.畳込みニューラルネットワーク(600)を利用し医療用ボリュームデータ(601)からそれに含まれる血管を抽出する血管抽出プログラムであって、
 上記畳込みニューラルネットワーク(600)は、
a1:複数の畳込み層(conv)を含む第1のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第1の対象領域(R1)についてのデータ(51)が、第1の解像度で入力される第1のパス(A1)と、
a2:複数の畳込み層(conv)を含む第2のパスであって、上記医療用ボリュームデータのうちの一部の対象ボクセル(681a)を含む第2の対象領域(R2)についてのデータ(52)が、第2の解像度で入力される第2のパス(A2)と、
 を有する畳込み部(600a)と、
b:ニューラルネット構造を有し、上記第1のパスと上記第2のパスとの出力結果を入力データとして、上記対象ボクセル(681a)の可視化に関する数値を出力する出力部(600b)と、
 を含むことを特徴とする、血管抽出プログラム。
 本発明の一形態に係る発明は次のようなものであってもよい:
A1.畳込みニューラルネットワーク(600)を利用し医療用データ(601)からそれに含まれる解剖学的構造体を抽出する画像処理ユニット(450)を有する装置(400)であって、
 上記畳込みニューラルネットワーク(600)は、
a1:複数の畳込み層(conv)を含む第1のパスであって、上記医療用データのうちの一部の対象画素(681a)を含む第1の対象領域(R1)についてのデータ(51)が、第1の解像度で入力される第1のパス(A1)と、
a2:複数の畳込み層(conv)を含む第2のパスであって、上記医療用データのうちの一部の対象画素(681a)を含む第2の対象領域(R2)についてのデータ(52)が、第2の解像度で入力される第2のパス(A2)と、
 を有する畳込み部(600a)と、
 を含むことを特徴とする、装置。
 解剖学的構造体としては、血管に限らず、臓器や骨等であってもよい。
A2.さらに、
 b:ニューラルネット構造を有し、上記第1のパスと上記第2のパスとの出力結果を入力データとして、上記対象画素(681a)の可視化に関する数値を出力する出力部(600b)を備える。
 なお、本明細書において、本発明の趣旨を逸脱しない限り、1つの技術的要素と他の技術的要素は適宜組合せ可能である。また、例えば装置の発明として説明された内容は、方法の発明またはコンピュータプログラム(プログラム媒体)の発明としても表現可能である。
11 心臓
12 冠動脈
13 他の血管
100 薬液注入装置
110 注入ヘッド
150 コンソール
400 血管抽出装置
450 画層処理ユニット
600 畳込みニューラルネットワーク
600a 畳込み部
600b 出力部
601 医療用ボリュームデータ
611~619 畳込み層
A1~A3 パス
B1~B2 全結合層
B3 出力層
C1~C2 追加パス

Claims (8)

  1.  畳込みニューラルネットワークを利用し医療用ボリュームデータからそれに含まれる血管を抽出する画像処理ユニットを有する装置であって、
     前記畳込みニューラルネットワークは、
    a1:複数の畳込み層を含む第1のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第1の対象領域についてのデータが、第1の解像度で入力される第1のパスと、
    a2:複数の畳込み層を含む第2のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第2の対象領域についてのデータが、第2の解像度で入力される第2のパスと、
     を有する畳込み部と、
    b:ニューラルネット構造を有し、前記第1のパスと前記第2のパスとの出力結果を入力データとして、前記対象ボクセルの可視化に関する数値を出力する出力部と、
     を含む、血管抽出装置。
  2.  さらに、前記畳込み部として、
    c1:複数の畳込み層を含む第1の追加パスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む対象領域について、前記医療用ボリュームデータのCT値を第1の範囲内にクリップしたデータが入力される第1の追加パスと、
    c1:複数の畳込み層を含む第2の追加パスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む対象領域について、前記医療用ボリュームデータのCT値を第2の範囲内にクリップしたデータが入力される第2の追加パスと、
     を含む、
     請求項1に記載の血管抽出装置。
  3.  前記第1の範囲は上限を500HUとする範囲であり、
     前記第2の範囲は下限を300HUとする範囲である、
     請求項1または2に記載の血管抽出装置。
  4.  さらに、前記畳込み部として、
    a3:複数の畳込み層を含む第3のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第3の対象領域についてのデータが、第3の解像度で入力される第3のパスを有する、
     請求項1~3のいずれか一項に記載の血管抽出装置。
  5.  前記画像処理ユニットは、前記可視化に関する数値に基づき当該ボクセルの表示態様を決定し、それに基いて血管を表示するように構成されている、
     請求項1~4のいずれか一項に記載の血管抽出装置。
  6.  前記血管が冠動脈であり、前記医療用ボリュームデータは、少なくとも心臓と冠動脈とを含む範囲のデータである、
     請求項1~5のいずれか一項に記載の血管抽出装置。
  7.  畳込みニューラルネットワークを利用し医療用ボリュームデータからそれに含まれる血管を抽出する血管抽出方法であって、
     前記畳込みニューラルネットワークは、
    a1:複数の畳込み層を含む第1のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第1の対象領域についてのデータが、第1の解像度で入力される第1のパスと、
    a2:複数の畳込み層を含む第2のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第2の対象領域についてのデータが、第2の解像度で入力される第2のパスと、
     を有する畳込み部と、
    b:ニューラルネット構造を有し、前記第1のパスと前記第2のパスとの出力結果を入力データとして、前記対象ボクセルの可視化に関する数値を出力する出力部と、
     を含むことを特徴とする、血管抽出方法。
  8.  畳込みニューラルネットワークを利用し医療用ボリュームデータからそれに含まれる血管を抽出する血管抽出プログラムであって、
     前記畳込みニューラルネットワークは、
    a1:複数の畳込み層を含む第1のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第1の対象領域についてのデータが、第1の解像度で入力される第1のパスと、
    a2:複数の畳込み層を含む第2のパスであって、前記医療用ボリュームデータのうちの一部の対象ボクセルを含む第2の対象領域についてのデータが、第2の解像度で入力される第2のパスと、
     を有する畳込み部と、
    b:ニューラルネット構造を有し、前記第1のパスと前記第2のパスとの出力結果を入力データとして、前記対象ボクセルの可視化に関する数値を出力する出力部と、
     を含むことを特徴とする、血管抽出プログラム。
PCT/JP2018/036733 2017-10-03 2018-10-01 血管抽出装置および血管抽出方法 WO2019069867A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/651,885 US11392793B2 (en) 2017-10-03 2018-10-01 Blood vessel extraction device and blood vessel extraction method
JP2019546703A JP7295022B2 (ja) 2017-10-03 2018-10-01 血管抽出装置および血管抽出方法
EP18865027.9A EP3692920A4 (en) 2017-10-03 2018-10-01 BLOOD VESSEL EXTRACTION DEVICE AND BLOOD VESSEL EXTRACTION PROCESS
JP2023094482A JP2023123542A (ja) 2017-10-03 2023-06-08 血管抽出装置および血管抽出方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-193805 2017-10-03
JP2017193805 2017-10-03

Publications (1)

Publication Number Publication Date
WO2019069867A1 true WO2019069867A1 (ja) 2019-04-11

Family

ID=65994550

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/036733 WO2019069867A1 (ja) 2017-10-03 2018-10-01 血管抽出装置および血管抽出方法

Country Status (4)

Country Link
US (1) US11392793B2 (ja)
EP (1) EP3692920A4 (ja)
JP (2) JP7295022B2 (ja)
WO (1) WO2019069867A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580695A (zh) * 2019-08-07 2019-12-17 深圳先进技术研究院 一种多模态三维医学影像融合方法、系统及电子设备
CN111062963A (zh) * 2019-12-16 2020-04-24 上海联影医疗科技有限公司 一种血管提取方法、系统、设备及存储介质
WO2022065060A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0824227A (ja) * 1994-07-19 1996-01-30 Hitachi Medical Corp 医用画像診断装置
JP2015119768A (ja) 2013-12-20 2015-07-02 株式会社東芝 画像処理装置、超音波診断装置及び画像処理プログラム
EP3171297A1 (en) * 2015-11-18 2017-05-24 CentraleSupélec Joint boundary detection image segmentation and object recognition using deep learning
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218763B2 (en) * 2003-02-27 2007-05-15 Eastman Kodak Company Method for automated window-level settings for magnetic resonance images
JP5833958B2 (ja) 2012-03-14 2015-12-16 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US11087459B2 (en) * 2015-08-14 2021-08-10 Elucid Bioimaging Inc. Quantitative imaging for fractional flow reserve (FFR)
US10157462B2 (en) * 2016-06-27 2018-12-18 University Of Central Florida Research Foundation, Inc. System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels
US10580131B2 (en) * 2017-02-23 2020-03-03 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
US20210334963A1 (en) * 2017-03-24 2021-10-28 Pie Medical Imaging B.V. Method and system for assessing vessel obstruction based on machine learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0824227A (ja) * 1994-07-19 1996-01-30 Hitachi Medical Corp 医用画像診断装置
JP2015119768A (ja) 2013-12-20 2015-07-02 株式会社東芝 画像処理装置、超音波診断装置及び画像処理プログラム
EP3171297A1 (en) * 2015-11-18 2017-05-24 CentraleSupélec Joint boundary detection image segmentation and object recognition using deep learning
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KANAI, REN ET AL.: "1C-01. 3D Object Recognition by Convolutional Neural Network Using Multilevel Filter", THE 78TH NATIONAL CONVENTION OF IPSJ, 2016, pages 2-37 - 2-38, XP009520298 *
KITRUNGROTSAKUL TITINUNT ET AL.: "OP11-1 Automatic Vessel Segmentation using A Combined Deep Network", JAMIT ANNUAL MEETING 2017, vol. 36, 27 July 2017 (2017-07-27), pages 379 - 382, XP009520319 *
OSAREH, ALIREZA ET AL.: "An Automated Tracking Approach for Extraction of Retinal Vasculature in Fundus Images", JOURNAL OF OPHTHALMIC AND VISION RESEARCH, vol. 5, no. 1, 2010, pages 20 - 26, XP055589790 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580695A (zh) * 2019-08-07 2019-12-17 深圳先进技术研究院 一种多模态三维医学影像融合方法、系统及电子设备
CN111062963A (zh) * 2019-12-16 2020-04-24 上海联影医疗科技有限公司 一种血管提取方法、系统、设备及存储介质
CN111062963B (zh) * 2019-12-16 2024-03-26 上海联影医疗科技股份有限公司 一种血管提取方法、系统、设备及存储介质
WO2022065060A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
JP7463538B2 (ja) 2020-09-28 2024-04-08 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル

Also Published As

Publication number Publication date
JP2023123542A (ja) 2023-09-05
EP3692920A1 (en) 2020-08-12
JP7295022B2 (ja) 2023-06-20
US20200327370A1 (en) 2020-10-15
US11392793B2 (en) 2022-07-19
EP3692920A4 (en) 2021-06-09
JPWO2019069867A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US7286866B2 (en) Method, system and computer product for cardiac interventional procedure planning
JP2022517581A (ja) 冠動脈の動的ロードマップを提供するための方法およびシステム
EP2220621B1 (en) Volume rendering apparatus and method
US8644575B2 (en) Processing of abdominal images
JP5478328B2 (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
CN112368781A (zh) 基于机器学习来评估血管阻塞的方法和系统
US7813785B2 (en) Cardiac imaging system and method for planning minimally invasive direct coronary artery bypass surgery
JP2023123542A (ja) 血管抽出装置および血管抽出方法
JP7139479B2 (ja) 画像処理装置、医用画像診断装置、及びプログラム
US20090012382A1 (en) Method and system for detection of obstructions in vasculature
US20110015520A1 (en) Perfusion imaging
JP2018089301A (ja) 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
US11941812B2 (en) Diagnosis support apparatus and X-ray CT apparatus
JP7027046B2 (ja) 医用画像撮像装置及び方法
US20220198784A1 (en) System and methods for augmenting x-ray images for training of deep neural networks
JP6670560B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び画像処理システム
CN113423438A (zh) 用于血管造影的改进方法
JP6734111B2 (ja) 所見情報作成装置及びシステム
EP4066260A1 (en) Automated protocoling in medical imaging systems
CN112168191A (zh) 从第一三维计算机断层成像数据组提供分析数据组的方法
JP5363962B2 (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
JP7309766B2 (ja) 血管造影投影をコンピュータ断層撮影データに位置合わせするためのシステムおよび方法
US20240127450A1 (en) Medical image processing apparatus and non-transitory computer readable medium
WO2023100838A1 (ja) コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法
JP2018000943A (ja) 医用画像診断装置及び医用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18865027

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019546703

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018865027

Country of ref document: EP

Effective date: 20200504