JP2023049952A - Computer program, information processing device, information processing method, and learning model generation method - Google Patents

Computer program, information processing device, information processing method, and learning model generation method Download PDF

Info

Publication number
JP2023049952A
JP2023049952A JP2021160018A JP2021160018A JP2023049952A JP 2023049952 A JP2023049952 A JP 2023049952A JP 2021160018 A JP2021160018 A JP 2021160018A JP 2021160018 A JP2021160018 A JP 2021160018A JP 2023049952 A JP2023049952 A JP 2023049952A
Authority
JP
Japan
Prior art keywords
learning model
medical image
image data
hollow organ
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021160018A
Other languages
Japanese (ja)
Inventor
耕太郎 楠
Kotaro Kusunoki
雄紀 坂口
Yuki Sakaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2021160018A priority Critical patent/JP2023049952A/en
Publication of JP2023049952A publication Critical patent/JP2023049952A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a computer program, an information processing device, an information processing method, and a learning model generation method capable of improving lesion detection accuracy.SOLUTION: A computer program causes a computer to execute processing for acquiring medical image data indicating a cross-sectional image of a hollow organ, acquiring position data on a predetermined part by inputting the acquired medical image data to a first learning model for outputting position data on the predetermined part of the hollow organ when the medical image data indicating the cross-sectional image of the hollow organ is input, and outputting presence or absence of an object by inputting the acquired medical image data and the acquired position data on the predetermined part to a second learning model for outputting presence or absence of the object in the hollow organ when the medical image data indicating the cross-sectional image of the hollow organ and the position data on the predetermined part of the hollow organ are input.SELECTED DRAWING: Figure 2

Description

本発明は、コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法に関する。 The present invention relates to a computer program, an information processing apparatus, an information processing method, and a learning model generation method.

PCI(経皮的冠動脈インターベンション)の手技において、IVUS(Intra Vascular Ultra Sound:血管内超音波)、OCT(Optical Coherence Tomography:光干渉断層撮影)、OFDI(Optical Frequency Domain Imaging:光周波数領域イメージング)などのイメージングモダリティの読影は難易度が高く、読影の標準化のための自動化が検討されている。 In PCI (percutaneous coronary intervention) procedures, IVUS (Intra Vascular Ultra Sound), OCT (Optical Coherence Tomography), OFDI (Optical Frequency Domain Imaging) Interpretation of imaging modalities such as MRI is highly difficult, and automation for standardization of interpretation is being considered.

特許文献1には、血管内にカテーテルを挿入し、カテーテル内に収容されたイメージングコアで得られた信号(血管組織に向けて出射した超音波、及び反射波)に基づいて血管断面画像を生成する画像診断装置が開示されている。 In Patent Document 1, a catheter is inserted into a blood vessel, and a blood vessel cross-sectional image is generated based on signals (ultrasonic waves emitted toward the blood vessel tissue and reflected waves) obtained by an imaging core housed in the catheter. A diagnostic imaging apparatus is disclosed.

国際公開第2017/164071号WO2017/164071

しかし、解離や血栓などの合併症につながる病変は識別の難易度が高いため、見逃しの可能性がある。 However, lesions that lead to complications such as dissection and thrombosis are difficult to identify and may be overlooked.

本発明は、斯かる事情に鑑みてなされたものであり、病変の検出精度を向上させることができるコンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a computer program, an information processing apparatus, an information processing method, and a learning model generation method that can improve the detection accuracy of lesions.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、管腔器官の断面画像を示す医用画像データを取得し、管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、処理を実行させる。 The present application includes a plurality of means for solving the above problems. To give one example, a computer program acquires medical image data representing a cross-sectional image of a hollow organ in a computer, and generates a cross-sectional image of the hollow organ. is input to a first learning model for outputting position data of a predetermined portion of the hollow organ to obtain the position data of the predetermined portion of the lumen; When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, the obtained medical image is input to a second learning model that outputs the presence or absence of an object in the hollow organ. The data and the acquired position data of the predetermined portion are input, and the processing of outputting the presence or absence of the object is executed.

本発明によれば、病変の検出精度を向上させることができる。 According to the present invention, lesion detection accuracy can be improved.

本実施の形態の画像診断システムの構成の一例を示す図である。1 is a diagram showing an example of a configuration of a diagnostic imaging system according to an embodiment; FIG. 情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an information processing apparatus. 第1学習モデルの構成の一例を示す図である。It is a figure which shows an example of a structure of a 1st learning model. 第1学習モデルの構成の一例を示す図である。It is a figure which shows an example of a structure of a 1st learning model. 第2学習モデルの構成の一例を示す図である。FIG. 10 is a diagram showing an example of a configuration of a second learning model; FIG. 情報処理装置による対象物の有無の検出の第1例を示す図である。It is a figure which shows the 1st example of the detection of the presence or absence of a target object by an information processing apparatus. 重み位置情報の入力処理の第1例を示す図である。FIG. 10 is a diagram showing a first example of input processing of weight position information; 第2学習モデルの生成方法の第1例を示す図である。FIG. 10 is a diagram showing a first example of a method for generating a second learning model; 重み位置情報の入力処理の第2例を示す図である。FIG. 10 is a diagram showing a second example of input processing of weight position information; 第2学習モデルの生成方法の第2例を示す図である。FIG. 10 is a diagram illustrating a second example of a method for generating a second learning model; 情報処理装置による対象物の有無の検出の第2例を示す図である。It is a figure which shows the 2nd example of the detection of the presence or absence of a target object by an information processing apparatus. 情報処理装置による対象物の有無の検出の第3例を示す図である。FIG. 10 is a diagram illustrating a third example of detection of presence/absence of an object by an information processing device; 情報処理装置による対象物の有無の検出の第4例を示す図である。FIG. 10 is a diagram showing a fourth example of detection of presence/absence of an object by an information processing device; 情報処理装置による対象物の検出処理の第1例を示す図である。It is a figure which shows the 1st example of the detection process of the target object by an information processing apparatus. 情報処理装置による対象物の検出処理の第2例を示す図である。It is a figure which shows the 2nd example of the detection process of the target object by an information processing apparatus. 情報処理装置による第1学習モデルの生成処理の一例を示す図である。It is a figure which shows an example of the production|generation process of the 1st learning model by an information processing apparatus. 情報処理装置による第2学習モデルの生成処理の第1例を示す図である。It is a figure which shows the 1st example of the production|generation process of the 2nd learning model by an information processing apparatus. 情報処理装置による第2学習モデルの生成処理の第2例を示す図である。FIG. 10 is a diagram illustrating a second example of processing for generating a second learning model by the information processing device;

以下、本発明の実施の形態について説明する。図1は本実施の形態の画像診断システム100の構成の一例を示す図である。画像診断システム100は、心臓カテーテル治療(PCI)に用いられる血管内イメージング(画像診断)を行うための装置である。心臓カテーテル治療は、脚の付け根や腕、手首などの血管からカテーテルを差し込んで、冠動脈の狭くなった部分を治療する方法である。血管内イメージングには、血管内超音波検査(IVUS:Intra Vascular Ultra Sound)法、光干渉断層診断(OFDI:Optical Frequency Domain Imaging、OCT:Optical Coherence Tomography)法、の二つの方法がある。IVUSは、超音波の反射を利用して、血管内部を断層画像で読影する。具体的には、先端に超小型センサを搭載した細いカテーテルを冠動脈内に挿入し、病変部まで通した後、センサから発信される超音波で血管内の医用画像を生成することができる。OFDIは、近赤外線を用いて、血管内の状態を高解像度の画像で読影する。具体的には、IVUSと同様に、カテーテルを血管内に挿入し、先端部から近赤外線を照射し、干渉法によって血管の断面を測定し、医用画像を生成する。また、OCTは、近赤外線と光ファイバ技術を応用した血管内画像診断である。本明細書において、医用画像(医用画像データ)は、IVUS、OFDI、又はOCTによって生成されたものを含むが、以下では、主にIVUS法を用いた場合について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. FIG. 1 is a diagram showing an example of the configuration of a diagnostic imaging system 100 according to this embodiment. The diagnostic imaging system 100 is an apparatus for performing intravascular imaging (diagnostic imaging) used for cardiac catheterization (PCI). Cardiac catheterization is a method of treating a narrowed portion of a coronary artery by inserting a catheter from a blood vessel such as the groin, arm, or wrist. There are two methods of intravascular imaging: intravascular ultrasound (IVUS) and optical coherence tomography (OFDI). IVUS utilizes the reflection of ultrasound to interpret the inside of a blood vessel as a tomographic image. Specifically, a thin catheter equipped with an ultra-small sensor at the tip is inserted into the coronary artery, passed through the affected area, and then ultrasonic waves emitted from the sensor can be used to generate medical images of the inside of the blood vessel. OFDI uses near-infrared rays to interpret the state of blood vessels with high-resolution images. Specifically, similar to IVUS, a catheter is inserted into a blood vessel, near-infrared rays are emitted from the distal end, a cross section of the blood vessel is measured by an interferometry, and a medical image is generated. OCT is an intravascular imaging diagnosis that applies near-infrared rays and optical fiber technology. In the present specification, medical images (medical image data) include those generated by IVUS, OFDI, or OCT, but the case where the IVUS method is mainly used will be described below.

画像診断システム100は、カテーテル10、MDU(Motor Drive Unit)20、表示装置30、入力装置40、及び情報処理装置50を備える。情報処理装置50には、通信ネットワーク1を介してサーバ200が接続されている。 The diagnostic imaging system 100 includes a catheter 10 , an MDU (Motor Drive Unit) 20 , a display device 30 , an input device 40 and an information processing device 50 . A server 200 is connected to the information processing device 50 via the communication network 1 .

カテーテル10は、IVUS法によって血管の超音波断層像を得るための画像診断用カテーテルである。カテーテル10は、血管の超音波断層像を得るための超音波プローブを先端部に有する。超音波プローブは、血管内において超音波を発する超音波振動子、及び血管の生体組織又は医用機器などの構造物で反射された反射波(超音波エコー)を受信する超音波センサを有する。超音波プローブは、血管の周方向に回転しながら、血管の長手方向に進退可能に構成されている。 A catheter 10 is a diagnostic imaging catheter for obtaining an ultrasonic tomographic image of a blood vessel by the IVUS method. The catheter 10 has an ultrasonic probe at its distal end for obtaining ultrasonic tomographic images of blood vessels. The ultrasonic probe has an ultrasonic transducer that emits ultrasonic waves in a blood vessel and an ultrasonic sensor that receives reflected waves (ultrasonic echoes) reflected by structures such as biological tissue of the blood vessel or medical equipment. The ultrasonic probe is configured to advance and retreat in the longitudinal direction of the blood vessel while rotating in the circumferential direction of the blood vessel.

MDU20は、カテーテル10を着脱可能に取り付けることができる駆動装置であり、医療従事者の操作に応じて内蔵モータを駆動して、血管内に挿入されたカテーテル10の動作を制御する。MDU20は、カテーテル10の超音波プローブを先端(遠位)側から基端(近位)側へ移動させながら周方向に回転させることができる(プルバック操作)。超音波プローブは、所定の時間間隔で連続的に血管内を走査し、検出された超音波の反射波データを情報処理装置50へ出力する。 The MDU 20 is a driving device to which the catheter 10 can be detachably attached, and controls the operation of the catheter 10 inserted into the blood vessel by driving the built-in motor according to the operation of the medical staff. The MDU 20 can rotate in the circumferential direction while moving the ultrasonic probe of the catheter 10 from the tip (distal) side to the base end (proximal) side (pullback operation). The ultrasonic probe continuously scans the inside of the blood vessel at predetermined time intervals, and outputs reflected wave data of detected ultrasonic waves to the information processing device 50 .

情報処理装置50は、カテーテル10の超音波プローブから出力された反射波データに基づいて、血管の断層像を含む時系列順の複数の医用画像を生成する(取得する)。超音波プローブは、血管内を先端(遠位)側から基端(近位)側へ移動しながら血管内を走査するため、時系列順の複数の医用画像は、遠位から近位にわたる複数箇所で観測された血管の断層画像となる。 The information processing device 50 generates (acquires) a plurality of time-series medical images including tomograms of blood vessels based on the reflected wave data output from the ultrasonic probe of the catheter 10 . Since the ultrasound probe scans the inside of the blood vessel while moving from the tip (distal) side to the base end (proximal) side, multiple medical images in chronological order are multiple images from the distal to the proximal side. It becomes a tomographic image of the blood vessel observed at the point.

表示装置30は、液晶表示パネル、有機EL表示パネル等を備え、情報処理装置50による処理結果を表示することができる。また、表示装置30は、情報処理装置50が生成(取得)した医用画像を表示することができる。 The display device 30 includes a liquid crystal display panel, an organic EL display panel, or the like, and can display the results of processing by the information processing device 50 . The display device 30 can also display medical images generated (acquired) by the information processing device 50 .

入力装置40は、検査を行う際の各種設定値の入力、情報処理装置50の操作等を受け付けるキーボード、マウス等の入力インタフェースである。入力装置40は、表示装置30に設けられたタッチパネル、ソフトキー、ハードキー等であってもよい。 The input device 40 is an input interface such as a keyboard, a mouse, etc., for receiving input of various setting values, operation of the information processing device 50, and the like when performing an examination. The input device 40 may be a touch panel, soft keys, hard keys, or the like provided on the display device 30 .

サーバ200は、例えば、データサーバであり、医用画像データを蓄積した画像DBを備えてもよい。 The server 200 is, for example, a data server and may include an image DB storing medical image data.

図2は情報処理装置50の構成の一例を示す図である。情報処理装置50は、コンピュータで構成することができ、情報処理装置50全体を制御する制御部51、通信部52、インタフェース部53、記録媒体読取部54、メモリ55、及び記憶部56を備える。 FIG. 2 is a diagram showing an example of the configuration of the information processing device 50. As shown in FIG. The information processing apparatus 50 can be configured by a computer, and includes a control section 51 that controls the entire information processing apparatus 50 , a communication section 52 , an interface section 53 , a recording medium reading section 54 , a memory 55 and a storage section 56 .

制御部51は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等が所要数組み込まれて構成されている。また、制御部51は、DSP(Digital Signal Processors)、FPGA(Field-Programmable Gate Arrays)量子プロセッサなどを組み合わせて構成してもよい。制御部51は、第1取得部、第2取得部、及び出力部の機能を有するとともに、後述のコンピュータプログラム57が実現する機能も有する。 The control unit 51 incorporates a required number of CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), GPGPU (General-purpose computing on graphics processing units), TPU (Tensor Processing Unit), etc. configured as follows. Further, the control unit 51 may be configured by combining DSPs (Digital Signal Processors), FPGAs (Field-Programmable Gate Arrays) quantum processors, and the like. The control unit 51 has functions of a first acquisition unit, a second acquisition unit, and an output unit, and also has functions implemented by a computer program 57 described later.

メモリ55は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の半導体メモリで構成することができる。 The memory 55 can be composed of a semiconductor memory such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), or a flash memory.

通信部52は、例えば、通信モジュールを備え、通信ネットワーク1を介してサーバ200との間の通信機能を有する。また、通信部52は、通信ネットワーク1に接続されている外部の装置(不図示)との間の通信機能を備えてもよい。 The communication unit 52 includes, for example, a communication module and has a function of communicating with the server 200 via the communication network 1 . Also, the communication unit 52 may have a communication function with an external device (not shown) connected to the communication network 1 .

インタフェース部53は、カテーテル10、表示装置30及び入力装置40との間のインタフェース機能を提供する。情報処理装置50(制御部51)は、インタフェース部53を通じて、カテーテル10、表示装置30及び入力装置40との間でデータや情報の送信及び受信を行うことができる。 The interface section 53 provides interface functions among the catheter 10 , the display device 30 and the input device 40 . The information processing device 50 (control unit 51 ) can transmit and receive data and information to and from the catheter 10 , the display device 30 and the input device 40 through the interface unit 53 .

記録媒体読取部54は、例えば、光学ディスクドライブで構成することができ、記録媒体541(例えば、CD-ROM等の光学可読ディスク記憶媒体)に記録されたコンピュータプログラム(プログラム製品)を記録媒体読取部54で読み取って記憶部56に格納することができる。コンピュータプログラム57は、メモリ55に展開されて、制御部51により実行される。なお、コンピュータプログラム57は、通信部52を介して、外部の装置からダウンロードして記憶部56に格納してもよい。 The recording medium reading unit 54 can be configured by, for example, an optical disk drive, and reads a computer program (program product) recorded on a recording medium 541 (for example, an optically readable disk storage medium such as a CD-ROM). It can be read by the unit 54 and stored in the storage unit 56 . The computer program 57 is developed in the memory 55 and executed by the control unit 51 . Note that the computer program 57 may be downloaded from an external device via the communication unit 52 and stored in the storage unit 56 .

記憶部56は、例えば、ハードディスク又は半導体メモリ等で構成することができ、所要の情報を記憶することができる。記憶部56は、コンピュータプログラム57の他に、第1学習モデル58、及び第2学習モデル59を記憶することができる。第1学習モデル58、及び第2学習モデル59は、学習前のモデル、学習途中のモデル、又は学習済みモデルを含む。第1学習モデル58及び第2学習モデル59の詳細は後述する。 The storage unit 56 can be configured by, for example, a hard disk or a semiconductor memory, and can store required information. The storage unit 56 can store a first learning model 58 and a second learning model 59 in addition to the computer program 57 . The first learning model 58 and the second learning model 59 include a pre-learning model, an in-learning model, or a trained model. Details of the first learning model 58 and the second learning model 59 will be described later.

以下では、第1学習モデル58、及び第2学習モデル59について説明し、次に、第1学習モデル58及び第2学習モデル59の両方を用いることにより、管腔器官(例えば、血管)における対象物の有無の検出方法について説明する。 Below, the first learning model 58 and the second learning model 59 are described, and then, by using both the first learning model 58 and the second learning model 59, an object in a hollow organ (e.g., blood vessel) A method for detecting the presence or absence of an object will be described.

第1学習モデル58は、管腔器官の断面画像を示す医用画像データを入力した場合に、当該管腔器官の所定部位の位置データを出力する。所定部位は、例えば、内腔の領域を含む場合と、内腔及び血管それぞれの領域を含む場合とに分けることができる。第1学習モデル58は、医用画像に含まれる所定のオブジェクト(所定部位)を認識するモデルである。第1学習モデル58は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、医用画像に含まれる内腔の領域、血管の領域を認識することができる。以下、内腔の領域を出力する第1学習モデル58を第1学習モデル581とし、内腔及び血管それぞれの領域を出力する第1学習モデル58を第1学習モデル582として説明する。なお、第1学習モデル581、582を纏めて第1学習モデル58で表す。 The first learning model 58 outputs position data of a predetermined portion of the hollow organ when medical image data representing a cross-sectional image of the hollow organ is input. The predetermined site can be classified into, for example, a case that includes a lumen area and a case that includes both lumen and blood vessel areas. The first learning model 58 is a model for recognizing a predetermined object (predetermined site) included in medical images. The first learning model 58 can classify objects in units of pixels by, for example, using an image recognition technique using semantic segmentation. area can be recognized. Hereinafter, the first learning model 58 that outputs the region of the lumen will be referred to as the first learning model 581, and the first learning model 58 that outputs the regions of the lumen and the blood vessel will be referred to as the first learning model 582. Note that the first learning models 581 and 582 are collectively represented by a first learning model 58 .

図3は第1学習モデル581の構成の一例を示す図である。第1学習モデル581は、入力層581a、中間層581b、及び出力層581cを備え、例えば、U-Netで構成することができる。中間層581bは、複数のエンコーダ、及び複数のデコーダを備える。入力層581aに入力された医用画像データに対して、複数のエンコーダで畳み込み処理を繰り返す。エンコーダで畳み込まれた画像に対して、複数のデコーダでアップサンプリング(逆畳み込み)処理を繰り返す。畳み込まれた画像をデコードする際に、エンコーダで生成した特徴マップを逆畳み込み処理を行う画像に足し合わせる処理を行う。これにより、畳み込み処理によって失われる位置情報を保持することができ、より精度の高いセグメンテーション(いずれのピクセルがいずれのクラスであるか)を出力することができる。第1学習モデル581は、医用画像データが入力されると、内腔の領域を示す位置データを出力することができる。位置データは、内腔の領域を示す画素(ピクセル)の座標データである。別言すれば、学習モデル581は、入力された医用画像データそれぞれのピクセルを、例えば、クラス1、2の2つのクラスに分類することができる。クラス1はBackgroundを示し、内腔の外側の領域を示す。クラス2はLumenを示し、血管の内腔を示す。従って、クラス1に分類されたピクセルとクラス2に分類されたピクセルとの境界は内腔の境界を示す。なお、第1学習モデル581は、U-Netに限定されるものではなく、例えば、GAN(Generative Adversarial Network)、SegNet等でもよい。 FIG. 3 is a diagram showing an example of the configuration of the first learning model 581. As shown in FIG. The first learning model 581 includes an input layer 581a, an intermediate layer 581b, and an output layer 581c, and can be configured by U-Net, for example. The middle layer 581b comprises multiple encoders and multiple decoders. A plurality of encoders repeat convolution processing on the medical image data input to the input layer 581a. A plurality of decoders repeat upsampling (deconvolution) processing for the image convolved by the encoder. When decoding the convolved image, the feature map generated by the encoder is added to the image to be deconvolved. This makes it possible to retain the position information that is lost due to the convolution process, and to output a more accurate segmentation (which pixel belongs to which class). The first learning model 581 can output position data indicating the region of the lumen when medical image data is input. The position data is coordinate data of picture elements (pixels) indicating the region of the lumen. In other words, the learning model 581 can classify each pixel of the input medical image data into two classes, classes 1 and 2, for example. Class 1 indicates Background and indicates the area outside the lumen. Class 2 indicates Lumen and indicates the lumen of a blood vessel. Therefore, the boundary between pixels classified as class 1 and pixels classified as class 2 indicates the boundary of the lumen. Note that the first learning model 581 is not limited to U-Net, and may be, for example, GAN (Generative Adversarial Network), SegNet, or the like.

第1学習モデル581の生成方法は、以下のようにすることができる。まず、血管の断面画像を示す医用画像データ、及び当該血管の内腔の領域の位置データを含む第1訓練データを取得する。第1訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。次に、第1訓練データに基づいて、血管の断面画像を示す医用画像データを第1学習モデル581に入力した場合に、内腔の領域の位置データを出力するように第1学習モデル581を生成すればよい。なお、訓練データに、内腔の領域の位置データの代わりに、内腔の境界の位置データを含めて、内腔の境界の位置データを出力するように第1学習モデル581を生成してもよい。 A method of generating the first learning model 581 can be as follows. First, medical image data representing a cross-sectional image of a blood vessel and first training data including position data of a region of the lumen of the blood vessel are acquired. The first training data may be collected and stored in the server 200 and then acquired from the server 200, for example. Next, based on the first training data, the first learning model 581 is configured to output the position data of the lumen area when the medical image data representing the cross-sectional image of the blood vessel is input to the first learning model 581. should be generated. Note that the first learning model 581 may be generated so as to include position data of the boundary of the lumen in the training data instead of the position data of the region of the lumen and output the position data of the boundary of the lumen. good.

図4は第1学習モデル582の構成の一例を示す図である。第1学習モデル582は、入力層582a、中間層582b、及び出力層582cを備え、例えば、U-Netで構成することができる。中間層582bは、第1学習モデル581と同様、複数のエンコーダ、及び複数のデコーダを備える。第1学習モデル582は、医用画像データが入力されると、内腔の領域及び血管の領域それぞれを示す位置データを出力することができる。位置データは、内腔の領域及び血管の領域それぞれを示す画素(ピクセル)の座標データである。別言すれば、学習モデル582は、入力された医用画像データそれぞれのピクセルを、例えば、クラス1、2、3の3つのクラスに分類することができる。クラス1はBackgroundを示し、血管の外側の領域を示す。クラス3は(Plaque + Media)を示し、プラークを含む血管の領域を示す。クラス2はLumenを示し、血管の内腔を示す。従って、クラス2に分類されたピクセルとクラス3に分類されたピクセルとの境界は内腔の境界を示し、クラス1に分類されたピクセルとクラス3に分類されたピクセルとの境界は血管の境界を示す。なお、第1学習モデル582も、U-Netに限定されるものではなく、例えば、GAN(Generative Adversarial Network)、SegNet等でもよい。 FIG. 4 is a diagram showing an example of the configuration of the first learning model 582. As shown in FIG. The first learning model 582 comprises an input layer 582a, an intermediate layer 582b, and an output layer 582c, and can be configured by U-Net, for example. The middle layer 582b, like the first learning model 581, comprises multiple encoders and multiple decoders. When medical image data is input, the first learning model 582 can output position data indicating the lumen area and the blood vessel area. The position data is coordinate data of pixels indicating the lumen area and the blood vessel area. In other words, the learning model 582 can classify each pixel of the input medical image data into three classes 1, 2, and 3, for example. Class 1 indicates Background, which indicates the area outside the blood vessel. Class 3 stands for (Plaque + Media) and indicates areas of blood vessels containing plaque. Class 2 indicates Lumen and indicates the lumen of a blood vessel. Therefore, the boundary between the pixels classified into class 2 and the pixels classified into class 3 indicates the boundary of the lumen, and the boundary between the pixels classified into class 1 and the pixels classified into class 3 indicates the boundary of the blood vessel. indicates The first learning model 582 is also not limited to U-Net, and may be, for example, GAN (Generative Adversarial Network), SegNet, or the like.

第1学習モデル582の生成方法は、以下のようにすることができる。まず、血管の断面画像を示す医用画像データ、及び当該血管の内腔の領域及び血管の領域それぞれの位置データを含む第1訓練データを取得する。第1訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。次に、第1訓練データに基づいて、血管の断面画像を示す医用画像データを第1学習モデル582に入力した場合に、内腔の領域及び血管の領域それぞれの位置データを出力するように第1学習モデル582を生成すればよい。なお、訓練データに、内腔及び血管の領域の位置データの代わりに、内腔の境界及び血管の境界の位置データを含めて、内腔の境界及び血管の境界の位置データを出力するように第1学習モデル582を生成してもよい。 A method of generating the first learning model 582 can be as follows. First, medical image data representing a cross-sectional image of a blood vessel and first training data including position data of the lumen region and the blood vessel region of the blood vessel are acquired. The first training data may be collected and stored in the server 200 and then acquired from the server 200, for example. Next, based on the first training data, when medical image data representing a cross-sectional image of a blood vessel is input to the first learning model 582, the first learning model 582 is configured to output position data of each of the lumen region and the blood vessel region. 1 learning model 582 may be generated. In addition, the position data of the lumen boundary and the blood vessel boundary are included in the training data instead of the position data of the lumen and the blood vessel region, and the position data of the lumen boundary and the blood vessel boundary are output. A first learning model 582 may be generated.

次に、第2学習モデル59について説明する。第2学習モデル59は、管腔器官の断面画像を示す医用画像データを入力した場合に、当該管腔器官内の対象物の有無を出力する。第2学習モデル59は、医用画像に含まれる対象物を認識するモデルである。対象物は、病変及び構造物を含む。病変は、例えば、内腔の表層にのみ生じる、解離、プロトリュージョン又は血栓を含む。また、病変は、内腔の表層から血管までに生じる、石灰化又は減衰性プラークを含む。構造物は、ステント又はガイドワイヤを含む。 Next, the second learning model 59 will be explained. The second learning model 59 outputs the presence or absence of an object in the hollow organ when medical image data representing a cross-sectional image of the hollow organ is input. The second learning model 59 is a model for recognizing objects included in medical images. Objects include lesions and structures. Lesions include, for example, dissections, protrusions, or thrombi that occur only on the superficial layers of the lumen. Lesions also include calcified or attenuating plaques that occur from the lining of the lumen to the blood vessels. Structures include stents or guidewires.

図5は第2学習モデル591の構成の一例を示す図である。第2学習モデル591は、入力層591a、中間層591b、及び出力層591cを備え、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成することができる。中間層591bは、複数の畳み込み層、複数のプーリング層、及び全結合層を備える。第2学習モデル591は、医用画像データが入力されると、対象物の有無を出力することができる。入力層591aに入力された医用画像データは、畳み込み層において、畳み込みフィルタ(フィルタともいう)による畳み込み演算が行われ、特徴マップを出力する。プーリング層は、畳み込み層から出力された特徴マップの大きさを縮小する処理を行う。プーリング層により、医用画像内で、例えば、特徴部分が多少変形又は変位していても、その変形又は変位による差異を吸収して特徴部分を抽出することができる。 FIG. 5 is a diagram showing an example of the configuration of the second learning model 591. As shown in FIG. The second learning model 591 includes an input layer 591a, an intermediate layer 591b, and an output layer 591c, and can be configured by, for example, a convolutional neural network (CNN). The intermediate layer 591b comprises multiple convolutional layers, multiple pooling layers, and a fully connected layer. The second learning model 591 can output the presence/absence of an object when medical image data is input. The medical image data input to the input layer 591a undergoes a convolution operation using a convolution filter (also referred to as a filter) in the convolution layer to output a feature map. The pooling layer performs processing to reduce the size of the feature map output from the convolutional layer. With the pooling layer, for example, even if the characteristic portion is slightly deformed or displaced in the medical image, the characteristic portion can be extracted by absorbing the difference due to the deformation or displacement.

出力層591cは、360個のノードで構成され、医用画像の所定位置を中心として、半径方向に向かう走査ライン上で対象物の有無に応じた値(例えば、対象物有り:1、対象物無し:0など)を出力する。走査ラインは、全周を360等分した360個の線分で構成される。全周を360等分する構成に限定されるものではなく、例えば、全周を2等分、3等分、36等分など適宜の数で等分してもよい。なお、第2学習モデル591は、走査ライン上で対象物の有無を検出する構成に代えて、走査ラインを用いることなく医用画像内の対象物の有無を検出するように構成してもよい。 The output layer 591c is composed of 360 nodes, and values corresponding to the presence or absence of an object on a scanning line extending radially from a predetermined position of the medical image (for example, object present: 1, object absent : 0, etc.). A scanning line is composed of 360 line segments obtained by dividing the entire circumference into 360 equal parts. The structure is not limited to dividing the entire circumference into 360 equal parts. For example, the entire circumference may be equally divided into halves, 3 equal parts, 36 equal parts, or the like. Note that the second learning model 591 may be configured to detect the presence or absence of a target within a medical image without using a scan line, instead of detecting the presence or absence of the target on the scanning line.

本実施の形態では、第2学習モデル591を用いて対象物の有無を検出する場合、前述の第1学習モデル58を用いる。また、本実施の形態では、第2学習モデル591を生成する場合、第1学習モデル58を用いる。以下では、まず、第2学習モデル591を用いて対象物の有無を検出する方法について、次の第1例~第4例に分けて説明する。第1例は、所定部位が内腔の領域であり、対象物としての病変が解離、プロトリュージョン又は血栓である場合である。第2例は、所定部位が内腔及び血管それぞれの領域であり、対象物としての病変が石灰化又は減衰性プラークである場合である。第3例は、所定部位が内腔及び血管それぞれの領域であり、対象物としての構造物がステントである場合である。第4例は、所定部位が内腔の領域であり、対象物としての構造物がガイドワイヤである場合である。また、第2学習モデル591の生成方法についても説明する。 In this embodiment, when the presence or absence of an object is detected using the second learning model 591, the first learning model 58 described above is used. Moreover, in the present embodiment, when generating the second learning model 591, the first learning model 58 is used. First, the method of detecting the presence or absence of an object using the second learning model 591 will be described below for each of the following first to fourth examples. A first example is when the predetermined site is a lumen region and the target lesion is dissection, protrusion, or thrombus. A second example is a case where the predetermined site is a region of a lumen and a blood vessel, and the target lesion is calcified or attenuating plaque. A third example is a case where the predetermined site is a region of a lumen and a blood vessel, and the structure as the object is a stent. A fourth example is a case where the predetermined site is the region of the lumen and the structure as the object is the guidewire. A method of generating the second learning model 591 will also be described.

図6は情報処理装置50による対象物の有無の検出の第1例を示す図である。コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデル581に入力する。第1学習モデル581は、図3で例示したように、内腔の領域の位置データを出力する。コンピュータプログラム57は、内腔の領域の位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔境界付近の領域とすることができる。領域データは、例えば、医用画像データのうち、内腔境界付近の領域内に相当する部分だけを抽出したデータとすることができる。コンピュータプログラム57は、領域データに対して、内腔境界付近の領域の内外で異なる重み付けをして重み位置情報(重み付け情報)を生成する。重み付け処理は、例えば、内腔境界付近の領域(対象物候補領域)内(境界を含む)のデータを1とし、内腔境界付近の領域外のデータを0とする。なお、内腔境界付近の領域外において、重み付けを、内腔境界から遠ざかるに応じて1から徐々に0に近づけるように、0~1の範囲の数値を用いてもよい。 FIG. 6 is a diagram showing a first example of detection of the presence or absence of an object by the information processing device 50. As shown in FIG. The computer program 57 acquires medical image data representing a cross-sectional image of a blood vessel (lumen organ) and inputs the acquired medical image data to the first learning model 581 . The first learning model 581 outputs the position data of the region of the lumen as illustrated in FIG. The computer program 57 identifies area data of the candidate object area based on the position data of the area of the lumen. Here, the candidate object region can be the region near the lumen boundary. The region data can be, for example, data obtained by extracting only the portion corresponding to the region near the lumen boundary from the medical image data. The computer program 57 generates weighted position information (weighted information) by giving different weights to the area data inside and outside the area near the lumen boundary. In the weighting process, for example, the data inside (including the boundary) the area near the lumen boundary (object candidate area) is set to 1, and the data outside the area near the lumen boundary is set to 0. It should be noted that a numerical value in the range of 0 to 1 may be used so that the weighting may gradually approach 0 from 1 as the distance from the lumen boundary increases outside the region near the lumen boundary.

コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、解離、プロトリュージョン又は血栓(対象物)の有無を出力する。 The computer program 57 inputs the acquired medical image data and weight position information (weighting information) to the second learning model 591 . The second learning model 591 outputs the presence or absence of dissection, protrusion or thrombus (object).

重み位置情報を第2学習モデル591に入力する場合、たとえば、2通りの方法がある。以下、第2学習モデル591に対する重み位置情報の入力処理について説明する。 There are, for example, two methods for inputting the weight position information to the second learning model 591 . Input processing of weight position information for the second learning model 591 will be described below.

図7は重み位置情報の入力処理の第1例を示す図である。第1例では、第2学習モデル591に入力される医用画像データに対して、マスク処理を行い、マスク処理後の医用画像データを第2学習モデル591に入力する。マスク処理は、重み位置情報を用いて行われる。具体的には、候補領域内(境界を含む)の重み付けが1、候補領域外の重み付けが0の場合、マスク処理後の医用画像データは、候補領域内に対応する画素以外の画素の値が0となる。図6の例は、候補領域が内腔境界付近の領域であるので、第2学習モデル591は、医用画像全体のうち、内腔境界付近の領域に限定して対象物である、解離、プロトリュージョン又は血栓の有無を検出することができる。解離、プロトリュージョン又は血栓は、内腔の表層にのみ生じる病変であるので、内腔境界付近の領域に限定して対象物の有無を検出することにより、病変の検出精度を向上させることができる。 FIG. 7 is a diagram showing a first example of input processing of weight position information. In the first example, mask processing is performed on the medical image data input to the second learning model 591 , and the masked medical image data is input to the second learning model 591 . Mask processing is performed using weight position information. Specifically, when the weighting within the candidate region (including the boundary) is 1 and the weighting outside the candidate region is 0, the medical image data after mask processing is such that the values of the pixels other than the corresponding pixels within the candidate region are becomes 0. In the example of FIG. 6, the candidate region is the region near the lumen boundary. The presence or absence of a rupture or thrombus can be detected. Dissection, protrusion, and thrombus are lesions that occur only in the surface layer of the lumen. Therefore, detection of the presence or absence of objects limited to the area near the lumen boundary can improve the accuracy of lesion detection. can.

このように、重み位置情報の入力処理の第1例では、コンピュータプログラム57は、血管の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得し、取得した位置データに基づいて、対象物候補領域の領域データを特定し、特定した領域データに対して、対象物候補領域の内外で異なる重み付けをして重み位置情報を生成する。そして、コンピュータプログラム57は、生成した重み位置情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データ(マスク処理後の医用画像データ)を第2学習モデルに入力し、対象物の有無を出力することができる。 As described above, in the first example of the weight position information input process, the computer program 57 acquires medical image data representing a cross-sectional image of a blood vessel, inputs the acquired medical image data to the first learning model, , the area data of the target candidate area is specified based on the acquired position data, and the specified area data is weighted differently inside and outside the target object candidate area, and the weighted position information is obtained. Generate. Then, the computer program 57 weights the acquired medical image data based on the generated weight position information, inputs the weighted medical image data (medical image data after mask processing) to the second learning model, The presence or absence of can be output.

次に、図6及び図7に対応する第2学習モデル591の生成方法について説明する。 Next, a method for generating the second learning model 591 corresponding to FIGS. 6 and 7 will be described.

図8は第2学習モデル591の生成方法の第1例を示す図である。第2学習モデル591の生成方法は、例えば、以下のようにすることができる。まず、コンピュータプログラム57は、血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。第2訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得し、取得した位置データに基づいて重み位置情報を生成する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、第2訓練データを用い、重み位置情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データ(マスク処理後の医用画像データ)を訓練用入力データとして第2学習モデルに入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。図6及び図7の場合、対象物は、解離、プロトリュージョン又は血栓である。 FIG. 8 is a diagram showing a first example of a method for generating the second learning model 591. As shown in FIG. A method for generating the second learning model 591 can be, for example, as follows. First, the computer program 57 acquires second training data including medical image data representing cross-sectional images of blood vessels and data representing the presence or absence of objects. The second training data may be collected and stored in the server 200, and acquired from the server 200, for example. The computer program 57 inputs the medical image data included in the second training data to the first learning model 58, acquires the position data of the predetermined part output by the first learning model 58, and based on the acquired position data, Generate weight position information. In the case of FIGS. 6 and 7, the predetermined site is the area of the lumen. Using the second training data, the computer program 57 weights the acquired medical image data based on the weight position information, and uses the weighted medical image data (medical image data after mask processing) as the second training input data. The second learning model 591 is generated so as to output the presence/absence of the object when inputting to the learning model. Specifically, the first 2 The parameters of the learning model 591 may be adjusted. In the case of Figures 6 and 7, the object is a dissection, protrusion or thrombus.

なお、図6において、重み付け処理を省略してもよい。この場合、コンピュータプログラム57は、取得した医用画像データ及び内腔境界付近の領域の領域データ(医用画像データのうち、内腔境界付近の領域内に相当する部分だけを抽出したデータ)を第2学習モデル591の入力層591aの異なるチャネルに入力して、解離、プロトリュージョン又は血栓(対象物)の有無を出力するようにしてもよい。 In addition, in FIG. 6, the weighting process may be omitted. In this case, the computer program 57 converts the obtained medical image data and region data of the region near the lumen boundary (data obtained by extracting only the portion corresponding to the region near the lumen boundary out of the medical image data) to the second Different channels of the input layer 591a of the learning model 591 may be input to output the presence or absence of dissection, protrusion, or thrombus (object).

この場合、第2学習モデル591の生成方法は、例えば、以下のようにすることができる。血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、第1学習モデル58が出力した所定部位の位置データに基づいて特定された候補領域の領域データを特定し、取得した医用画像データ及び領域データを訓練用入力データとして第2学習モデルに入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。図6及び図7の場合、対象物は、解離、プロトリュージョン又は血栓である。 In this case, the method of generating the second learning model 591 can be, for example, as follows. Obtaining second training data including medical image data representing a cross-sectional image of a blood vessel and data representing the presence or absence of an object. The computer program 57 inputs the medical image data included in the second training data to the first learning model 58 and acquires the position data of the predetermined part output by the first learning model 58 . In the case of FIGS. 6 and 7, the predetermined site is the area of the lumen. The computer program 57 identifies region data of the candidate region identified based on the position data of the predetermined part output by the first learning model 58, and uses the obtained medical image data and region data as training input data for second learning. A second learning model 591 is generated to output the presence or absence of an object when input to the model. Specifically, the first 2 The parameters of the learning model 591 may be adjusted. In the case of Figures 6 and 7, the object is a dissection, protrusion or thrombus.

図9は重み位置情報の入力処理の第2例を示す図である。第2例では、第2学習モデル591に医用画像データを入力し、第2学習モデル591による畳み込み処理の結果得られる特徴マップに対して、マスク処理を行い、マスク処理後の特徴マップを用いて、当該畳み込み処理の後段の処理を行う。具体的には、重み位置情報のサイズを特徴マップと同じサイズに変換し、候補領域内(境界を含む)の重み付けが1、候補領域外の重み付けが0の場合、マスク処理後の特徴マップは、候補領域内に対応する画素以外の画素の値が0となる。図6の例では、候補領域が内腔境界付近の領域であるので、第2学習モデル591は、畳み込み処理によって得られた特徴マップのうち、内腔境界付近の領域に対応する特徴マップの値を強調することができる。解離、プロトリュージョン又は血栓は、内腔の表層にのみ生じる病変であるので、内腔境界付近の領域を強調することにより、病変の検出精度を向上させることができる。なお、複数の畳み込み層のうち、いずれの畳み込み層の特徴マップを用いるかは適宜選定すればよい。 FIG. 9 is a diagram showing a second example of the weight position information input process. In the second example, medical image data is input to the second learning model 591, mask processing is performed on the feature map obtained as a result of convolution processing by the second learning model 591, and the feature map after mask processing is used. , the subsequent stage of the convolution processing is performed. Specifically, if the size of the weight position information is converted to the same size as the feature map, and the weighting within the candidate region (including the boundary) is 1 and the weighting outside the candidate region is 0, the feature map after masking is , the value of the pixels other than the corresponding pixels in the candidate area becomes zero. In the example of FIG. 6, since the candidate region is the region near the lumen boundary, the second learning model 591 calculates the value of the feature map corresponding to the region near the lumen boundary among the feature maps obtained by the convolution process. can be emphasized. Since a dissection, protrusion, or thrombus is a lesion that occurs only in the superficial layer of the lumen, enhancing the region near the lumen boundary can improve the detection accuracy of the lesion. It should be noted that the feature map of which convolutional layer is to be used may be appropriately selected from among the plurality of convolutional layers.

次に、図6及び図9に対応する第2学習モデル591の生成方法について説明する。 Next, a method for generating the second learning model 591 corresponding to FIGS. 6 and 9 will be described.

図10は第2学習モデル591の生成方法の第2例を示す図である。第2学習モデル591の生成方法は、例えば、以下のようにすることができる。まず、コンピュータプログラム57は、血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。第2訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得し、取得した位置データに基づいて重み位置情報を生成する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、重み位置情報に基づいて、畳み込み処理後の特徴マップを重み付けする。コンピュータプログラム57は、取得した医用画像データを訓練用入力データとして第2学習モデル591に入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。ここで、対象物は、解離、プロトリュージョン又は血栓である。 FIG. 10 is a diagram showing a second example of the method of generating the second learning model 591. As shown in FIG. A method for generating the second learning model 591 can be, for example, as follows. First, the computer program 57 acquires second training data including medical image data representing cross-sectional images of blood vessels and data representing the presence or absence of objects. The second training data may be collected and stored in the server 200, and acquired from the server 200, for example. The computer program 57 inputs the medical image data included in the second training data to the first learning model 58, acquires the position data of the predetermined part output by the first learning model 58, and based on the acquired position data, Generate weight position information. In the case of FIGS. 6 and 7, the predetermined site is the area of the lumen. The computer program 57 weights the convolution-processed feature map based on the weight position information. When the acquired medical image data is input to the second learning model 591 as training input data, the computer program 57 generates the second learning model 591 so as to output the presence or absence of the object. Specifically, the first 2 The parameters of the learning model 591 may be adjusted. Here, the object is dissection, protrusion or thrombus.

図11は情報処理装置50による対象物の有無の検出の第2例を示す図である。コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデル582に入力する。第1学習モデル582は、図4で例示したように、内腔の領域及び血管の領域それぞれの位置データを出力する。コンピュータプログラム57は、内腔の領域及び血管の領域それぞれの位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔境界付近から血管境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔境界付近から血管境界付近までの領域内に相当する部分だけを抽出したデータとすることができる。コンピュータプログラム57は、領域データに対して、内腔境界付近から血管境界付近までの領域内外で異なる重み付けをして重み位置情報(重み付け情報)を生成する。重み付け処理は、例えば、内腔境界付近から血管境界付近までの領域(対象物候補領域)内(境界を含む)のデータを1とし、内腔境界付近から血管境界付近までの領域外のデータを0とする。なお、内腔境界付近から血管境界付近までの領域外において、重み付けを、血管境界から遠ざかるに応じて1から徐々に0に近づけるように、0~1の範囲の数値を用いてもよい。 FIG. 11 is a diagram showing a second example of detection of the presence or absence of an object by the information processing device 50. As shown in FIG. The computer program 57 acquires medical image data representing a cross-sectional image of a blood vessel (lumen organ) and inputs the acquired medical image data to the first learning model 582 . The first learning model 582 outputs position data for each of the lumen region and the blood vessel region, as illustrated in FIG. The computer program 57 identifies the area data of the object candidate area based on the position data of the lumen area and the blood vessel area. Here, the object candidate area can be an area from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary. The region data can be, for example, data obtained by extracting only the portion corresponding to the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary from the medical image data. The computer program 57 generates weight position information (weighting information) by giving different weights to the area data inside and outside the area from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary. In the weighting process, for example, the data within the region (object candidate region) from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary (including the boundary) is set to 1, and the data outside the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary is set to 1. 0. It should be noted that a numerical value in the range of 0 to 1 may be used so as to gradually approach 0 from 1 as the distance from the vascular boundary increases outside the region from the vicinity of the lumen boundary to the vicinity of the vascular boundary.

コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、石灰化又は減衰性プラーク(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。 The computer program 57 inputs the acquired medical image data and weight position information (weighting information) to the second learning model 591 . A second learning model 591 can output the presence or absence of calcified or attenuating plaque (object). The process of inputting the weight position information to the second learning model 591 is the same as in the case of FIG. 7 or 9, so the description is omitted.

図11の例は、内腔境界付近から血管境界付近までの領域であるので、第2学習モデル591は、医用画像全体のうち、内腔境界付近から血管境界付近までの領域に限定して、対象物である石灰化又は減衰性プラークの有無を検出することができる。石灰化又は減衰性プラークは、内腔の表層から血管までに生じる病変であるので、内腔境界付近から血管境界付近までの領域に限定して対象物の有無を検出することにより、病変の検出精度を向上させることができる。 Since the example in FIG. 11 is the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary, the second learning model 591 limits the entire medical image to the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary, The presence or absence of calcified or attenuating plaque of interest can be detected. Calcified or attenuated plaque is a lesion that occurs from the surface layer of the lumen to the blood vessel. Accuracy can be improved.

また、第2学習モデル591は、畳み込み処理によって得られた特徴マップのうち、内腔境界付近から血管境界付近までの領域に対応する特徴マップの値を強調することができる。石灰化又は減衰性プラークは、内腔の表層から血管までに生じる病変であるので、内腔境界付近から血管境界付近までの領域を強調することにより、病変の検出精度を向上させることができる。 Also, the second learning model 591 can emphasize the value of the feature map corresponding to the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary among the feature maps obtained by the convolution processing. Calcified or attenuated plaque is a lesion that develops from the superficial layer of the lumen to the blood vessel, so by emphasizing the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary, the lesion detection accuracy can be improved.

図12は情報処理装置50による対象物の有無の検出の第3例を示す図である。第1学習モデル581、図11の場合と同様である。コンピュータプログラム57は、内腔の領域及び血管の領域それぞれの位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔の内側から血管境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔の内側から血管境界付近までの領域に相当する部分だけを抽出したデータとすることができる。重付け処理、重み位置情報は、図11の場合と同様であるので、説明を省略する。コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、ステント(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。 FIG. 12 is a diagram showing a third example of detection of the presence or absence of an object by the information processing device 50. In FIG. The first learning model 581 is the same as in FIG. The computer program 57 identifies the area data of the object candidate area based on the position data of the lumen area and the blood vessel area. Here, the object candidate area can be an area from the inside of the lumen to the vicinity of the blood vessel boundary. The region data can be, for example, data obtained by extracting only the portion corresponding to the region from the inside of the lumen to the vicinity of the blood vessel boundary out of the medical image data. The weighting process and weighting position information are the same as in the case of FIG. 11, so description thereof will be omitted. The computer program 57 inputs the acquired medical image data and weight position information (weighting information) to the second learning model 591 . The second learning model 591 can output the presence or absence of a stent (object). The process of inputting the weight position information to the second learning model 591 is the same as in the case of FIG. 7 or 9, so the description is omitted.

ステントは、内腔の内側から血管境界までに生じる構造物であるので、内腔の内側から血管境界付近までの領域に限定、あるいは当該領域を強調して対象物の有無を検出することにより、構造物の検出精度を向上させることができる。 Since the stent is a structure that extends from the inside of the lumen to the boundary of the blood vessel, the presence or absence of the target object can be detected by limiting the region from the inside of the lumen to the vicinity of the boundary of the blood vessel, or emphasizing the region. The structure detection accuracy can be improved.

図13は情報処理装置50による対象物の有無の検出の第4例を示す図である。第1学習モデル581は、図6の場合と同様である。コンピュータプログラム57は、内腔の領域の位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔の内側から内腔境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔の内側から内腔境界付近までの領域に相当する部分だけを抽出したデータとすることができる。重付け処理、重み位置情報は、図11の場合と同様であるので、説明を省略する。コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、ガイドワイヤ(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。 FIG. 13 is a diagram showing a fourth example of detection of the presence or absence of an object by the information processing device 50. As shown in FIG. The first learning model 581 is the same as in FIG. The computer program 57 identifies area data of the candidate object area based on the position data of the area of the lumen. Here, the candidate object area can be an area from the inside of the lumen to the vicinity of the lumen boundary. The region data can be, for example, data obtained by extracting only a portion corresponding to the region from the inside of the lumen to the vicinity of the boundary of the lumen out of the medical image data. The weighting process and weighting position information are the same as in the case of FIG. 11, so description thereof will be omitted. The computer program 57 inputs the acquired medical image data and weight position information (weighting information) to the second learning model 591 . The second learning model 591 can output the presence or absence of the guidewire (object). The process of inputting the weight position information to the second learning model 591 is the same as in the case of FIG. 7 or 9, so the description is omitted.

ガイドワイヤは、内腔の内側から内腔境界までに生じる構造物であるので、内腔の内側から内腔境界までの領域に限定、あるいは当該領域を強調して対象物の有無を検出することにより、構造物の検出精度を向上させることができる。 Since the guidewire is a structure that extends from the inside of the lumen to the boundary of the lumen, it is possible to detect the presence or absence of an object by limiting the region from the inside of the lumen to the boundary of the lumen, or emphasizing that region. Therefore, the detection accuracy of the structure can be improved.

上述のように、コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、血管の断面画像を示す医用画像データを入力した場合に、血管の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して所定部位の位置データを取得し、血管の断面画像を示す医用画像データ及び所定部位の位置データを入力した場合に、血管内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び所定部位の位置データを入力して、対象物の有無を出力する処理をコンピュータに実行させることができる。 As described above, the computer program 57 acquires medical image data representing a cross-sectional image of a blood vessel (a hollow organ), and when inputting medical image data representing a cross-sectional image of the blood vessel, the computer program 57 obtains position data of a predetermined portion of the blood vessel. The obtained medical image data is input to the first learning model that outputs the position data of the predetermined part, and the medical image data showing the cross-sectional image of the blood vessel and the position data of the predetermined part are input. The acquired medical image data and the position data of the predetermined part can be input to the second learning model that outputs the presence or absence of the object, and the computer can be caused to execute processing for outputting the presence or absence of the object.

より具体的には、コンピュータプログラム57は、取得した所定部位の位置データに基づいて、対象物候補領域の領域データを特定し、血管の断面画像を示す医用画像データ及び対象物候補領域の領域データを入力した場合に、血管内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び特定した対象物候補領域の領域データを入力して、対象物の有無を出力する処理をコンピュータに実行させることができる。 More specifically, the computer program 57 identifies the area data of the object candidate area based on the acquired position data of the predetermined part, and generates the medical image data showing the cross-sectional image of the blood vessel and the area data of the object candidate area. is input, the acquired medical image data and the region data of the specified target candidate region are input to the second learning model that outputs the presence or absence of the target object in the blood vessel, and the processing of outputting the presence or absence of the target object. can be run on a computer.

この場合、領域データに対して、前象物候補領域の内外で異なる重み付けをして重み位置情報を生成し、生成した重み付け情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データを第2学習モデルに入力し、対象物の有無を出力するようにしてもよい。 In this case, the region data is weighted differently inside and outside the foreground object candidate region to generate weighted position information, the acquired medical image data is weighted based on the generated weighting information, and the weighted medical image is obtained. The data may be input to the second learning model, and the presence or absence of the object may be output.

また、領域データに対して、前象物候補領域の内外で異なる重み付けをして重み位置情報を生成し、生成した重み付け情報に基づいて、取得した医用画像データに対する畳み込み処理後の特徴マップを重み付けし、重み付けした特徴マップを用いて対象物の有無を出力するようにしてもよい。 In addition, the region data is weighted differently inside and outside the foreground object candidate region to generate weighted position information, and based on the generated weighting information, the feature map after convolution processing for the acquired medical image data is weighted. Then, the presence or absence of the object may be output using the weighted feature map.

次に、情報処理装置50の処理手順について説明する。 Next, a processing procedure of the information processing device 50 will be described.

図14は情報処理装置50による対象物の検出処理の第1例を示す図である。図14の処理は、図7の場合に対応する。以下では、便宜上、処理の主体を制御部51として説明する。制御部51は、複数の医用画像データを取得する(S11)。ここで、複数の医用画像は、1回のプルバック操作で得られた画像とすることができる。制御部51は、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得する(S12)。 FIG. 14 is a diagram showing a first example of object detection processing by the information processing device 50 . The processing of FIG. 14 corresponds to the case of FIG. In the following description, for the sake of convenience, the main body of processing is assumed to be the control unit 51 . The control unit 51 acquires a plurality of pieces of medical image data (S11). Here, the plurality of medical images can be images obtained by one pullback operation. The control unit 51 inputs the acquired medical image data to the first learning model and acquires the position data of the predetermined part (S12).

制御部51は、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S13)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S14)。制御部51は、重み位置情報を用いて、取得した医用画像データをマスク処理し(S15)、マスク処理後の医用画像データを第2学習モデルに入力して対象物の有無を出力し(S16)、処理を終了する。 The control unit 51 identifies an object candidate area (candidate area) based on the acquired position data (S13), and generates weighted position information based on the area data of the object candidate area (S14). The control unit 51 performs mask processing on the obtained medical image data using the weighted position information (S15), inputs the medical image data after the mask processing to the second learning model, and outputs the presence or absence of the target object (S16 ) and terminate the process.

図15は情報処理装置50による対象物の検出処理の第2例を示す図である。図15の処理は、図9の場合に対応する。制御部51は、複数の医用画像データを取得する(S21)。ここで、複数の医用画像は、1回のプルバック操作で得られた画像とすることができる。制御部51は、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得する(S22)。 FIG. 15 is a diagram showing a second example of object detection processing by the information processing device 50 . The processing of FIG. 15 corresponds to the case of FIG. The control unit 51 acquires a plurality of pieces of medical image data (S21). Here, the plurality of medical images can be images obtained by one pullback operation. The control unit 51 inputs the acquired medical image data to the first learning model and acquires the position data of the predetermined part (S22).

制御部51は、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S23)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S24)。制御部51は、取得した医用画像データを第2学習モデルに入力して特徴マップを抽出し(S25)、重み位置情報を用いて、抽出した特徴マップをマスク処理する(S26)。制御部51は、マスク処理した特徴マップを第2学習モデルに入力して対象物の有無を出力し(S27)、処理を終了する。 The control unit 51 identifies an object candidate area (candidate area) based on the acquired position data (S23), and generates weighted position information based on the area data of the object candidate area (S24). The control unit 51 inputs the acquired medical image data to the second learning model, extracts a feature map (S25), and uses the weight position information to mask the extracted feature map (S26). The control unit 51 inputs the masked feature map to the second learning model, outputs the presence or absence of the object (S27), and ends the process.

図16は情報処理装置50による第1学習モデル58の生成処理の一例を示す図である。制御部51は、医用画像データ及び所定部位の位置データを含む第1訓練データを取得する(S31)。第1訓練データは、複数の医用画像及び当該医用画像での所定部位の位置に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第1学習モデル58のパラメータの初期値を設定する(S32)。 FIG. 16 is a diagram showing an example of processing for generating the first learning model 58 by the information processing device 50. As shown in FIG. The control unit 51 acquires first training data including medical image data and position data of a predetermined part (S31). The first training data is data relating to a plurality of medical images and the positions of predetermined parts in the medical images, and can include the amount of data necessary for machine learning. The control unit 51 sets the initial values of the parameters of the first learning model 58 (S32).

制御部51は、第1訓練データに基づいて、医用画像データを第1学習モデル58に入力する(S33)。制御部51は、第1学習モデル58が出力する所定部位の位置データと、第1訓練データに含まれる所定部位の位置データとに基づく損失関数の値が最小になるようにパラメータを調整する(S34)。 The control unit 51 inputs medical image data to the first learning model 58 based on the first training data (S33). The control unit 51 adjusts the parameters so that the value of the loss function based on the position data of the predetermined part output by the first learning model 58 and the position data of the predetermined part included in the first training data is minimized ( S34).

制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S35)、損失関数の値が許容範囲内でない場合(S35でNO)、ステップS33以降の処理を続ける。損失関数の値が許容範囲内である場合(S35でYES)、制御部51は、生成した第1学習モデル58を記憶部56に記憶し(S36)、処理を終了する。 The control unit 51 determines whether the value of the loss function is within the allowable range (S35), and if the value of the loss function is not within the allowable range (NO in S35), continues the processing from step S33 onward. If the value of the loss function is within the allowable range (YES in S35), the control unit 51 stores the generated first learning model 58 in the storage unit 56 (S36), and terminates the process.

図17は情報処理装置50による第2学習モデル59の生成処理の第1例を示す図である。図17の処理は、図8の場合に対応する。制御部51は、医用画像データ及び対象物の有無を示すデータを含む第2訓練データを取得する(S41)。第2訓練データは、複数の医用画像及び当該医用画像での対象物の有無に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第2学習モデル59のパラメータの初期値を設定する(S42)。 FIG. 17 is a diagram showing a first example of processing for generating the second learning model 59 by the information processing device 50. As shown in FIG. The processing of FIG. 17 corresponds to the case of FIG. The control unit 51 acquires second training data including medical image data and data indicating the presence or absence of an object (S41). The second training data is a plurality of medical images and data regarding the presence or absence of objects in the medical images, and can include the amount of data necessary for machine learning. The control unit 51 sets the initial values of the parameters of the second learning model 59 (S42).

制御部51は、医用画像データを第1学習モデル58に入力して所定部位の位置データを取得し(S43)、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S44)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S45)。制御部51は、重み位置情報を用いて、取得した医用画像データをマスク処理し(S46)、マスク処理後の医用画像データを第2学習モデルに入力する(S47)。 The control unit 51 inputs the medical image data to the first learning model 58, acquires the position data of the predetermined part (S43), and specifies the object candidate region (candidate region) based on the acquired position data (S44). ), the weighted position information is generated based on the area data of the object candidate area (S45). The control unit 51 uses the weight position information to mask the obtained medical image data (S46), and inputs the masked medical image data to the second learning model (S47).

制御部51は、第2学習モデル59が出力する対象物の有無を示すデータと、第2訓練データに含まれる対象物の有無を示すデータとに基づく損失関数の値が最小になるようにパラメータを調整する(S48)。制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S49)、損失関数の値が許容範囲内でない場合(S49でNO)、ステップS47以降の処理を続ける。損失関数の値が許容範囲内である場合(S49でYES)、制御部51は、生成した第2学習モデル59を記憶部56に記憶し(S50)、処理を終了する。 The control unit 51 sets parameters so that the value of the loss function based on the data indicating the presence or absence of the object output by the second learning model 59 and the data indicating the presence or absence of the object included in the second training data is minimized. is adjusted (S48). The control unit 51 determines whether or not the value of the loss function is within the allowable range (S49), and if the value of the loss function is not within the allowable range (NO in S49), continues the processing from step S47. If the value of the loss function is within the allowable range (YES in S49), the control unit 51 stores the generated second learning model 59 in the storage unit 56 (S50), and terminates the process.

図18は情報処理装置50による第2学習モデル59の生成処理の第2例を示す図である。図18の処理は、図10の場合に対応する。制御部51は、医用画像データ及び対象物の有無を示すデータを含む第2訓練データを取得する(S61)。第2訓練データは、複数の医用画像及び当該医用画像での対象物の有無に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第2学習モデル59のパラメータの初期値を設定する(S62)。 FIG. 18 is a diagram showing a second example of processing for generating the second learning model 59 by the information processing device 50. As shown in FIG. The processing of FIG. 18 corresponds to the case of FIG. The control unit 51 acquires second training data including medical image data and data indicating the presence or absence of an object (S61). The second training data is a plurality of medical images and data regarding the presence or absence of objects in the medical images, and can include the amount of data necessary for machine learning. The control unit 51 sets the initial values of the parameters of the second learning model 59 (S62).

制御部51は、医用画像データを第1学習モデル58に入力して所定部位の位置データを取得し(S63)、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S64)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S65)。制御部51は、医用画像データを第2学習モデル59に入力して、畳み込み処理後の特徴マップを抽出する(S66)。 The control unit 51 inputs the medical image data to the first learning model 58, acquires the position data of the predetermined part (S63), and specifies the object candidate region (candidate region) based on the acquired position data (S64). ), the weighted position information is generated based on the area data of the object candidate area (S65). The control unit 51 inputs the medical image data to the second learning model 59 and extracts the feature map after convolution processing (S66).

制御部51は、重み位置情報を用いて、抽出した特徴マップをマスク処理し(S67)、第2学習モデル59が出力する対象物の有無を示すデータと、第2訓練データに含まれる対象物の有無を示すデータとに基づく損失関数の値が最小になるようにパラメータを調整する(S68)。 Using the weight position information, the control unit 51 performs mask processing on the extracted feature map (S67). The parameters are adjusted so that the value of the loss function based on the data indicating the presence or absence of is minimized (S68).

制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S69)、損失関数の値が許容範囲内でない場合(S69でNO)、ステップS67以降の処理を続ける。損失関数の値が許容範囲内である場合(S69でYES)、制御部51は、生成した第2学習モデル59を記憶部56に記憶し(S70)、処理を終了する。 The control unit 51 determines whether the value of the loss function is within the allowable range (S69), and if the value of the loss function is not within the allowable range (NO in S69), continues the processing from step S67. If the value of the loss function is within the allowable range (YES in S69), the control unit 51 stores the generated second learning model 59 in the storage unit 56 (S70), and ends the process.

上述のように、コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データ、及び当該血管の所定部位の位置データを含む第1訓練データを取得し、取得した第1訓練データに基づいて、血管の断面画像を示す医用画像データを入力した場合に、当該血管の所定部位の位置データを出力するように第1学習モデルを生成し、血管の断面画像を示す医用画像データ、及び当該血管の対象物の有無を示すデータを含む第2訓練データを取得し、取得した第2訓練データに基づいて、第1学習モデルに医用画像データを入力して所定部位の位置データを取得し、第2訓練データに基づいて、血管の断面画像を示す医用画像データ、及び取得した所定部位の位置データを入力した場合に、当該血管内の対象物の有無を出力するように第2学習モデルを生成する処理をコンピュータに実行させることができる。 As described above, the computer program 57 acquires first training data including medical image data representing a cross-sectional image of a blood vessel (lumen organ) and position data of a predetermined portion of the blood vessel, and acquires the acquired first training data. medical image data representing a cross-sectional image of a blood vessel, generating a first learning model so as to output position data of a predetermined portion of the blood vessel when medical image data representing a cross-sectional image of the blood vessel is input based on; and obtaining second training data including data indicating the presence or absence of the target object of the blood vessel, and based on the obtained second training data, inputting medical image data to the first learning model to obtain position data of the predetermined part. Then, when medical image data representing a cross-sectional image of a blood vessel and acquired position data of a predetermined part are input based on the second training data, second learning is performed to output the presence or absence of an object in the blood vessel. A computer can be caused to perform the process of generating the model.

本実施の形態において、第2学習モデル59として、病変としての解離、プロトリュージョン又は血栓の有無を出力する学習モデル、病変としての石灰化又は減衰性プラークの有無を出力する学習モデル、構造物としてのステントの有無を出力する学習モデル、及び構造物としてのガイドワイヤの有無を出力する学習モデルを、それぞれ個別に設ける構成でもよく、いくつかの学習モデルを1つの第2学習モデル59に統合してもよく、全ての学習モデルを1つの第2学習モデル59として構成してもよい。 In the present embodiment, as the second learning model 59, a learning model that outputs the presence or absence of dissection, protrusion, or thrombus as a lesion, a learning model that outputs the presence or absence of calcification or attenuating plaque as a lesion, a structure A learning model that outputs the presence or absence of a stent as a structure and a learning model that outputs the presence or absence of a guidewire as a structure may be provided separately, and several learning models are integrated into one second learning model 59. Alternatively, all learning models may be configured as one second learning model 59 .

本実施の形態において、第1学習モデル58として、第1学習モデル581、582を個別に設けてもよく、第1学習モデル582で第1学習モデル581も代用してもよい。 In the present embodiment, the first learning models 581 and 582 may be separately provided as the first learning model 58, and the first learning model 582 may be substituted for the first learning model 581 as well.

上述の実施の形態では、情報処理装置50が、対象物の有無の検出、及び学習モデルの生成を行う構成であるが、これに限定されるものではない。例えば、情報処理装置50をクライアント装置とし、学習モデルの生成処理を外部のサーバで行うようにして、当該サーバから学習モデルを取得するようにしてもよい。また、対象物の有無の検出、及び学習モデルの生成を外部のサーバで行うようにして、情報処理装置は、対象物の有無の検出結果をサーバから取得するようにしてもよい。 In the above-described embodiment, the information processing device 50 is configured to detect the presence or absence of a target object and generate a learning model, but the present invention is not limited to this. For example, the information processing apparatus 50 may be a client apparatus, the learning model generation process may be performed by an external server, and the learning model may be acquired from the server. Alternatively, the detection of the presence or absence of the target object and the generation of the learning model may be performed by an external server, and the information processing apparatus may acquire the detection result of the presence or absence of the target object from the server.

1 通信ネットワーク
10 カテーテル
20 MDU
30 表示装置
40 入力装置
50 情報処理装置
51 制御部
52 通信部
53 インタフェース部
54 記録媒体読取部
541 記録媒体
55 メモリ
56 記憶部
57 コンピュータプログラム
58、581、582 第1学習モデル
581a、582a 入力層
581b、582b 中間層
581c、582c 出力層
59、591 第2学習モデル
591a 入力層
591b 中間層
591c 出力層
1 communication network 10 catheter 20 MDU
30 display device 40 input device 50 information processing device 51 control unit 52 communication unit 53 interface unit 54 recording medium reading unit 541 recording medium 55 memory 56 storage unit 57 computer program 58, 581, 582 first learning model 581a, 582a input layer 581b , 582b intermediate layer 581c, 582c output layer 59, 591 second learning model 591a input layer 591b intermediate layer 591c output layer

Claims (12)

コンピュータに、
管腔器官の断面画像を示す医用画像データを取得し、
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、
処理を実行させるコンピュータプログラム。
to the computer,
acquiring medical image data showing a cross-sectional image of a hollow organ;
When medical image data representing a cross-sectional image of a hollow organ is input, the acquired medical image data is input to a first learning model that outputs position data of a predetermined portion of the hollow organ to determine the position of the predetermined portion. get the data,
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model that outputs the presence or absence of an object in the hollow organ is provided with the acquired medical image data. inputting the image data and the obtained position data of the predetermined part, and outputting the presence or absence of the object;
A computer program that causes a process to be performed.
コンピュータに、
取得した前記所定部位の位置データに基づいて、対象物候補領域の領域データを特定し、
管腔器官の断面画像を示す医用画像データ及び対象物候補領域の領域データを入力した場合に、前記管腔器官内の対象物の有無を出力する前記第2学習モデルに、取得した医用画像データ及び特定した前記対象物候補領域の領域データを入力して、対象物の有無を出力する、
処理を実行させる請求項1に記載のコンピュータプログラム。
to the computer,
identifying region data of a target object candidate region based on the acquired position data of the predetermined portion;
Acquired medical image data in the second learning model for outputting presence/absence of an object in the hollow organ when medical image data representing a cross-sectional image of the hollow organ and region data of the object candidate region are input. and inputting the region data of the identified object candidate region and outputting the presence or absence of the object;
2. The computer program according to claim 1, causing a process to be executed.
コンピュータに、
前記領域データに対して、前記対象物候補領域の内外で異なる重み付けをして重み付け情報を生成する、
処理を実行させる請求項2に記載のコンピュータプログラム。
to the computer,
weighting the region data differently inside and outside the object candidate region to generate weighting information;
3. The computer program according to claim 2, causing a process to be executed.
コンピュータに、
生成した重み付け情報に基づいて、取得した医用画像データを重み付けし、
重み付けした医用画像データを前記第2学習モデルに入力し、
対象物の有無を出力する、
処理を実行させる請求項3に記載のコンピュータプログラム。
to the computer,
weighting the acquired medical image data based on the generated weighting information;
inputting the weighted medical image data into the second learning model;
output the presence or absence of an object,
4. The computer program according to claim 3, causing a process to be executed.
コンピュータに、
前記第2学習モデルに畳み込み処理を行わせ、
生成した重み付け情報に基づいて、前記畳み込み処理後の特徴マップを重み付けし、
重み付けした特徴マップを用いて対象物の有無を出力する、
処理を実行させる請求項3に記載のコンピュータプログラム。
to the computer,
causing the second learning model to perform convolution processing;
Weighting the feature map after the convolution process based on the generated weighting information,
output presence/absence of objects using weighted feature maps;
4. The computer program according to claim 3, causing a process to be executed.
前記所定部位は、内腔の領域を含み、
前記対象物は、解離、プロトリュージョン及び血栓の少なくとも1つを含む、
請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
The predetermined site includes a lumen area,
the object includes at least one of dissection, protrusion, and thrombus;
Computer program according to any one of claims 1 to 5.
前記所定部位は、内腔及び血管それぞれの領域を含み、
前記対象物は、石灰化及び減衰性プラーク少なくとも1つを含む、
請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。
The predetermined site includes regions of lumens and blood vessels,
the object comprises at least one of calcified and attenuating plaque;
Computer program according to any one of claims 1 to 6.
前記所定部位は、内腔の領域を含み、
前記対象物は、ガイドワイヤを含む、
請求項1から請求項7のいずれか一項に記載のコンピュータプログラム。
The predetermined site includes a lumen area,
the object comprises a guidewire;
Computer program according to any one of claims 1 to 7.
前記所定部位は、内腔及び血管それぞれの領域を含み、
前記対象物は、ステントを含む、
請求項1から請求項8のいずれか一項に記載のコンピュータプログラム。
The predetermined site includes regions of lumens and blood vessels,
the object comprises a stent;
Computer program according to any one of claims 1 to 8.
管腔器官の断面画像を示す医用画像データを取得し、
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、
情報処理方法。
acquiring medical image data showing a cross-sectional image of a hollow organ;
When medical image data representing a cross-sectional image of a hollow organ is input, the acquired medical image data is input to a first learning model that outputs position data of a predetermined portion of the hollow organ to determine the position of the predetermined portion. get the data,
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model that outputs the presence or absence of an object in the hollow organ is provided with the acquired medical image data. inputting the image data and the obtained position data of the predetermined part, and outputting the presence or absence of the object;
Information processing methods.
管腔器官の断面画像を示す医用画像データを取得する第1取得部と、
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、前記第1取得部で取得した医用画像データを入力して前記所定部位の位置データを取得する第2取得部と、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、前記第1取得部で取得した医用画像データ及び前記第2取得部で取得した前記所定部位の位置データを入力して、対象物の有無を出力する出力部と
を備える情報処理装置。
a first acquisition unit that acquires medical image data representing a cross-sectional image of a hollow organ;
inputting the medical image data obtained by the first obtaining unit into a first learning model for outputting position data of a predetermined portion of the hollow organ when medical image data representing a cross-sectional image of the hollow organ is inputted; a second acquisition unit that acquires position data of the predetermined part by
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model for outputting the presence or absence of an object in the hollow organ is provided with the first and an output unit that inputs the medical image data acquired by the acquisition unit and the position data of the predetermined part acquired by the second acquisition unit, and outputs the presence or absence of an object.
管腔器官の断面画像を示す医用画像データ、及び前記管腔器官の所定部位の位置データを含む第1訓練データを取得し、
前記第1訓練データに基づいて、管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力するように第1学習モデルを生成し、
管腔器官の断面画像を示す医用画像データ、及び前記管腔器官の対象物の有無を示すデータを含む第2訓練データを取得し、
前記第2訓練データに基づいて、前記第1学習モデルに医用画像データを入力して所定部位の位置データを取得し、
前記第2訓練データに基づいて、管腔器官の断面画像を示す医用画像データ、及び取得した前記所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力するように第2学習モデルを生成する、
学習モデル生成方法。
acquiring first training data including medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ;
generating a first learning model based on the first training data so as to output position data of a predetermined portion of the hollow organ when medical image data representing a cross-sectional image of the hollow organ is input;
acquiring second training data including medical image data representing a cross-sectional image of a hollow organ and data representing the presence or absence of an object in the hollow organ;
inputting medical image data into the first learning model based on the second training data to acquire position data of a predetermined part;
Based on the second training data, the presence or absence of an object in the hollow organ is output when medical image data representing a cross-sectional image of the hollow organ and the acquired position data of the predetermined site are input. generate a second learning model at
Learning model generation method.
JP2021160018A 2021-09-29 2021-09-29 Computer program, information processing device, information processing method, and learning model generation method Pending JP2023049952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021160018A JP2023049952A (en) 2021-09-29 2021-09-29 Computer program, information processing device, information processing method, and learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021160018A JP2023049952A (en) 2021-09-29 2021-09-29 Computer program, information processing device, information processing method, and learning model generation method

Publications (1)

Publication Number Publication Date
JP2023049952A true JP2023049952A (en) 2023-04-10

Family

ID=85802183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021160018A Pending JP2023049952A (en) 2021-09-29 2021-09-29 Computer program, information processing device, information processing method, and learning model generation method

Country Status (1)

Country Link
JP (1) JP2023049952A (en)

Similar Documents

Publication Publication Date Title
JP7375102B2 (en) How an intravascular imaging system operates
JP5944917B2 (en) Computer readable medium for detecting and displaying body lumen bifurcation and system including the same
CN108348171B (en) Method and system for intravascular imaging and detection of guide catheter
CN114585297A (en) Artificial intelligence registration and marker detection including machine learning and using results thereof
JP2018519018A (en) Intravascular imaging system interface and stent detection method
JP2006510413A (en) Ultrasonic Doppler system to determine arterial wall motion
US11122981B2 (en) Arterial wall characterization in optical coherence tomography imaging
CN114650778A (en) Diagnosis support device, diagnosis support system, and diagnosis support method
Pociask et al. Fully automated lumen segmentation method for intracoronary optical coherence tomography
CN116030968A (en) Blood flow reserve score prediction method and device based on intravascular ultrasound image
WO2021199968A1 (en) Computer program, information processing method, information processing device, and method for generating model
US20240013385A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
WO2023054467A1 (en) Model generation method, learning model, computer program, information processing method, and information processing device
JP2023049952A (en) Computer program, information processing device, information processing method, and learning model generation method
US20230133103A1 (en) Learning model generation method, image processing apparatus, program, and training data generation method
WO2022071265A1 (en) Program, information processing device, and information processing method
WO2023054442A1 (en) Computer program, information processing device, and information processing method
WO2023189260A1 (en) Computer program, information processing device, and information processing method
JP2023051176A (en) Computer program, information processing device and information processing method
WO2024071121A1 (en) Computer program, information processing method, and information processing device
WO2021199961A1 (en) Computer program, information processing method, and information processing device
WO2024071322A1 (en) Information processing method, learning model generation method, computer program, and information processing device
WO2021199962A1 (en) Program, information processing method, and information processing device
WO2023100838A1 (en) Computer program, information processing device, information processing method, and training model generation method
WO2024071321A1 (en) Computer program, information processing method, and information processing device