JP2023049952A - Computer program, information processing device, information processing method, and learning model generation method - Google Patents
Computer program, information processing device, information processing method, and learning model generation method Download PDFInfo
- Publication number
- JP2023049952A JP2023049952A JP2021160018A JP2021160018A JP2023049952A JP 2023049952 A JP2023049952 A JP 2023049952A JP 2021160018 A JP2021160018 A JP 2021160018A JP 2021160018 A JP2021160018 A JP 2021160018A JP 2023049952 A JP2023049952 A JP 2023049952A
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- medical image
- image data
- hollow organ
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法に関する。 The present invention relates to a computer program, an information processing apparatus, an information processing method, and a learning model generation method.
PCI(経皮的冠動脈インターベンション)の手技において、IVUS(Intra Vascular Ultra Sound:血管内超音波)、OCT(Optical Coherence Tomography:光干渉断層撮影)、OFDI(Optical Frequency Domain Imaging:光周波数領域イメージング)などのイメージングモダリティの読影は難易度が高く、読影の標準化のための自動化が検討されている。 In PCI (percutaneous coronary intervention) procedures, IVUS (Intra Vascular Ultra Sound), OCT (Optical Coherence Tomography), OFDI (Optical Frequency Domain Imaging) Interpretation of imaging modalities such as MRI is highly difficult, and automation for standardization of interpretation is being considered.
特許文献1には、血管内にカテーテルを挿入し、カテーテル内に収容されたイメージングコアで得られた信号(血管組織に向けて出射した超音波、及び反射波)に基づいて血管断面画像を生成する画像診断装置が開示されている。
In
しかし、解離や血栓などの合併症につながる病変は識別の難易度が高いため、見逃しの可能性がある。 However, lesions that lead to complications such as dissection and thrombosis are difficult to identify and may be overlooked.
本発明は、斯かる事情に鑑みてなされたものであり、病変の検出精度を向上させることができるコンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a computer program, an information processing apparatus, an information processing method, and a learning model generation method that can improve the detection accuracy of lesions.
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、管腔器官の断面画像を示す医用画像データを取得し、管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、処理を実行させる。 The present application includes a plurality of means for solving the above problems. To give one example, a computer program acquires medical image data representing a cross-sectional image of a hollow organ in a computer, and generates a cross-sectional image of the hollow organ. is input to a first learning model for outputting position data of a predetermined portion of the hollow organ to obtain the position data of the predetermined portion of the lumen; When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, the obtained medical image is input to a second learning model that outputs the presence or absence of an object in the hollow organ. The data and the acquired position data of the predetermined portion are input, and the processing of outputting the presence or absence of the object is executed.
本発明によれば、病変の検出精度を向上させることができる。 According to the present invention, lesion detection accuracy can be improved.
以下、本発明の実施の形態について説明する。図1は本実施の形態の画像診断システム100の構成の一例を示す図である。画像診断システム100は、心臓カテーテル治療(PCI)に用いられる血管内イメージング(画像診断)を行うための装置である。心臓カテーテル治療は、脚の付け根や腕、手首などの血管からカテーテルを差し込んで、冠動脈の狭くなった部分を治療する方法である。血管内イメージングには、血管内超音波検査(IVUS:Intra Vascular Ultra Sound)法、光干渉断層診断(OFDI:Optical Frequency Domain Imaging、OCT:Optical Coherence Tomography)法、の二つの方法がある。IVUSは、超音波の反射を利用して、血管内部を断層画像で読影する。具体的には、先端に超小型センサを搭載した細いカテーテルを冠動脈内に挿入し、病変部まで通した後、センサから発信される超音波で血管内の医用画像を生成することができる。OFDIは、近赤外線を用いて、血管内の状態を高解像度の画像で読影する。具体的には、IVUSと同様に、カテーテルを血管内に挿入し、先端部から近赤外線を照射し、干渉法によって血管の断面を測定し、医用画像を生成する。また、OCTは、近赤外線と光ファイバ技術を応用した血管内画像診断である。本明細書において、医用画像(医用画像データ)は、IVUS、OFDI、又はOCTによって生成されたものを含むが、以下では、主にIVUS法を用いた場合について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. FIG. 1 is a diagram showing an example of the configuration of a
画像診断システム100は、カテーテル10、MDU(Motor Drive Unit)20、表示装置30、入力装置40、及び情報処理装置50を備える。情報処理装置50には、通信ネットワーク1を介してサーバ200が接続されている。
The
カテーテル10は、IVUS法によって血管の超音波断層像を得るための画像診断用カテーテルである。カテーテル10は、血管の超音波断層像を得るための超音波プローブを先端部に有する。超音波プローブは、血管内において超音波を発する超音波振動子、及び血管の生体組織又は医用機器などの構造物で反射された反射波(超音波エコー)を受信する超音波センサを有する。超音波プローブは、血管の周方向に回転しながら、血管の長手方向に進退可能に構成されている。
A
MDU20は、カテーテル10を着脱可能に取り付けることができる駆動装置であり、医療従事者の操作に応じて内蔵モータを駆動して、血管内に挿入されたカテーテル10の動作を制御する。MDU20は、カテーテル10の超音波プローブを先端(遠位)側から基端(近位)側へ移動させながら周方向に回転させることができる(プルバック操作)。超音波プローブは、所定の時間間隔で連続的に血管内を走査し、検出された超音波の反射波データを情報処理装置50へ出力する。
The MDU 20 is a driving device to which the
情報処理装置50は、カテーテル10の超音波プローブから出力された反射波データに基づいて、血管の断層像を含む時系列順の複数の医用画像を生成する(取得する)。超音波プローブは、血管内を先端(遠位)側から基端(近位)側へ移動しながら血管内を走査するため、時系列順の複数の医用画像は、遠位から近位にわたる複数箇所で観測された血管の断層画像となる。
The
表示装置30は、液晶表示パネル、有機EL表示パネル等を備え、情報処理装置50による処理結果を表示することができる。また、表示装置30は、情報処理装置50が生成(取得)した医用画像を表示することができる。
The
入力装置40は、検査を行う際の各種設定値の入力、情報処理装置50の操作等を受け付けるキーボード、マウス等の入力インタフェースである。入力装置40は、表示装置30に設けられたタッチパネル、ソフトキー、ハードキー等であってもよい。
The
サーバ200は、例えば、データサーバであり、医用画像データを蓄積した画像DBを備えてもよい。
The
図2は情報処理装置50の構成の一例を示す図である。情報処理装置50は、コンピュータで構成することができ、情報処理装置50全体を制御する制御部51、通信部52、インタフェース部53、記録媒体読取部54、メモリ55、及び記憶部56を備える。
FIG. 2 is a diagram showing an example of the configuration of the
制御部51は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等が所要数組み込まれて構成されている。また、制御部51は、DSP(Digital Signal Processors)、FPGA(Field-Programmable Gate Arrays)量子プロセッサなどを組み合わせて構成してもよい。制御部51は、第1取得部、第2取得部、及び出力部の機能を有するとともに、後述のコンピュータプログラム57が実現する機能も有する。
The
メモリ55は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の半導体メモリで構成することができる。
The
通信部52は、例えば、通信モジュールを備え、通信ネットワーク1を介してサーバ200との間の通信機能を有する。また、通信部52は、通信ネットワーク1に接続されている外部の装置(不図示)との間の通信機能を備えてもよい。
The
インタフェース部53は、カテーテル10、表示装置30及び入力装置40との間のインタフェース機能を提供する。情報処理装置50(制御部51)は、インタフェース部53を通じて、カテーテル10、表示装置30及び入力装置40との間でデータや情報の送信及び受信を行うことができる。
The
記録媒体読取部54は、例えば、光学ディスクドライブで構成することができ、記録媒体541(例えば、CD-ROM等の光学可読ディスク記憶媒体)に記録されたコンピュータプログラム(プログラム製品)を記録媒体読取部54で読み取って記憶部56に格納することができる。コンピュータプログラム57は、メモリ55に展開されて、制御部51により実行される。なお、コンピュータプログラム57は、通信部52を介して、外部の装置からダウンロードして記憶部56に格納してもよい。
The recording
記憶部56は、例えば、ハードディスク又は半導体メモリ等で構成することができ、所要の情報を記憶することができる。記憶部56は、コンピュータプログラム57の他に、第1学習モデル58、及び第2学習モデル59を記憶することができる。第1学習モデル58、及び第2学習モデル59は、学習前のモデル、学習途中のモデル、又は学習済みモデルを含む。第1学習モデル58及び第2学習モデル59の詳細は後述する。
The
以下では、第1学習モデル58、及び第2学習モデル59について説明し、次に、第1学習モデル58及び第2学習モデル59の両方を用いることにより、管腔器官(例えば、血管)における対象物の有無の検出方法について説明する。
Below, the
第1学習モデル58は、管腔器官の断面画像を示す医用画像データを入力した場合に、当該管腔器官の所定部位の位置データを出力する。所定部位は、例えば、内腔の領域を含む場合と、内腔及び血管それぞれの領域を含む場合とに分けることができる。第1学習モデル58は、医用画像に含まれる所定のオブジェクト(所定部位)を認識するモデルである。第1学習モデル58は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、医用画像に含まれる内腔の領域、血管の領域を認識することができる。以下、内腔の領域を出力する第1学習モデル58を第1学習モデル581とし、内腔及び血管それぞれの領域を出力する第1学習モデル58を第1学習モデル582として説明する。なお、第1学習モデル581、582を纏めて第1学習モデル58で表す。
The
図3は第1学習モデル581の構成の一例を示す図である。第1学習モデル581は、入力層581a、中間層581b、及び出力層581cを備え、例えば、U-Netで構成することができる。中間層581bは、複数のエンコーダ、及び複数のデコーダを備える。入力層581aに入力された医用画像データに対して、複数のエンコーダで畳み込み処理を繰り返す。エンコーダで畳み込まれた画像に対して、複数のデコーダでアップサンプリング(逆畳み込み)処理を繰り返す。畳み込まれた画像をデコードする際に、エンコーダで生成した特徴マップを逆畳み込み処理を行う画像に足し合わせる処理を行う。これにより、畳み込み処理によって失われる位置情報を保持することができ、より精度の高いセグメンテーション(いずれのピクセルがいずれのクラスであるか)を出力することができる。第1学習モデル581は、医用画像データが入力されると、内腔の領域を示す位置データを出力することができる。位置データは、内腔の領域を示す画素(ピクセル)の座標データである。別言すれば、学習モデル581は、入力された医用画像データそれぞれのピクセルを、例えば、クラス1、2の2つのクラスに分類することができる。クラス1はBackgroundを示し、内腔の外側の領域を示す。クラス2はLumenを示し、血管の内腔を示す。従って、クラス1に分類されたピクセルとクラス2に分類されたピクセルとの境界は内腔の境界を示す。なお、第1学習モデル581は、U-Netに限定されるものではなく、例えば、GAN(Generative Adversarial Network)、SegNet等でもよい。
FIG. 3 is a diagram showing an example of the configuration of the
第1学習モデル581の生成方法は、以下のようにすることができる。まず、血管の断面画像を示す医用画像データ、及び当該血管の内腔の領域の位置データを含む第1訓練データを取得する。第1訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。次に、第1訓練データに基づいて、血管の断面画像を示す医用画像データを第1学習モデル581に入力した場合に、内腔の領域の位置データを出力するように第1学習モデル581を生成すればよい。なお、訓練データに、内腔の領域の位置データの代わりに、内腔の境界の位置データを含めて、内腔の境界の位置データを出力するように第1学習モデル581を生成してもよい。
A method of generating the
図4は第1学習モデル582の構成の一例を示す図である。第1学習モデル582は、入力層582a、中間層582b、及び出力層582cを備え、例えば、U-Netで構成することができる。中間層582bは、第1学習モデル581と同様、複数のエンコーダ、及び複数のデコーダを備える。第1学習モデル582は、医用画像データが入力されると、内腔の領域及び血管の領域それぞれを示す位置データを出力することができる。位置データは、内腔の領域及び血管の領域それぞれを示す画素(ピクセル)の座標データである。別言すれば、学習モデル582は、入力された医用画像データそれぞれのピクセルを、例えば、クラス1、2、3の3つのクラスに分類することができる。クラス1はBackgroundを示し、血管の外側の領域を示す。クラス3は(Plaque + Media)を示し、プラークを含む血管の領域を示す。クラス2はLumenを示し、血管の内腔を示す。従って、クラス2に分類されたピクセルとクラス3に分類されたピクセルとの境界は内腔の境界を示し、クラス1に分類されたピクセルとクラス3に分類されたピクセルとの境界は血管の境界を示す。なお、第1学習モデル582も、U-Netに限定されるものではなく、例えば、GAN(Generative Adversarial Network)、SegNet等でもよい。
FIG. 4 is a diagram showing an example of the configuration of the
第1学習モデル582の生成方法は、以下のようにすることができる。まず、血管の断面画像を示す医用画像データ、及び当該血管の内腔の領域及び血管の領域それぞれの位置データを含む第1訓練データを取得する。第1訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。次に、第1訓練データに基づいて、血管の断面画像を示す医用画像データを第1学習モデル582に入力した場合に、内腔の領域及び血管の領域それぞれの位置データを出力するように第1学習モデル582を生成すればよい。なお、訓練データに、内腔及び血管の領域の位置データの代わりに、内腔の境界及び血管の境界の位置データを含めて、内腔の境界及び血管の境界の位置データを出力するように第1学習モデル582を生成してもよい。
A method of generating the
次に、第2学習モデル59について説明する。第2学習モデル59は、管腔器官の断面画像を示す医用画像データを入力した場合に、当該管腔器官内の対象物の有無を出力する。第2学習モデル59は、医用画像に含まれる対象物を認識するモデルである。対象物は、病変及び構造物を含む。病変は、例えば、内腔の表層にのみ生じる、解離、プロトリュージョン又は血栓を含む。また、病変は、内腔の表層から血管までに生じる、石灰化又は減衰性プラークを含む。構造物は、ステント又はガイドワイヤを含む。
Next, the
図5は第2学習モデル591の構成の一例を示す図である。第2学習モデル591は、入力層591a、中間層591b、及び出力層591cを備え、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成することができる。中間層591bは、複数の畳み込み層、複数のプーリング層、及び全結合層を備える。第2学習モデル591は、医用画像データが入力されると、対象物の有無を出力することができる。入力層591aに入力された医用画像データは、畳み込み層において、畳み込みフィルタ(フィルタともいう)による畳み込み演算が行われ、特徴マップを出力する。プーリング層は、畳み込み層から出力された特徴マップの大きさを縮小する処理を行う。プーリング層により、医用画像内で、例えば、特徴部分が多少変形又は変位していても、その変形又は変位による差異を吸収して特徴部分を抽出することができる。
FIG. 5 is a diagram showing an example of the configuration of the
出力層591cは、360個のノードで構成され、医用画像の所定位置を中心として、半径方向に向かう走査ライン上で対象物の有無に応じた値(例えば、対象物有り:1、対象物無し:0など)を出力する。走査ラインは、全周を360等分した360個の線分で構成される。全周を360等分する構成に限定されるものではなく、例えば、全周を2等分、3等分、36等分など適宜の数で等分してもよい。なお、第2学習モデル591は、走査ライン上で対象物の有無を検出する構成に代えて、走査ラインを用いることなく医用画像内の対象物の有無を検出するように構成してもよい。
The
本実施の形態では、第2学習モデル591を用いて対象物の有無を検出する場合、前述の第1学習モデル58を用いる。また、本実施の形態では、第2学習モデル591を生成する場合、第1学習モデル58を用いる。以下では、まず、第2学習モデル591を用いて対象物の有無を検出する方法について、次の第1例~第4例に分けて説明する。第1例は、所定部位が内腔の領域であり、対象物としての病変が解離、プロトリュージョン又は血栓である場合である。第2例は、所定部位が内腔及び血管それぞれの領域であり、対象物としての病変が石灰化又は減衰性プラークである場合である。第3例は、所定部位が内腔及び血管それぞれの領域であり、対象物としての構造物がステントである場合である。第4例は、所定部位が内腔の領域であり、対象物としての構造物がガイドワイヤである場合である。また、第2学習モデル591の生成方法についても説明する。
In this embodiment, when the presence or absence of an object is detected using the
図6は情報処理装置50による対象物の有無の検出の第1例を示す図である。コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデル581に入力する。第1学習モデル581は、図3で例示したように、内腔の領域の位置データを出力する。コンピュータプログラム57は、内腔の領域の位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔境界付近の領域とすることができる。領域データは、例えば、医用画像データのうち、内腔境界付近の領域内に相当する部分だけを抽出したデータとすることができる。コンピュータプログラム57は、領域データに対して、内腔境界付近の領域の内外で異なる重み付けをして重み位置情報(重み付け情報)を生成する。重み付け処理は、例えば、内腔境界付近の領域(対象物候補領域)内(境界を含む)のデータを1とし、内腔境界付近の領域外のデータを0とする。なお、内腔境界付近の領域外において、重み付けを、内腔境界から遠ざかるに応じて1から徐々に0に近づけるように、0~1の範囲の数値を用いてもよい。
FIG. 6 is a diagram showing a first example of detection of the presence or absence of an object by the
コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、解離、プロトリュージョン又は血栓(対象物)の有無を出力する。
The
重み位置情報を第2学習モデル591に入力する場合、たとえば、2通りの方法がある。以下、第2学習モデル591に対する重み位置情報の入力処理について説明する。
There are, for example, two methods for inputting the weight position information to the
図7は重み位置情報の入力処理の第1例を示す図である。第1例では、第2学習モデル591に入力される医用画像データに対して、マスク処理を行い、マスク処理後の医用画像データを第2学習モデル591に入力する。マスク処理は、重み位置情報を用いて行われる。具体的には、候補領域内(境界を含む)の重み付けが1、候補領域外の重み付けが0の場合、マスク処理後の医用画像データは、候補領域内に対応する画素以外の画素の値が0となる。図6の例は、候補領域が内腔境界付近の領域であるので、第2学習モデル591は、医用画像全体のうち、内腔境界付近の領域に限定して対象物である、解離、プロトリュージョン又は血栓の有無を検出することができる。解離、プロトリュージョン又は血栓は、内腔の表層にのみ生じる病変であるので、内腔境界付近の領域に限定して対象物の有無を検出することにより、病変の検出精度を向上させることができる。
FIG. 7 is a diagram showing a first example of input processing of weight position information. In the first example, mask processing is performed on the medical image data input to the
このように、重み位置情報の入力処理の第1例では、コンピュータプログラム57は、血管の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得し、取得した位置データに基づいて、対象物候補領域の領域データを特定し、特定した領域データに対して、対象物候補領域の内外で異なる重み付けをして重み位置情報を生成する。そして、コンピュータプログラム57は、生成した重み位置情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データ(マスク処理後の医用画像データ)を第2学習モデルに入力し、対象物の有無を出力することができる。
As described above, in the first example of the weight position information input process, the
次に、図6及び図7に対応する第2学習モデル591の生成方法について説明する。
Next, a method for generating the
図8は第2学習モデル591の生成方法の第1例を示す図である。第2学習モデル591の生成方法は、例えば、以下のようにすることができる。まず、コンピュータプログラム57は、血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。第2訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得し、取得した位置データに基づいて重み位置情報を生成する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、第2訓練データを用い、重み位置情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データ(マスク処理後の医用画像データ)を訓練用入力データとして第2学習モデルに入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。図6及び図7の場合、対象物は、解離、プロトリュージョン又は血栓である。
FIG. 8 is a diagram showing a first example of a method for generating the
なお、図6において、重み付け処理を省略してもよい。この場合、コンピュータプログラム57は、取得した医用画像データ及び内腔境界付近の領域の領域データ(医用画像データのうち、内腔境界付近の領域内に相当する部分だけを抽出したデータ)を第2学習モデル591の入力層591aの異なるチャネルに入力して、解離、プロトリュージョン又は血栓(対象物)の有無を出力するようにしてもよい。
In addition, in FIG. 6, the weighting process may be omitted. In this case, the
この場合、第2学習モデル591の生成方法は、例えば、以下のようにすることができる。血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、第1学習モデル58が出力した所定部位の位置データに基づいて特定された候補領域の領域データを特定し、取得した医用画像データ及び領域データを訓練用入力データとして第2学習モデルに入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。図6及び図7の場合、対象物は、解離、プロトリュージョン又は血栓である。
In this case, the method of generating the
図9は重み位置情報の入力処理の第2例を示す図である。第2例では、第2学習モデル591に医用画像データを入力し、第2学習モデル591による畳み込み処理の結果得られる特徴マップに対して、マスク処理を行い、マスク処理後の特徴マップを用いて、当該畳み込み処理の後段の処理を行う。具体的には、重み位置情報のサイズを特徴マップと同じサイズに変換し、候補領域内(境界を含む)の重み付けが1、候補領域外の重み付けが0の場合、マスク処理後の特徴マップは、候補領域内に対応する画素以外の画素の値が0となる。図6の例では、候補領域が内腔境界付近の領域であるので、第2学習モデル591は、畳み込み処理によって得られた特徴マップのうち、内腔境界付近の領域に対応する特徴マップの値を強調することができる。解離、プロトリュージョン又は血栓は、内腔の表層にのみ生じる病変であるので、内腔境界付近の領域を強調することにより、病変の検出精度を向上させることができる。なお、複数の畳み込み層のうち、いずれの畳み込み層の特徴マップを用いるかは適宜選定すればよい。
FIG. 9 is a diagram showing a second example of the weight position information input process. In the second example, medical image data is input to the
次に、図6及び図9に対応する第2学習モデル591の生成方法について説明する。
Next, a method for generating the
図10は第2学習モデル591の生成方法の第2例を示す図である。第2学習モデル591の生成方法は、例えば、以下のようにすることができる。まず、コンピュータプログラム57は、血管の断面画像を示す医用画像データ、及び対象物の有無を示すデータを含む第2訓練データを取得する。第2訓練データは、例えば、サーバ200で収集して記憶しておき、サーバ200から取得するようにすればよい。コンピュータプログラム57は、第2訓練データに含まれる医用画像データを第1学習モデル58に入力して、第1学習モデル58が出力する所定部位の位置データを取得し、取得した位置データに基づいて重み位置情報を生成する。図6及び図7の場合、所定部位は、内腔の領域である。コンピュータプログラム57は、重み位置情報に基づいて、畳み込み処理後の特徴マップを重み付けする。コンピュータプログラム57は、取得した医用画像データを訓練用入力データとして第2学習モデル591に入力した場合、対象物の有無を出力するように第2学習モデル591を生成する。具体的には、第2学習モデル591が出力する出力データ(対象物の有無)と、教師データ(医用画像上の対象物の有無)とに基づく損失関数の値が最小になるように、第2学習モデル591のパラメータを調整すればよい。ここで、対象物は、解離、プロトリュージョン又は血栓である。
FIG. 10 is a diagram showing a second example of the method of generating the
図11は情報処理装置50による対象物の有無の検出の第2例を示す図である。コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、取得した医用画像データを第1学習モデル582に入力する。第1学習モデル582は、図4で例示したように、内腔の領域及び血管の領域それぞれの位置データを出力する。コンピュータプログラム57は、内腔の領域及び血管の領域それぞれの位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔境界付近から血管境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔境界付近から血管境界付近までの領域内に相当する部分だけを抽出したデータとすることができる。コンピュータプログラム57は、領域データに対して、内腔境界付近から血管境界付近までの領域内外で異なる重み付けをして重み位置情報(重み付け情報)を生成する。重み付け処理は、例えば、内腔境界付近から血管境界付近までの領域(対象物候補領域)内(境界を含む)のデータを1とし、内腔境界付近から血管境界付近までの領域外のデータを0とする。なお、内腔境界付近から血管境界付近までの領域外において、重み付けを、血管境界から遠ざかるに応じて1から徐々に0に近づけるように、0~1の範囲の数値を用いてもよい。
FIG. 11 is a diagram showing a second example of detection of the presence or absence of an object by the
コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、石灰化又は減衰性プラーク(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。
The
図11の例は、内腔境界付近から血管境界付近までの領域であるので、第2学習モデル591は、医用画像全体のうち、内腔境界付近から血管境界付近までの領域に限定して、対象物である石灰化又は減衰性プラークの有無を検出することができる。石灰化又は減衰性プラークは、内腔の表層から血管までに生じる病変であるので、内腔境界付近から血管境界付近までの領域に限定して対象物の有無を検出することにより、病変の検出精度を向上させることができる。
Since the example in FIG. 11 is the region from the vicinity of the lumen boundary to the vicinity of the blood vessel boundary, the
また、第2学習モデル591は、畳み込み処理によって得られた特徴マップのうち、内腔境界付近から血管境界付近までの領域に対応する特徴マップの値を強調することができる。石灰化又は減衰性プラークは、内腔の表層から血管までに生じる病変であるので、内腔境界付近から血管境界付近までの領域を強調することにより、病変の検出精度を向上させることができる。
Also, the
図12は情報処理装置50による対象物の有無の検出の第3例を示す図である。第1学習モデル581、図11の場合と同様である。コンピュータプログラム57は、内腔の領域及び血管の領域それぞれの位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔の内側から血管境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔の内側から血管境界付近までの領域に相当する部分だけを抽出したデータとすることができる。重付け処理、重み位置情報は、図11の場合と同様であるので、説明を省略する。コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、ステント(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。
FIG. 12 is a diagram showing a third example of detection of the presence or absence of an object by the
ステントは、内腔の内側から血管境界までに生じる構造物であるので、内腔の内側から血管境界付近までの領域に限定、あるいは当該領域を強調して対象物の有無を検出することにより、構造物の検出精度を向上させることができる。 Since the stent is a structure that extends from the inside of the lumen to the boundary of the blood vessel, the presence or absence of the target object can be detected by limiting the region from the inside of the lumen to the vicinity of the boundary of the blood vessel, or emphasizing the region. The structure detection accuracy can be improved.
図13は情報処理装置50による対象物の有無の検出の第4例を示す図である。第1学習モデル581は、図6の場合と同様である。コンピュータプログラム57は、内腔の領域の位置データに基づいて、対象物候補領域の領域データを特定する。ここでは、対象物候補領域は、内腔の内側から内腔境界付近までの領域とすることができる。領域データは、例えば、医用画像データのうち、内腔の内側から内腔境界付近までの領域に相当する部分だけを抽出したデータとすることができる。重付け処理、重み位置情報は、図11の場合と同様であるので、説明を省略する。コンピュータプログラム57は、取得した医用画像データ及び重み位置情報(重み付け情報)を第2学習モデル591に入力する。第2学習モデル591は、ガイドワイヤ(対象物)の有無を出力することができる。第2学習モデル591に対する重み位置情報の入力処理は、図7又は図9の場合と同様であるので、説明は省略する。
FIG. 13 is a diagram showing a fourth example of detection of the presence or absence of an object by the
ガイドワイヤは、内腔の内側から内腔境界までに生じる構造物であるので、内腔の内側から内腔境界までの領域に限定、あるいは当該領域を強調して対象物の有無を検出することにより、構造物の検出精度を向上させることができる。 Since the guidewire is a structure that extends from the inside of the lumen to the boundary of the lumen, it is possible to detect the presence or absence of an object by limiting the region from the inside of the lumen to the boundary of the lumen, or emphasizing that region. Therefore, the detection accuracy of the structure can be improved.
上述のように、コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データを取得し、血管の断面画像を示す医用画像データを入力した場合に、血管の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して所定部位の位置データを取得し、血管の断面画像を示す医用画像データ及び所定部位の位置データを入力した場合に、血管内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び所定部位の位置データを入力して、対象物の有無を出力する処理をコンピュータに実行させることができる。
As described above, the
より具体的には、コンピュータプログラム57は、取得した所定部位の位置データに基づいて、対象物候補領域の領域データを特定し、血管の断面画像を示す医用画像データ及び対象物候補領域の領域データを入力した場合に、血管内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び特定した対象物候補領域の領域データを入力して、対象物の有無を出力する処理をコンピュータに実行させることができる。
More specifically, the
この場合、領域データに対して、前象物候補領域の内外で異なる重み付けをして重み位置情報を生成し、生成した重み付け情報に基づいて、取得した医用画像データを重み付けし、重み付けした医用画像データを第2学習モデルに入力し、対象物の有無を出力するようにしてもよい。 In this case, the region data is weighted differently inside and outside the foreground object candidate region to generate weighted position information, the acquired medical image data is weighted based on the generated weighting information, and the weighted medical image is obtained. The data may be input to the second learning model, and the presence or absence of the object may be output.
また、領域データに対して、前象物候補領域の内外で異なる重み付けをして重み位置情報を生成し、生成した重み付け情報に基づいて、取得した医用画像データに対する畳み込み処理後の特徴マップを重み付けし、重み付けした特徴マップを用いて対象物の有無を出力するようにしてもよい。 In addition, the region data is weighted differently inside and outside the foreground object candidate region to generate weighted position information, and based on the generated weighting information, the feature map after convolution processing for the acquired medical image data is weighted. Then, the presence or absence of the object may be output using the weighted feature map.
次に、情報処理装置50の処理手順について説明する。
Next, a processing procedure of the
図14は情報処理装置50による対象物の検出処理の第1例を示す図である。図14の処理は、図7の場合に対応する。以下では、便宜上、処理の主体を制御部51として説明する。制御部51は、複数の医用画像データを取得する(S11)。ここで、複数の医用画像は、1回のプルバック操作で得られた画像とすることができる。制御部51は、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得する(S12)。
FIG. 14 is a diagram showing a first example of object detection processing by the
制御部51は、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S13)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S14)。制御部51は、重み位置情報を用いて、取得した医用画像データをマスク処理し(S15)、マスク処理後の医用画像データを第2学習モデルに入力して対象物の有無を出力し(S16)、処理を終了する。
The
図15は情報処理装置50による対象物の検出処理の第2例を示す図である。図15の処理は、図9の場合に対応する。制御部51は、複数の医用画像データを取得する(S21)。ここで、複数の医用画像は、1回のプルバック操作で得られた画像とすることができる。制御部51は、取得した医用画像データを第1学習モデルに入力して所定部位の位置データを取得する(S22)。
FIG. 15 is a diagram showing a second example of object detection processing by the
制御部51は、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S23)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S24)。制御部51は、取得した医用画像データを第2学習モデルに入力して特徴マップを抽出し(S25)、重み位置情報を用いて、抽出した特徴マップをマスク処理する(S26)。制御部51は、マスク処理した特徴マップを第2学習モデルに入力して対象物の有無を出力し(S27)、処理を終了する。
The
図16は情報処理装置50による第1学習モデル58の生成処理の一例を示す図である。制御部51は、医用画像データ及び所定部位の位置データを含む第1訓練データを取得する(S31)。第1訓練データは、複数の医用画像及び当該医用画像での所定部位の位置に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第1学習モデル58のパラメータの初期値を設定する(S32)。
FIG. 16 is a diagram showing an example of processing for generating the
制御部51は、第1訓練データに基づいて、医用画像データを第1学習モデル58に入力する(S33)。制御部51は、第1学習モデル58が出力する所定部位の位置データと、第1訓練データに含まれる所定部位の位置データとに基づく損失関数の値が最小になるようにパラメータを調整する(S34)。
The
制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S35)、損失関数の値が許容範囲内でない場合(S35でNO)、ステップS33以降の処理を続ける。損失関数の値が許容範囲内である場合(S35でYES)、制御部51は、生成した第1学習モデル58を記憶部56に記憶し(S36)、処理を終了する。
The
図17は情報処理装置50による第2学習モデル59の生成処理の第1例を示す図である。図17の処理は、図8の場合に対応する。制御部51は、医用画像データ及び対象物の有無を示すデータを含む第2訓練データを取得する(S41)。第2訓練データは、複数の医用画像及び当該医用画像での対象物の有無に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第2学習モデル59のパラメータの初期値を設定する(S42)。
FIG. 17 is a diagram showing a first example of processing for generating the
制御部51は、医用画像データを第1学習モデル58に入力して所定部位の位置データを取得し(S43)、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S44)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S45)。制御部51は、重み位置情報を用いて、取得した医用画像データをマスク処理し(S46)、マスク処理後の医用画像データを第2学習モデルに入力する(S47)。
The
制御部51は、第2学習モデル59が出力する対象物の有無を示すデータと、第2訓練データに含まれる対象物の有無を示すデータとに基づく損失関数の値が最小になるようにパラメータを調整する(S48)。制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S49)、損失関数の値が許容範囲内でない場合(S49でNO)、ステップS47以降の処理を続ける。損失関数の値が許容範囲内である場合(S49でYES)、制御部51は、生成した第2学習モデル59を記憶部56に記憶し(S50)、処理を終了する。
The
図18は情報処理装置50による第2学習モデル59の生成処理の第2例を示す図である。図18の処理は、図10の場合に対応する。制御部51は、医用画像データ及び対象物の有無を示すデータを含む第2訓練データを取得する(S61)。第2訓練データは、複数の医用画像及び当該医用画像での対象物の有無に関するデータであり、機械学習に必要なデータ量を含めることができる。制御部51は、第2学習モデル59のパラメータの初期値を設定する(S62)。
FIG. 18 is a diagram showing a second example of processing for generating the
制御部51は、医用画像データを第1学習モデル58に入力して所定部位の位置データを取得し(S63)、取得した位置データに基づいて対象物候補領域(候補領域)を特定し(S64)、対象物候補領域の領域データに基づいて重み位置情報を生成する(S65)。制御部51は、医用画像データを第2学習モデル59に入力して、畳み込み処理後の特徴マップを抽出する(S66)。
The
制御部51は、重み位置情報を用いて、抽出した特徴マップをマスク処理し(S67)、第2学習モデル59が出力する対象物の有無を示すデータと、第2訓練データに含まれる対象物の有無を示すデータとに基づく損失関数の値が最小になるようにパラメータを調整する(S68)。
Using the weight position information, the
制御部51は、損失関数の値が許容範囲内であるか否かを判定し(S69)、損失関数の値が許容範囲内でない場合(S69でNO)、ステップS67以降の処理を続ける。損失関数の値が許容範囲内である場合(S69でYES)、制御部51は、生成した第2学習モデル59を記憶部56に記憶し(S70)、処理を終了する。
The
上述のように、コンピュータプログラム57は、血管(管腔器官)の断面画像を示す医用画像データ、及び当該血管の所定部位の位置データを含む第1訓練データを取得し、取得した第1訓練データに基づいて、血管の断面画像を示す医用画像データを入力した場合に、当該血管の所定部位の位置データを出力するように第1学習モデルを生成し、血管の断面画像を示す医用画像データ、及び当該血管の対象物の有無を示すデータを含む第2訓練データを取得し、取得した第2訓練データに基づいて、第1学習モデルに医用画像データを入力して所定部位の位置データを取得し、第2訓練データに基づいて、血管の断面画像を示す医用画像データ、及び取得した所定部位の位置データを入力した場合に、当該血管内の対象物の有無を出力するように第2学習モデルを生成する処理をコンピュータに実行させることができる。
As described above, the
本実施の形態において、第2学習モデル59として、病変としての解離、プロトリュージョン又は血栓の有無を出力する学習モデル、病変としての石灰化又は減衰性プラークの有無を出力する学習モデル、構造物としてのステントの有無を出力する学習モデル、及び構造物としてのガイドワイヤの有無を出力する学習モデルを、それぞれ個別に設ける構成でもよく、いくつかの学習モデルを1つの第2学習モデル59に統合してもよく、全ての学習モデルを1つの第2学習モデル59として構成してもよい。
In the present embodiment, as the
本実施の形態において、第1学習モデル58として、第1学習モデル581、582を個別に設けてもよく、第1学習モデル582で第1学習モデル581も代用してもよい。
In the present embodiment, the
上述の実施の形態では、情報処理装置50が、対象物の有無の検出、及び学習モデルの生成を行う構成であるが、これに限定されるものではない。例えば、情報処理装置50をクライアント装置とし、学習モデルの生成処理を外部のサーバで行うようにして、当該サーバから学習モデルを取得するようにしてもよい。また、対象物の有無の検出、及び学習モデルの生成を外部のサーバで行うようにして、情報処理装置は、対象物の有無の検出結果をサーバから取得するようにしてもよい。
In the above-described embodiment, the
1 通信ネットワーク
10 カテーテル
20 MDU
30 表示装置
40 入力装置
50 情報処理装置
51 制御部
52 通信部
53 インタフェース部
54 記録媒体読取部
541 記録媒体
55 メモリ
56 記憶部
57 コンピュータプログラム
58、581、582 第1学習モデル
581a、582a 入力層
581b、582b 中間層
581c、582c 出力層
59、591 第2学習モデル
591a 入力層
591b 中間層
591c 出力層
1
30
Claims (12)
管腔器官の断面画像を示す医用画像データを取得し、
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、
処理を実行させるコンピュータプログラム。 to the computer,
acquiring medical image data showing a cross-sectional image of a hollow organ;
When medical image data representing a cross-sectional image of a hollow organ is input, the acquired medical image data is input to a first learning model that outputs position data of a predetermined portion of the hollow organ to determine the position of the predetermined portion. get the data,
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model that outputs the presence or absence of an object in the hollow organ is provided with the acquired medical image data. inputting the image data and the obtained position data of the predetermined part, and outputting the presence or absence of the object;
A computer program that causes a process to be performed.
取得した前記所定部位の位置データに基づいて、対象物候補領域の領域データを特定し、
管腔器官の断面画像を示す医用画像データ及び対象物候補領域の領域データを入力した場合に、前記管腔器官内の対象物の有無を出力する前記第2学習モデルに、取得した医用画像データ及び特定した前記対象物候補領域の領域データを入力して、対象物の有無を出力する、
処理を実行させる請求項1に記載のコンピュータプログラム。 to the computer,
identifying region data of a target object candidate region based on the acquired position data of the predetermined portion;
Acquired medical image data in the second learning model for outputting presence/absence of an object in the hollow organ when medical image data representing a cross-sectional image of the hollow organ and region data of the object candidate region are input. and inputting the region data of the identified object candidate region and outputting the presence or absence of the object;
2. The computer program according to claim 1, causing a process to be executed.
前記領域データに対して、前記対象物候補領域の内外で異なる重み付けをして重み付け情報を生成する、
処理を実行させる請求項2に記載のコンピュータプログラム。 to the computer,
weighting the region data differently inside and outside the object candidate region to generate weighting information;
3. The computer program according to claim 2, causing a process to be executed.
生成した重み付け情報に基づいて、取得した医用画像データを重み付けし、
重み付けした医用画像データを前記第2学習モデルに入力し、
対象物の有無を出力する、
処理を実行させる請求項3に記載のコンピュータプログラム。 to the computer,
weighting the acquired medical image data based on the generated weighting information;
inputting the weighted medical image data into the second learning model;
output the presence or absence of an object,
4. The computer program according to claim 3, causing a process to be executed.
前記第2学習モデルに畳み込み処理を行わせ、
生成した重み付け情報に基づいて、前記畳み込み処理後の特徴マップを重み付けし、
重み付けした特徴マップを用いて対象物の有無を出力する、
処理を実行させる請求項3に記載のコンピュータプログラム。 to the computer,
causing the second learning model to perform convolution processing;
Weighting the feature map after the convolution process based on the generated weighting information,
output presence/absence of objects using weighted feature maps;
4. The computer program according to claim 3, causing a process to be executed.
前記対象物は、解離、プロトリュージョン及び血栓の少なくとも1つを含む、
請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。 The predetermined site includes a lumen area,
the object includes at least one of dissection, protrusion, and thrombus;
Computer program according to any one of claims 1 to 5.
前記対象物は、石灰化及び減衰性プラーク少なくとも1つを含む、
請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。 The predetermined site includes regions of lumens and blood vessels,
the object comprises at least one of calcified and attenuating plaque;
Computer program according to any one of claims 1 to 6.
前記対象物は、ガイドワイヤを含む、
請求項1から請求項7のいずれか一項に記載のコンピュータプログラム。 The predetermined site includes a lumen area,
the object comprises a guidewire;
Computer program according to any one of claims 1 to 7.
前記対象物は、ステントを含む、
請求項1から請求項8のいずれか一項に記載のコンピュータプログラム。 The predetermined site includes regions of lumens and blood vessels,
the object comprises a stent;
Computer program according to any one of claims 1 to 8.
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、取得した医用画像データを入力して前記所定部位の位置データを取得し、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、取得した医用画像データ及び取得した前記所定部位の位置データを入力して、対象物の有無を出力する、
情報処理方法。 acquiring medical image data showing a cross-sectional image of a hollow organ;
When medical image data representing a cross-sectional image of a hollow organ is input, the acquired medical image data is input to a first learning model that outputs position data of a predetermined portion of the hollow organ to determine the position of the predetermined portion. get the data,
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model that outputs the presence or absence of an object in the hollow organ is provided with the acquired medical image data. inputting the image data and the obtained position data of the predetermined part, and outputting the presence or absence of the object;
Information processing methods.
管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力する第1学習モデルに、前記第1取得部で取得した医用画像データを入力して前記所定部位の位置データを取得する第2取得部と、
管腔器官の断面画像を示す医用画像データ及び前記管腔器官の所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力する第2学習モデルに、前記第1取得部で取得した医用画像データ及び前記第2取得部で取得した前記所定部位の位置データを入力して、対象物の有無を出力する出力部と
を備える情報処理装置。 a first acquisition unit that acquires medical image data representing a cross-sectional image of a hollow organ;
inputting the medical image data obtained by the first obtaining unit into a first learning model for outputting position data of a predetermined portion of the hollow organ when medical image data representing a cross-sectional image of the hollow organ is inputted; a second acquisition unit that acquires position data of the predetermined part by
When medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ are input, a second learning model for outputting the presence or absence of an object in the hollow organ is provided with the first and an output unit that inputs the medical image data acquired by the acquisition unit and the position data of the predetermined part acquired by the second acquisition unit, and outputs the presence or absence of an object.
前記第1訓練データに基づいて、管腔器官の断面画像を示す医用画像データを入力した場合に、前記管腔器官の所定部位の位置データを出力するように第1学習モデルを生成し、
管腔器官の断面画像を示す医用画像データ、及び前記管腔器官の対象物の有無を示すデータを含む第2訓練データを取得し、
前記第2訓練データに基づいて、前記第1学習モデルに医用画像データを入力して所定部位の位置データを取得し、
前記第2訓練データに基づいて、管腔器官の断面画像を示す医用画像データ、及び取得した前記所定部位の位置データを入力した場合に、前記管腔器官内の対象物の有無を出力するように第2学習モデルを生成する、
学習モデル生成方法。 acquiring first training data including medical image data representing a cross-sectional image of a hollow organ and position data of a predetermined portion of the hollow organ;
generating a first learning model based on the first training data so as to output position data of a predetermined portion of the hollow organ when medical image data representing a cross-sectional image of the hollow organ is input;
acquiring second training data including medical image data representing a cross-sectional image of a hollow organ and data representing the presence or absence of an object in the hollow organ;
inputting medical image data into the first learning model based on the second training data to acquire position data of a predetermined part;
Based on the second training data, the presence or absence of an object in the hollow organ is output when medical image data representing a cross-sectional image of the hollow organ and the acquired position data of the predetermined site are input. generate a second learning model at
Learning model generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021160018A JP2023049952A (en) | 2021-09-29 | 2021-09-29 | Computer program, information processing device, information processing method, and learning model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021160018A JP2023049952A (en) | 2021-09-29 | 2021-09-29 | Computer program, information processing device, information processing method, and learning model generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023049952A true JP2023049952A (en) | 2023-04-10 |
Family
ID=85802183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021160018A Pending JP2023049952A (en) | 2021-09-29 | 2021-09-29 | Computer program, information processing device, information processing method, and learning model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023049952A (en) |
-
2021
- 2021-09-29 JP JP2021160018A patent/JP2023049952A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375102B2 (en) | How an intravascular imaging system operates | |
JP5944917B2 (en) | Computer readable medium for detecting and displaying body lumen bifurcation and system including the same | |
CN108348171B (en) | Method and system for intravascular imaging and detection of guide catheter | |
CN114585297A (en) | Artificial intelligence registration and marker detection including machine learning and using results thereof | |
JP2018519018A (en) | Intravascular imaging system interface and stent detection method | |
JP2006510413A (en) | Ultrasonic Doppler system to determine arterial wall motion | |
US11122981B2 (en) | Arterial wall characterization in optical coherence tomography imaging | |
CN114650778A (en) | Diagnosis support device, diagnosis support system, and diagnosis support method | |
Pociask et al. | Fully automated lumen segmentation method for intracoronary optical coherence tomography | |
CN116030968A (en) | Blood flow reserve score prediction method and device based on intravascular ultrasound image | |
WO2021199968A1 (en) | Computer program, information processing method, information processing device, and method for generating model | |
US20240013385A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
WO2023054467A1 (en) | Model generation method, learning model, computer program, information processing method, and information processing device | |
JP2023049952A (en) | Computer program, information processing device, information processing method, and learning model generation method | |
US20230133103A1 (en) | Learning model generation method, image processing apparatus, program, and training data generation method | |
WO2022071265A1 (en) | Program, information processing device, and information processing method | |
WO2023054442A1 (en) | Computer program, information processing device, and information processing method | |
WO2023189260A1 (en) | Computer program, information processing device, and information processing method | |
JP2023051176A (en) | Computer program, information processing device and information processing method | |
WO2024071121A1 (en) | Computer program, information processing method, and information processing device | |
WO2021199961A1 (en) | Computer program, information processing method, and information processing device | |
WO2024071322A1 (en) | Information processing method, learning model generation method, computer program, and information processing device | |
WO2021199962A1 (en) | Program, information processing method, and information processing device | |
WO2023100838A1 (en) | Computer program, information processing device, information processing method, and training model generation method | |
WO2024071321A1 (en) | Computer program, information processing method, and information processing device |