JP2024050056A - コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 - Google Patents
コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 Download PDFInfo
- Publication number
- JP2024050056A JP2024050056A JP2022156646A JP2022156646A JP2024050056A JP 2024050056 A JP2024050056 A JP 2024050056A JP 2022156646 A JP2022156646 A JP 2022156646A JP 2022156646 A JP2022156646 A JP 2022156646A JP 2024050056 A JP2024050056 A JP 2024050056A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tomographic image
- images
- tomographic
- tissue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004590 computer program Methods 0.000 title claims abstract description 30
- 230000010365 information processing Effects 0.000 title claims abstract description 28
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 178
- 238000003384 imaging method Methods 0.000 claims abstract description 62
- 230000003902 lesion Effects 0.000 claims abstract description 51
- 210000000056 organ Anatomy 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 38
- 230000003247 decreasing effect Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 10
- 238000003745 diagnosis Methods 0.000 abstract description 6
- 230000011218 segmentation Effects 0.000 description 42
- 238000002608 intravascular ultrasound Methods 0.000 description 31
- 210000001519 tissue Anatomy 0.000 description 24
- 210000004204 blood vessel Anatomy 0.000 description 21
- 230000008859 change Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 8
- 238000002604 ultrasonography Methods 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 6
- 150000002632 lipids Chemical class 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 239000008280 blood Substances 0.000 description 5
- 210000004369 blood Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000002792 vascular Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 239000012528 membrane Substances 0.000 description 4
- 210000002808 connective tissue Anatomy 0.000 description 3
- 210000003038 endothelium Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 210000004231 tunica media Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012014 optical coherence tomography Methods 0.000 description 2
- 238000013146 percutaneous coronary intervention Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000004026 tunica intima Anatomy 0.000 description 2
- 238000002583 angiography Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229940039231 contrast media Drugs 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Abstract
【課題】画像診断カテーテルから得られる医用画像を、視認性を高く、診断しやすくするコンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置を提供する。【解決手段】コンピュータプログラムは、コンピュータに、管腔器官に挿入されるカテーテルが備えるイメージングデバイスからの信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを用い、新たに断層画像を生成し、生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、画像処理後の領域画像を利用して補正断層画像を生成する処理を実行させる。【選択図】図10
Description
本発明は、医用画像に関する処理に係るコンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置に関する。
医学的検査において、検査対象の画像を直接的に撮像するか、又は、電磁波を利用した測定結果を画像化するなどして得られる画像が診断に利用されている。特に、管腔器官の検査では、画像素子を器官内に移動させて得られる画像を使用する技術が種々利用されている。
管腔器官の中でも特に血管の画像診断は、冠動脈インターベンション(PCI:Percutaneous Coronary Intervention)等の施術を安全確実に行なうために必要不可欠である。このため、造影剤を用いて体外から撮影する血管造影技術(angiography )と併せて、カテーテルを用いたIVUS(Intravascular Ultrasound)、OCT(Optical Coherence Tomography)/OFDI(Optical Frequency Domain Imaging)等の血管内イメージング技術が普及している。
上述した画像診断では、撮影された医用画像から診断に関する情報を正確に得ることは容易ではない。医用画像の読影を補助するために、画像解析又は機械学習を用いて、画像内に写っている部分を判別する技術が種々提案されている(特許文献1等)。
カテーテルデバイスを利用するシステムでは、画像診断カテーテルによって得られたIVUSの画像をカテーテルに係る手技を行なう医師に提示する。特許文献1に開示されているように情報を付加しているとしても、医用画像から管腔器官の状態を正確に診断するためには、画像を視認する医師にも、一定の経験や知識が必要となる。熟練度の高低に寄らず、より正確な診断を行なうために当該システムは、画像診断カテーテルから得られる医用画像を視認しやすくすることが求められる。
本開示の目的は、画像診断カテーテルから得られる医用画像を、視認性を高く、診断しやすくするコンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置を提供することを目的とする。
(1)本開示に係るコンピュータプログラムは、コンピュータに、管腔器官に挿入されるカテーテルが備えるイメージングデバイスからの信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを用い、新たに断層画像を生成し、生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、画像処理後の領域画像を利用して補正断層画像を生成する処理を実行させる。
(2)上記(1)のコンピュータプログラムにおいて、前記コンピュータに、前記画像処理として、前記領域画像毎に輝度を上昇又は下降させる処理を実行させてもよい。
(3)上記(1)又は(2)コンピュータプログラムにおいて、前記コンピュータに、前記画像処理として、前記組織又は病変部の範囲のうち、特定の範囲の領域画像にエッジ強調処理を実行させてもよい。
(4)上記(1)から(3)のいずれかのコンピュータプログラムにおいて、前記コンピュータに、前記断層画像に写っている前記組織又は病変部から、強調する範囲の選択を受け付け、前記画像処理として、選択された前記組織又は病変部の範囲を強調する処理を実行させてもよい。
(5)上記(4)のコンピュータプログラムにおいて、前記コンピュータに、前記イメージングデバイスからの信号に基づく前記断層画像を表示装置で表示中に、前記断層画像上で範囲の選択を受け付ける処理を実行させてもよい。
(6)上記(1)から(3)のいずれかのコンピュータプログラムにおいて、前記コンピュータに、前記カテーテルを用いた検査目的の選択を受け付け、前記画像処理として、選択された検査目的に応じた前記組織又は病変部の範囲を強調する処理を実行させてもよい。
(7)上記(1)から(6)のいずれかのコンピュータプログラムにおいて、前記イメージングデバイスは、追加のイメージングデバイスを備え、前記コンピュータに、追加のイメージングデバイスからの信号に基づく第2の断層画像に対して、前記第2の断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを更に用い、前記第2の断層画像に対して分別された範囲の領域画像を用い、前記補正断層画像を生成する処理を実行させてもよい。
(8)上記(7)のコンピュータプログラムにおいて、コンピュータに、異なる種類のイメージングデバイスからの信号に基づく複数の断層画像と、前記複数の断層画像それぞれに対応する前記組織又は病変部の範囲を分別するデータとが入力された場合に、各範囲のコントラストを強調させる補正断層画像を出力するように学習済みの補正画像生成モデルを用い、前記補正断層画像を生成する処理を実行させてもよい。
(9)本開示に係る学習モデルは、管腔器官に挿入されるカテーテルが備える異なる種類のイメージングデバイスからの信号に基づく前記管腔器官の複数の断層画像と、前記複数の断層画像それぞれに対して前記断層画像に写っている組織又は病変部の範囲を分別した分別済みのデータとを入力する入力層と、前記組織又は病変部のうち、特定の範囲を強調した補正断層画像を出力する出力層と、複数の断層画像、前記複数の断層画像それぞれに対して前記断層画像に写っている組織又は病変部の範囲を分別するデータ、及び前記データに基づいて複数の断層画像から特定の組織又は病変部を強調させた補正断層画像のセットを教師データとして学習済みの中間層とを備え、新たに前記イメージングデバイスからの信号に基づき得られた複数の断層画像と、前記複数の断層画像それぞれに含まれる前記組織又は病変部の範囲を分別したデータとが前記入力層に入力された場合に、補正断層画像を前記出力層から出力するよう、コンピュータを機能させる。
(10)本開示に係る情報処理方法は、管腔器官に挿入されるカテーテルに備えられたイメージングデバイスによる走査信号を取得するコンピュータが、前記走査信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを用い、新たに走査信号を取得した場合に、新たに断層画像を生成し、生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、画像処理後の領域画像を利用して補正断層画像を生成する。
(11)本開示に係る情報処理装置は、管腔器官に挿入されるカテーテルに備えられたイメージングデバイスによる走査信号を取得する情報処理装置において、前記走査信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを記憶する記憶部と、前記走査信号に基づく画像処理を実行する処理部とを備え、前記処理部は、新たに走査信号を取得した場合に、新たに断層画像を生成し、生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、画像処理後の領域画像を利用して補正断層画像を生成する。
本開示によれば、組織又は病変部の範囲毎に、その種類に応じた画像処理が実行されるため、組織又は病変部どうしが明瞭になった正断層画像が生成される。各々の範囲を示す画像が重畳されることとは別に、画像処理によって元の質感を保ったまま特定の範囲が色濃くなるなどの処理が行なわれる。これにより、イメージングデバイスを備えたカテーテルから得られる医用画像を、視認性を高く、診断しやすくすることができる。
本発明の実施形態に係るコンピュータプログラム、情報処理方法、及び情報処理装置の具体例を、図面を参照しつつ以下に説明する。
(第1実施形態)
図1は、画像診断装置100の概要図である。画像診断装置100は、カテーテル1、MDU(Motor Drive Unit)2、画像処理装置(情報処理装置)3、表示装置4及び入力装置5を備える。
図1は、画像診断装置100の概要図である。画像診断装置100は、カテーテル1、MDU(Motor Drive Unit)2、画像処理装置(情報処理装置)3、表示装置4及び入力装置5を備える。
カテーテル1は、医療用の柔軟性のある管である。カテーテル1は、先端部にイメージングデバイス11を設け、基端からの駆動によって周方向に回転するイメージングカテーテルと呼ばれるものである。カテーテル1のイメージングデバイス11は、IVUS法の場合は超音波振動子及び超音波センサを含む超音波プローブである。OFDIの場合は、近赤外線レーザ及び近赤外線センサ等を含むOFDIデバイスである。イメージングデバイス11は、その他、可視光等の他の波長の電磁波を用いる他のデバイスを用いてもよい。
MDU2は、カテーテル1の基端に取り付けられる駆動装置であり、検査オペレータの操作に応じて内部モータを駆動することによって、カテーテル1の動作を制御する。
画像処理装置3は、カテーテル1のイメージングデバイス11から出力された信号に基づいて、血管の断層像等、複数の医用画像を生成する。画像処理装置3の構成の詳細については後述する。
表示装置4は、液晶表示パネル、有機EL表示パネル等を用いる。表示装置4は、画像処理装置3によって生成される医用画像と、医用画像に関する情報とを表示する。
入力装置5は、画像処理装置3に対する操作を受け付ける入力インタフェースである。入力装置5は、キーボード、マウス等であってもよいし、表示装置4に内蔵されるタッチパネル、ソフトキー、ハードキー等であってもよい。入力装置5は、音声入力に基づく操作を受け付けてもよい。この場合、入力装置5は、マイクロフォン及び音声認識エンジンを用いる。
図2は、カテーテル1の動作を示す説明図である。図2においてカテーテル1は、血管内に検査オペレータによって、図中に示す冠動脈に挿入されたガイドワイヤWに沿って、管状の血管L内に挿入されている。図2中の血管Lの拡大図において右部は、カテーテル1及びガイドワイヤWの挿入箇所から遠位、左部は近位に対応する。
カテーテル1は、MDU2の駆動により、図中の矢符で示すように、血管L内の遠位から近位へ向けて移動し、且つ、周方向に回転しながら、イメージングデバイス11によって螺旋状に血管内を走査する。
本実施形態の画像診断装置100では、画像処理装置3が、カテーテル1のイメージングデバイス11から出力された1走査毎の信号をそれぞれ取得する。1回の走査は、イメージングデバイス11から検出波を径方向に発し、反射光を検出することであり、螺旋状に走査される。画像処理装置3は、1走査毎の信号を360度分毎に極座標変換することで得られる断層画像(横断面画像)を生成する(図2中、I1)。断層画像I1は、フレーム画像ともいう。断層画像I1の基準点(中心)は、カテーテル1の範囲(画像化されない)に対応する。画像処理装置3は更に、断層画像I1の基準点を通る直線上の画素値を、カテーテル1が血管の長さ方向(長軸方向)に沿って並べた長軸画像(縦断面画像)を生成する(図2中、I2)。画像処理装置3は、得られた断層画像I1、長軸画像I2に基づいて血管の分岐構造を分析処理し、血管の構造を示す二次元又は三次元画像を、医師、検査オペレータあるいは他の医療従事者が視認可能に出力する。
本開示における画像診断装置100では、画像処理装置3が、イメージングデバイス11からの信号から作成される断層画像I1の視認性を高めて出力する。以下、画像処理装置3による処理について詳細を説明する。
図3は、画像処理装置3の構成を示すブロック図である。画像処理装置3は、コンピュータであり、処理部30、記憶部31、及び入出力I/F32を備える。
処理部30は、一又は複数のCPU(Central Processing Unit )、MPU(Micro-Processing Unit )、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等を含む。処理部30は、RAM(Random Access Memory)等の非一時記憶媒体を内蔵し、処理中に生成したデータを非一時記憶媒体に記憶しつつ、記憶部31に記憶されているコンピュータプログラムP3に基づき演算を実行する。
記憶部31は、ハードディスク、フラッシュメモリ等の不揮発性記憶媒体である。記憶部31は、処理部30が読み出すコンピュータプログラムP3、設定データ等を記憶する。また記憶部31は、学習済みのセグメンテーションモデル31Mを記憶する。
コンピュータプログラムP3、セグメンテーションモデル31Mは、装置外の非一時記憶媒体9に記憶されたコンピュータプログラムP9、セグメンテーションモデル91Mを入出力I/F32を介して読み出して複製したものであってもよい。コンピュータプログラムP3、セグメンテーションモデル31Mは、遠隔のサーバ装置が配信するものを画像処理装置3が図示しない通信部を介して取得し、記憶部31に記憶したものであってもよい。
入出力I/F32は、カテーテル1、表示装置4及び入力装置5が接続されるインタフェースである。処理部30は、入出力I/F32を介し、イメージングデバイス11から出力される信号(デジタルデータ)を取得する。処理部30は、入出力I/F32を介し、生成した断層画像I1及び/又は長軸画像I2を含む画面の画面データを表示装置4へ出力する。処理部30は、入出力I/F32を介して、入力装置5に入力された操作情報を受け付ける。
図4は、セグメンテーションモデル31Mの概要図である。セグメンテーションモデル31Mは、画像が入力された場合に、画像に写っている1又は複数の対象物の領域を示す画像を出力するように学習されたモデルである。セグメンテーションモデル31Mは例えば、セマンティックセグメンテーション(Semantic Segmentation )を実施するモデルである。セグメンテーションモデル31Mは、入力された画像中の各画素に対し、各画素がいずれの対象物が写っている範囲の画素であるかを示すデータをタグ付けした画像を出力するように設計されている。
セグメンテーションモデル31Mは例えば、図4に示すように、畳み込み層、プーリング層、アップサンプリング層、及びソフトマックス層を対象的に配置した所謂U-netを用いる。セグメンテーションモデル31Mは、カテーテル1からの信号によって作成した断層画像I1が入力された場合に、タグ画像ISを出力する。タグ画像ISは、血管の内腔範囲、血管の中膜を含む血管の内腔境界と血管境界との間に対応する膜範囲、ガイドワイヤW及びそれによる反響が写っている範囲、並びにカテーテル1に対応する範囲を、その位置の画素に各々異なる画素値(図4中では異なる種類のハッチング及び無地で示す)によってタグを付したものである。セグメンテーションモデル31Mは更に、血管に形成されている繊維性プラークの部分、脂質性プラークの部分、石灰化プラークの部分、といった病変部等を識別できてもよい。
セグメンテーションモデル31Mは上述したようにセマンティックセグメンテーション、U-netを例示したがこれに限らないことは勿論である。その他、セグメンテーションモデル31Mは、インスタンスセグメンテーション等による個別認識処理を実現するモデルであってもよい。セグメンテーションモデル31Mは、U-netベースに限らず、SegNet、R-CNN、又は他のエッジ抽出処理との統合モデル等をベースにしたモデル使用してもよい。
処理部30は、セグメンテーションモデル31Mに断層画像I1を入力して得られるタグ画像ISにおける画素値とその画像内の座標とによって、断層画像I1に写っている血管の血液(内腔範囲)、内膜範囲、中膜範囲、外膜範囲を識別できる。
図5は、画像処理装置3による情報処理手順の一例を示すフローチャートである。画像処理装置3の処理部30は、検査のために医療事業者がカテーテル1を血管に挿入する手技の実施中に、カテーテル1のイメージングデバイス11から信号が出力されると以下の処理を開始する。
処理部30は、カテーテル1のイメージングデバイス11からの信号(データ)を所定量(例えば360度分)取得する都度(ステップS101)、矩形に並べた信号を極座標変換(逆変換)して断層画像I1を生成する(ステップS102)。
処理部30は、ステップS101で取得した信号データと、断層画像I1とを長軸上の位置に対応付けて記憶部31に記憶する(ステップS103)。
処理部30は、断層画像I1をセグメンテーションモデル31Mへ入力する(ステップS104)。処理部30は、セグメンテーションモデル31Mから出力されるタグ画像ISに基づき、断層画像I1の各範囲の領域画像を抽出する(ステップS105)。処理部30は、抽出した各範囲の領域画像を、長軸上の位置に対応付けて記憶部31に記憶する(ステップS106)。
処理部30は、抽出した各範囲の領域画像に対し、設定に基づき、各範囲の種類に応じた輝度の変更処理(画像処理)を実行する(ステップS107)。ステップS107における輝度の変更処理の設定は、記憶部31に記憶されている。設定は、例えば、セグメンテーションモデル31Mにて識別される範囲それぞれを識別する識別データに対応付けられた輝度の係数又は加減値(マージン)である。輝度を減少させる場合、処理部30は1未満の係数を輝度に乗ずるか、若しくは加減値を輝度から減算する。輝度を増加させる場合、処理部30は1以上の係数を輝度に乗ずるか、若しくは加減値を輝度に加算する。
ステップS107において処理部30は、例えば中膜範囲の輝度を減少(暗く)させ、内腔(血液)範囲の輝度を増加(明るく)させる。ステップS107において処理部30は、例えば内膜範囲に輝度を減少させ、中膜範囲の輝度を増加させる。
処理部30は、輝度を変更した後の領域画像を結合することによってコントラストを強調させた補正断層画像を作成し(ステップS108)、作成した補正断層画像を、表示装置4に表示中の画面に出力する(ステップS109)。
ステップS109において処理部30は、各長軸上の位置に対応する補正断層画像のみならず、断層画像I1から得られる解剖学的特徴を示すデータを出力するとよい。処理部30は例えば、内腔範囲の内腔境界から内側における最大径、最小径、平均内径等の数値を算出して出力する。処理部30は更に、膜範囲の外側輪郭を血管境界として算出し、その最大径、最小径、及び平均径を算出してもよい。処理部30は、例えば、内腔境界及び血管境界を算出するとともに、断層画像I1における内腔境界と血管境界との間の画素値に基づき、繊維性プラーク範囲、脂質性プラーク範囲、石灰化プラーク範囲等を決定し、これらの範囲を示す画像を補正断層画像に重畳させて表示してもよい。処理部30は、、繊維性プラーク範囲、脂質性プラーク範囲、又は石灰化プラーク範囲を決定できた場合、その断面積の血管境界内側の面積に対する割合(plaque burden)を算出し、補正断層画像と併せて表示させてもよい。
処理部30は、カテーテル1のイメージングデバイス11による走査を完了したか否かを判断する(ステップS110)。走査を完了していないと判断された場合(S110:NO)、処理部30は、処理をステップS101へ戻し、次の断層画像I1を生成する。
走査を完了したと判断された場合(S110:YES)、処理を終了する。
走査を完了した後は、ステップS103、及びS106によって血管の長軸上の位置に対応付けて断層画像I1及び各領域画像が記憶されている。したがって、これらの画像に基づいて、ステップS107-S109の処理によって事後的に、任意の位置における断層画像I1に対する補正断層画像を出力させることができる。
図6は、表示装置4に表示される補正断層画像の例を示す。図6Aは、補正断層画像の一例を示し、図6Bは、補正断層画像の他の例を示す。図6Cは、比較例としてコントラストが調整される前の断層画像I1(図4)を示す。
図6Aは、中膜範囲を強調するための輝度の変更処理(画像処理)が実行された画像である。図6Aに示す画像は、中膜範囲の輝度を減少(暗く)し、内腔(血液)範囲の輝度を増加(明るく)する変更処理がされている。これにより、中膜範囲が明確になり、外弾性板(EEM:External Elastic Membrane )が強調される。医師は、図6Cに示す断層画像I1をそのまま視認するよりも、外弾性板を把握しやすくなる。
図6Bは、内膜範囲を強調するための輝度の変更処理が実行された画像である。図6Bに示す画像では、内膜範囲の輝度を減少(暗く)させ、内腔(血液)範囲の輝度を増加させ、中膜範囲の輝度を更に増加させた輝度の変更処理がされている。これにより、暗く写りやすい中膜(EEM)より内側の内膜の範囲を把握しやすくなる。
このように、画像処理装置3の処理部30は、セグメンテーションモデル31Mによって判別された各範囲を示すタグ画像ISを表示するのではなく、各領域の輝度を加減してコントラストを調整した補正断層画像を表示する。これにより、各領域内での画像の質感を残したまま、領域の区別を視認しやすくすることができる。
画像処理装置3の処理部30は、図5に示した処理手順のうち、ステップS107における各範囲の種類に応じた輝度の変更処理に加えて、範囲のエッジを抽出する処理を、いずれかの領域画像に対して加えてもよい。例えば処理部30は、病変部(プラーク)の範囲の領域画像に対し、プラークの輪郭を強調するエッジ抽出処理を実行してもよい。
図7は、表示装置4に表示される補正断層画像の他の例を示す。図7Aは、補正断層画像の一例を示し、図7Bは、比較例としてコントラストが調整される前の断層画像I1(図4)である。
図7Aは、中膜範囲の輝度を減少(暗く)させ、内腔(血液)範囲の輝度を増加(明るく)させた輝度の変更処理(画像処理)が実行された上で、プラークの範囲のエッジを強調させた画像である。これにより、中膜範囲が明確となり、外弾性板及びプラーク範囲が把握しやすくなる。
(第2実施形態)
第2実施形態では、表示装置4で表示中の断層画像I1に対し、強調させる範囲の選択を受け付けた上で、補正断層画像を出力する。第2実施形態における画像診断装置100及び画像処理装置3の構成は、上述の選択を受け付けるための画像処理装置3による処理手順の一部以外、第1実施形態の画像診断装置100及び画像処理装置3の構成と同様である。したがって、第2実施形態における画像処理装置3の構成のうち、第1実施形態と共通する構成については同一の符号を付して詳細な説明を省略する。
第2実施形態では、表示装置4で表示中の断層画像I1に対し、強調させる範囲の選択を受け付けた上で、補正断層画像を出力する。第2実施形態における画像診断装置100及び画像処理装置3の構成は、上述の選択を受け付けるための画像処理装置3による処理手順の一部以外、第1実施形態の画像診断装置100及び画像処理装置3の構成と同様である。したがって、第2実施形態における画像処理装置3の構成のうち、第1実施形態と共通する構成については同一の符号を付して詳細な説明を省略する。
図8及び図9は、第2実施形態の画像処理装置3による情報処理手順の一例を示すフローチャートである。画像処理装置3の処理部30は、検査のために医療事業者がカテーテル1を血管に挿入する手技の実施中に、カテーテル1のイメージングデバイス11から信号が出力されると以下の処理を開始する。図8及び図9のフローチャートに示す処理手順のうち、第1実施形態の図5のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
第2実施形態において処理部30は、領域画像を抽出して記憶した後(S106)、補正断層画像を表示する選択がされたか否か(既にされているか否か)を判断する(ステップS111)。
補正断層画像を表示する選択がされていないと判断された場合(S111:NO)、処理部30は、ステップS102で生成した断層画像I1を表示装置4に表示中の画面に出力し(ステップS112)、処理をステップS110へ進める。
補正断層画像を表示する選択がされていると判断された場合(S111:YES)、処理部30は、ステップS107-S109の処理を実行する。
処理部30は、表示装置4に補正断層画像を出力した後(S109)、入力装置5により、補正断層画像を表示しない選択がされたか否かを判断する(ステップS113)。補正断層画像を表示しない選択がされたと判断された場合(S113:YES)、処理部30は処理をステップS110へ進める。この場合、以後、補正断層画像を表示する選択が再度されるまで、ステップS111において選択がされていないと判断される。
補正断層画像を表示しない選択はされていないと判断された場合(S113:NO)、処理部30は、強調する範囲の選択を受け付けたか否かを判断する(ステップS114)。選択の方法は、表示装置4の画面上に表示されている強調範囲の選択メニューに対する入力装置5による操作であってもよいし、画面上に表示されている検査目的の選択メニューに対する操作であってもよい。
ステップS114にて選択を受け付けたと判断された場合(S114:YES)、処理部30は、ステップS107の輝度の変更処理の設定を変更し(ステップS115)、ステップS110へ処理を進める。以後、変更後の設定に基づき、補正断層画像を表示する選択がされている状態で、輝度が変更された補正断層画像が表示装置4に表示される。
ステップS114にて選択を受け付けていないと判断された場合(S114:NO)、処理部30は処理をそのままステップS110へ進める。
走査を完了した後は、ステップS103、及びS106によって血管の長軸上の位置に対応付けて断層画像I1及び各領域画像が記憶されている。したがって、これらの画像に基づいて、ステップS107-S109,S115の処理によって事後的に、任意の位置における断層画像I1に対する補正断層画像を出力させ、任意の位置で強調させる範囲を変更することができる。
図10は、表示装置4における表示例を示す説明図である。図10は、図8及び図9のフローチャートのステップS111によって選択を受け付ける画面400を示す。表示装置4に表示されている画面400には、図10に示すように、補正断層画像401が表示されている。補正断層画像401の側方に、設定変更メニュー402が表示されている。設定変更メニュー402は、入力装置5により選択すると対象のリストが表示するコントロールである。リストから対象の範囲、つまり内膜、中膜、外膜、内腔等の範囲を識別する項目を入力装置5で選択すると、処理部30は、選択された範囲が強調された補正断層画像に切り替える。
図10では、中膜を強調することを設定変更メニュー402で選択した場合に、左下に示すように中膜に相当する領域が強調されるようにコントラストを調整された補正断層画像401が表示されている。同様に、内膜を強調することを設定変更メニュー402で選択した場合に、右下に示すように内膜に相当する領域が強調されるようにコントラストを調整された補正断層画像401が表示されている。
設定変更メニュー402の内容は、強調させたい対象の範囲を選択することに限られない。例えば設定は、検査の目的(プラン)に応じた、いずれの範囲の輝度をどれだけ上昇させ、いずれの範囲の輝度をどれだけ下降させるかのデータであってもよい。この場合、設定変更メニュー402は、検査の目的のリストを受け付ける。例えば、「内腔測定」の目的が選択された場合、処理部30は、内膜を強調させた補正断層画像を作成して出力する。
また、設定変更メニュー402は、補正断層画像401上の箇所を入力装置5に対応するポインタで選択されて実現されてもよい。例えば図10の表示例では、内膜の範囲を入力装置5で選択すると、処理部30g、内膜を強調した補正断層画像に切り替える。
このようにして、表示装置4で表示しながら手技中に、医療事業者の操作に応じてリアルタイムにコントラストの調整具合を変更して表示させることが可能である。
(第3実施形態)
第3実施形態では、イメージングデバイス11が、異なる波長の波(超音波、光)の送信器及び受信器をそれぞれ含むデュアルタイプのカテーテルデバイスである。イメージングデバイス11は、IVUS法の超音波振動子及び超音波センサを含む超音波プローブと、近赤外線レーザ及び近赤外線センサ等を含むOFDIデバイスとを含む。デュアルタイプの対象は、IVUS及びOFDIの組み合わせに限らず、エコー等であってもよい。
第3実施形態では、イメージングデバイス11が、異なる波長の波(超音波、光)の送信器及び受信器をそれぞれ含むデュアルタイプのカテーテルデバイスである。イメージングデバイス11は、IVUS法の超音波振動子及び超音波センサを含む超音波プローブと、近赤外線レーザ及び近赤外線センサ等を含むOFDIデバイスとを含む。デュアルタイプの対象は、IVUS及びOFDIの組み合わせに限らず、エコー等であってもよい。
第3実施形態の画像処理装置3は、カテーテル1のイメージングデバイス11から出力された1走査毎のIVUS及びOFDIの信号をそれぞれ取得し、IVUSの医用画像と、OFDIの医用画像とをそれぞれ長軸方向に複数生成する。画像処理装置3は、IVUS及びOFDIそれぞれについて得られた医用画像(断層画像及び/又は長軸画像)に基づいて血管の分岐構造を分析処理し、医用画像を見やすく加工し、医師、検査オペレータあるいは他の医療従事者が視認可能に出力する。
第3実施形態における画像診断装置100及び画像処理装置3の構成は、上述したイメージングデバイス11がデュアルタイプであること、それに伴う画像処理装置3による処理手順の一部以外は、第1実施形態の画像診断装置100及び画像処理装置3の構成と同様である。したがって、画像処理装置3の構成について、第1実施形態の画像処理装置3の構成と共通する構成については同一の符号を付して詳細な説明を省略する。
図11及び図12は、第3実施形態の画像処理装置3による情報処理手順の一例を示すフローチャートである。画像処理装置3の処理部30は、検査のために医療事業者がカテーテル1を血管に挿入する手技の実施中に、カテーテル1のイメージングデバイス11から信号が出力されると以下の処理を開始する。
処理部30は、カテーテル1のイメージングデバイス11からの信号(データ)を、IVUS及びOFDIの両方について、所定量(例えば360°)分取得する都度(ステップS201)、断層画像I11,I12を生成する(ステップS202)。ステップS202において処理部30は、IVUS及びOFDIそれぞれについて、矩形に並べた信号を極座標変換(逆変換)して断層画像I11,I12を生成する。
処理部30は、IVUS及びOFDIそれぞれについて、ステップS201で取得した信号データと、ステップS202で生成した断層画像I11,I12とを血管の長軸上の位置に対応付けて記憶部31に記憶する(ステップS203)。
処理部30は、IVUS用のセグメンテーションモデル31Mへ、IVUSの断層画像I11を入力する(ステップS204)。処理部30は、セグメンテーションモデル31Mから出力されるタグ画像ISに基づき、IVUSで得られた断層画像I11の各範囲の領域画像を抽出する(ステップS205)。処理部30は、抽出した各範囲の領域画像を、長軸上の位置に対応付けて記憶部31に記憶する(ステップS206)。
処理部30は、OFDI用のセグメンテーションモデル31Mへ、OFDIの断層画像I12を入力する(ステップS207)。処理部30は、セグメンテーションモデル31Mから出力されるタグ画像ISに基づき、OFDIで得られた断層画像I12の各範囲の領域画像を抽出する(ステップS208)。処理部30は、抽出した各範囲の領域画像を、長軸上の位置に対応付けて記憶部31に記憶する(ステップS209)。
処理部30は、IVUSの断層画像I11から得られた各範囲の領域画像と、OFDIの断層画像I12から得られた各範囲の領域画像とを比較し、相互に必要な領域画像を抽出する(ステップS210)。ステップS210において処理部30は、基本的にIVUSの断層画像I11から得られた、外膜範囲、中膜範囲、内膜範囲、内腔範囲、プラーク範囲として識別された領域画像を抽出する。処理部30はステップS210において、OFDIで効果的に撮像される範囲(石灰性プラーク)として識別された領域画像を抽出する。
処理部30は、抽出された領域画像それぞれについて、各範囲の種類に応じた輝度の変更処理(画像処理)を実行する(ステップS211)。ステップS211の処理は、第1実施形態の図5に示したステップS107の処理と同様である。
処理部30は、輝度を変更した後の領域画像を結合することによって、2つのイメージング技術に基づくコントラストを強調させた補正断層画像を作成し(ステップS212)、作成した補正断層画像を、表示装置4に表示中の画面に出力する(ステップS213)。
処理部30は、カテーテル1のイメージングデバイス11による走査を完了したか否かを判断する(ステップS214)。走査を完了していないと判断された場合(S214:NO)、処理部30は、処理をステップS201へ戻し、次の断層画像I1を生成する。
走査を完了したと判断された場合(S214:YES)、処理を終了する。
図11及び図12に示した処理手順による補正断層画像の例を示す。図13は、第3実施形態の表示装置4に表示される補正断層画像の一例を示す。図13に示す補正断層画像は、IVUSの断層画像I11の各領域画像に、OFDIの断層画像I12において、石灰化プラークの範囲として識別された領域画像が結合されている。図13の補正断層画像では、OFDIで得られた石灰化プラークの範囲の領域画像に対して輝度を低下する処理が行なわれている。同様に図13の補正断層画像では、IVUSの断層画像I11にて識別された中膜範囲の領域画像に対して輝度を低下する処理が行なわれ、他の範囲の領域画像には輝度を低下又は上昇させる処理が行なわれている。これにより、中膜と石灰化プラークとの位置関係が明瞭な補正断層画像が得られる。
図14は、表示装置4に表示される補正断層画像の他の一例を示す。図14に示す補正断層画像は、OFDIの断層画像12の各領域画像に、IVUSの断層画像I11にて脂質性プラークの範囲として識別された領域画像が結合されている。図14の補正断層画像では、IVUSで得られた脂質性プラークの範囲の領域画像に対して輝度を低下させる処理が行なわれている。同様に、図14の補正断層画像では、OFDIの断層画像12にて識別された内腔範囲の領域画像に対して輝度を低下する処理が行なわれ、他の範囲の領域画像には輝度を低下又は上昇させる処理が行なわれている。これにより、内腔と脂質性プラークとの位置関係が明瞭な補正断層画像が得られる。
第3実施形態で示したように、デュアル式のイメージングデバイス11を用いる場合は、同時に同一の管腔器官を撮像した信号が得られるので、より正確な判断を支援できるように、両方のデバイスの長所を取り込んだ補正断層画像を表示することが可能になる。例えば、IVUSでは鮮明に写りづらい硬い病変の画像に、OFDIによって撮像された鮮明な病変の画像を補完させた断層画像が得られる。逆に、OFDIによって撮像された詳細な内腔表面付近の画像に、IVUSでより深くまで撮影した柔らかな部分の画像を補完させた断層画像が得られる。それぞれの元の画像も記憶しておき、そのままの画像も表示できる。これにより、より迅速に検査を行なって患者の負担を低減しつつ、正確な診断が可能となる。
(第4実施形態)
第4実施形態では、第3実施形態同様に、デュアル式のイメージングデバイス11を用いる。第4実施形態では、異なる種類のイメージング技術によって得られた信号に基づく各々の画像から、双方の位置を合わせ、且つ、相互により鮮明に写った範囲を抽出して結合した補正後断層画像を、学習モデルを用いて生成する。
第4実施形態では、第3実施形態同様に、デュアル式のイメージングデバイス11を用いる。第4実施形態では、異なる種類のイメージング技術によって得られた信号に基づく各々の画像から、双方の位置を合わせ、且つ、相互により鮮明に写った範囲を抽出して結合した補正後断層画像を、学習モデルを用いて生成する。
図15は、第4実施形態の画像処理装置3の構成を示すブロック図である。第4実施形態において画像処理装置3は、記憶部31にコンピュータプログラムP3、第1セグメンテーションモデルM31、第2セグメンテーションモデルM32、及び補正画像生成モデル33Mを記憶している。
第1セグメンテーションモデル31M、第2セグメンテーションモデル32M及び補正画像生成モデル33Mは、装置外の非一時記憶媒体9に記憶された第1セグメンテーションモデル91M、第2セグメンテーションモデル92M及び補正画像生成モデル93Mを入出力I/F32を介して読み出して複製したものであってもよい。第1セグメンテーションモデル31M、第2セグメンテーションモデル32M及び補正画像生成モデル33Mは、遠隔のサーバ装置が配信するものを画像処理装置3が図示しない通信部を介して取得し、記憶部31に記憶したものであってもよい。
画像処理装置3のその他の構成については、第1実施形態に示した構成と同様である。したがって、第4実施形態の画像診断装置100及び画像処理装置3の構成のうち、第1実施形態の構成と共通する構成については同一の符号を付して詳細な説明を省略する。
第1セグメンテーションモデルM31は、デュアル式のイメージングデバイス11から得られるデータのうち、IVUSのプローブから得られる信号に基づく断層画像I11に対して領域を認識したタグ画像ISを出力するように学習されたモデルである。第2セグメンテーションモデルM32は、デュアル式のイメージングデバイス11から得られるデータのうち、OFDIデバイスから得られる信号に基づく断層画像I12に対して領域を認識したタグ画像ISを出力するように学習されたモデルである。
補正画像生成モデル33Mは、IVUSの断層画像I11、第1セグメンテーションモデルM31から出力されたタグ画像IS、OFDIの断層画像I12、第2セグメンテーションモデルM32から出力されたタグ画像ISを入力した場合に、補正断層画像が出力されるように学習されている。
図16は、補正画像生成モデル33Mの概要図である。補正画像生成モデル33Mは、入力される2つの断層画像I11,I12から、補正断層画像を出力するように学習されたモデルである。補正画像生成モデル33Mは例えば、図16に示すように、IVUSの断層画像I11と、断層画像I11に対しセグメンテーションモデル31Mから出力された各範囲を識別した領域画像(タグ画像IS)と、OFDIの断層画像I12と、断層画像I12に対しセグメンテーションモデル32Mから出力された各範囲を識別した領域画像(タグ画像IS)とが入力される入力層331を備える。補正画像生成モデル33Mは、各画像に対する畳み込み層、プーリング層等をふくみ特徴量を導出するとともに、それらの特徴量から画像を生成するためのアップサンプリング層等を含む中間層332を備える。補正画像生成モデル33Mは、中間層332における演算によって補正断層画像を出力する出力層333を備える。補正画像生成モデル33Mは、オートエンコーダを用いてもよい。
補正画像生成モデル33Mは、同時に得られたIVUS及びOFDIの信号に基づき生成された断層画像I11、I12、それぞれのタグ画像ISを入力とし、断層画像I11、I12の両者に基づき組織又は病変部の領域が確定した結果(画像)を出力とする教師データに基づき学習される。組織又は病変部の領域の確定は、予め医師によって実施される。又は、第1実施形態、第2実施形態の設定に基づく画像処理によって生成された補正断層画像を出力とする教師データによって学習されてもよい。
上述の教師データを用い、画像処理装置3又は他の装置が予め、IVUS及びOFDIの信号に基づく断層画像I11、I12及びそれらのタグ画像ISが入力された場合に、結果の画像が得られるように中間層332のパラメータを学習する。
第4実施形態では、このようにして得られる学習済みの補正画像生成モデル33Mを用いて、補正断層画像を生成する。
補正画像生成モデル33Mは、図10に示したように、いずれの範囲を強調させるか、どのようなプランの検査であるのか、という目的に応じて異なるモデルとして学習されてもよい。
補正画像生成モデル33Mに入力される断層画像I11及び断層画像I12は、同時に得られたIVUS及びOFDIの信号に基づき生成されていても、画像をそのまま重ねた場合に各領域が一致するとは限らない。そこで補正画像生成モデル33Mに入力する断層画像I11,I12には、前処理を実行しておくことが好ましい。前処理は、断層画像I11に対する断層画像I12の中心合わせ、回転、拡縮である。前処理のパラメータ(中心をずらす量、回転量、拡縮倍率)は、検査オペレータによって画像処理装置3にて予め設定されてもよい。前処理は、後述するように学習モデルを用いて実施されてもよい。
図17は、補正画像生成モデル33Mの他の一例の概要図である。他の例の補正画像生成モデル33Mは、前段階に位置補正モデルが接続される。位置補正モデルは、同時に得られたIVUS及びOFDIの信号に基づき生成された断層画像I11、I12、それぞれのタグ画像ISが入力された場合に、上述の前処理のパラメータ(位置補正量)を出力するモデルである。位置補正モデルは、断層画像I11、I12及びそれぞれのタグ画像ISを入力とし、前処理のパラメータ(位置補正量)を出力とする教師データに基づき学習される。位置補正モデルは、断層画像I11,I12の一方を中心ずらし、回転及び拡縮した前処理後の画像を出力するように学習されてもよい。
図17において、補正画像生成モデル33Mの画像生成モデルは、断層画像I11、I12、及びそれぞれのタグ画像ISに加え、位置補正量を入力層331に入力された場合に、補正断層画像を出力するように学習される。これにより、更に正確な補正断層画像を自動的に作成することが可能である。
図18及び図19は、第4実施形態の画像処理装置3による情報処理手順の一例を示すフローチャートである。図18及び図19のフローチャートに示す処理手順のうち、第3実施形態の図11及び図12のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
第4実施形態において画像処理装置3の処理部30は、IVUSの断層画像、それに対する領域画像(タグ画像IS)、OFDIの断層画像、及びそれに対する領域画像(タグ画像IS)を取得すると(S201-S209)、それらを補正画像生成モデル33Mへ入力する(ステップS220)。
処理部30は、補正画像生成モデル33Mから出力される補正断層画像を、表示装置4に表示させ(ステップS221)、処理をステップS214へ進める。
このように、2つのイメージング技術によって得られる断層画像を相互に補完するための画像処理を、学習モデルを用いて実施することも可能である。
上述のように開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。
100 画像診断装置
1 カテーテル
11 イメージングデバイス
3 画像処理装置
30 処理部
31 記憶部
31M,32M セグメンテーションモデル
33M 補正画像生成モデル
P3,P9 コンピュータプログラム
4 表示装置
5 入力装置
1 カテーテル
11 イメージングデバイス
3 画像処理装置
30 処理部
31 記憶部
31M,32M セグメンテーションモデル
33M 補正画像生成モデル
P3,P9 コンピュータプログラム
4 表示装置
5 入力装置
Claims (11)
- コンピュータに、
管腔器官に挿入されるカテーテルが備えるイメージングデバイスからの信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを用い、
新たに断層画像を生成し、
生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、
抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、
画像処理後の領域画像を利用して補正断層画像を生成する
処理を実行させるコンピュータプログラム。 - 前記コンピュータに、前記画像処理として、前記領域画像毎に輝度を上昇又は下降させる処理を実行させる
請求項1に記載のコンピュータプログラム。 - 前記コンピュータに、前記画像処理として、前記組織又は病変部の範囲のうち、特定の範囲の領域画像にエッジ強調処理を実行させる
請求項1に記載のコンピュータプログラム。 - 前記コンピュータに、
前記断層画像に写っている前記組織又は病変部から、強調する範囲の選択を受け付け、
前記画像処理として、選択された前記組織又は病変部の範囲を強調する
処理を実行させる請求項1に記載のコンピュータプログラム。 - 前記コンピュータに、
前記イメージングデバイスからの信号に基づく前記断層画像を表示装置で表示中に、
前記断層画像上で範囲の選択を受け付ける
処理を実行させる請求項4に記載のコンピュータプログラム。 - 前記コンピュータに、
前記カテーテルを用いた検査目的の選択を受け付け、
前記画像処理として、選択された検査目的に応じた前記組織又は病変部の範囲を強調する
処理を実行させる請求項1に記載のコンピュータプログラム。 - 前記イメージングデバイスは、追加のイメージングデバイスを備え、
前記コンピュータに、
追加のイメージングデバイスからの信号に基づく第2の断層画像に対して、前記第2の断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを更に用い、
前記第2の断層画像に対して分別された範囲の領域画像を用い、前記補正断層画像を生成する
処理を実行させる請求項1に記載のコンピュータプログラム。 - コンピュータに、
異なる種類のイメージングデバイスからの信号に基づく複数の断層画像と、前記複数の断層画像それぞれに対応する前記組織又は病変部の範囲を分別するデータとが入力された場合に、各範囲のコントラストを強調させる補正断層画像を出力するように学習済みの補正画像生成モデルを用い、
前記補正断層画像を生成する処理を実行させる
請求項7に記載のコンピュータプログラム。 - 管腔器官に挿入されるカテーテルが備える異なる種類のイメージングデバイスからの信号に基づく前記管腔器官の複数の断層画像と、前記複数の断層画像それぞれに対して前記断層画像に写っている組織又は病変部の範囲を分別した分別済みのデータとを入力する入力層と、
前記組織又は病変部のうち、特定の範囲を強調した補正断層画像を出力する出力層と、
複数の断層画像、前記複数の断層画像それぞれに対して前記断層画像に写っている組織又は病変部の範囲を分別するデータ、及び前記データに基づいて複数の断層画像から特定の組織又は病変部を強調させた補正断層画像のセットを教師データとして学習済みの中間層とを備え、
新たに前記イメージングデバイスからの信号に基づき得られた複数の断層画像と、前記複数の断層画像それぞれに含まれる前記組織又は病変部の範囲を分別したデータとが前記入力層に入力された場合に、補正断層画像を前記出力層から出力するよう、コンピュータを機能させる
学習モデル。 - 管腔器官に挿入されるカテーテルに備えられたイメージングデバイスによる走査信号を取得するコンピュータが、
前記走査信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを用い、
新たに走査信号を取得した場合に、新たに断層画像を生成し、
生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、
抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、
画像処理後の領域画像を利用して補正断層画像を生成する
情報処理方法。 - 管腔器官に挿入されるカテーテルに備えられたイメージングデバイスによる走査信号を取得する情報処理装置において、
前記走査信号に基づく前記管腔器官の断層画像が入力された場合に、前記断層画像に写っている組織又は病変部の範囲を分別するデータを出力する学習済みのモデルを記憶する記憶部と、
前記走査信号に基づく画像処理を実行する処理部と
を備え、
前記処理部は、
新たに走査信号を取得した場合に、新たに断層画像を生成し、
生成した断層画像を前記モデルに入力して得られるデータに基づき、前記組織又は病変部の範囲それぞれの領域画像を前記断層画像から抽出し、
抽出された領域画像それぞれに前記組織又は病変部の種類に応じた画像処理を実行し、
画像処理後の領域画像を利用して補正断層画像を生成する
情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022156646A JP2024050056A (ja) | 2022-09-29 | 2022-09-29 | コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022156646A JP2024050056A (ja) | 2022-09-29 | 2022-09-29 | コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024050056A true JP2024050056A (ja) | 2024-04-10 |
Family
ID=90622336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022156646A Pending JP2024050056A (ja) | 2022-09-29 | 2022-09-29 | コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024050056A (ja) |
-
2022
- 2022-09-29 JP JP2022156646A patent/JP2024050056A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220233081A1 (en) | System and method for instant and automatic border detection | |
JP6824896B2 (ja) | 血管内の特徴を検出し且つ表示するためのシステム及び方法 | |
WO2009149131A1 (en) | Quantitative methods for obtaining tissue characteristics from optical coherence tomography images | |
JP7135050B2 (ja) | 血管内画像処理のための血管内画像処理装置、方法及び非一時的記憶媒体 | |
EP4014885A1 (en) | Diagnosis assistance device, diagnosis assistance system, and diagnosis assistance method | |
US8805043B1 (en) | System and method for creating and using intelligent databases for assisting in intima-media thickness (IMT) | |
WO2021199968A1 (ja) | コンピュータプログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
WO2023054467A1 (ja) | モデル生成方法、学習モデル、コンピュータプログラム、情報処理方法及び情報処理装置 | |
JP2017131348A (ja) | 画像表示装置およびその制御方法、x線不透過マーカ検出方法 | |
JP2022055170A (ja) | コンピュータプログラム、画像処理方法及び画像処理装置 | |
JP2024050056A (ja) | コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 | |
US20220218309A1 (en) | Diagnostic assistance device, diagnostic assistance system, and diagnostic assistance method | |
WO2024071121A1 (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 | |
WO2024071251A1 (ja) | コンピュータプログラム、情報処理方法、情報処理装置、及び学習モデル | |
WO2021199961A1 (ja) | コンピュータプログラム、情報処理方法及び情報処理装置 | |
JP2023051175A (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 | |
WO2022202323A1 (ja) | プログラム、情報処理方法及び情報処理装置 | |
US20220028079A1 (en) | Diagnosis support device, diagnosis support system, and diagnosis support method | |
US20240013386A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
WO2024071322A1 (ja) | 情報処理方法、学習モデルの生成方法、コンピュータプログラム及び情報処理装置 | |
WO2023054442A1 (ja) | コンピュータプログラム、情報処理装置及び情報処理方法 | |
US20240008849A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
WO2023100838A1 (ja) | コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法 | |
WO2023189260A1 (ja) | コンピュータプログラム、情報処理装置及び情報処理方法 | |
JP2023049951A (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 |