JP2024011742A - Medical image processing device, medical image processing method, and program - Google Patents
Medical image processing device, medical image processing method, and program Download PDFInfo
- Publication number
- JP2024011742A JP2024011742A JP2022113987A JP2022113987A JP2024011742A JP 2024011742 A JP2024011742 A JP 2024011742A JP 2022113987 A JP2022113987 A JP 2022113987A JP 2022113987 A JP2022113987 A JP 2022113987A JP 2024011742 A JP2024011742 A JP 2024011742A
- Authority
- JP
- Japan
- Prior art keywords
- medical image
- segmentation
- image processing
- false detection
- detection candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 83
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000011218 segmentation Effects 0.000 claims abstract description 125
- 238000001514 detection method Methods 0.000 claims abstract description 84
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 238000010801 machine learning Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 109
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 101100121112 Oryza sativa subsp. indica 20ox2 gene Proteins 0.000 description 14
- 101100121113 Oryza sativa subsp. japonica GA20OX2 gene Proteins 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
本明細書及び図面に開示の実施形態は、医用画像処理装置、医用画像処理方法、及びプログラムに関する。 Embodiments disclosed in this specification and the drawings relate to a medical image processing device, a medical image processing method, and a program.
医師等のユーザが利用するために医用画像をセグメンテーションするため、例えば、複数の異なるセグメンテーション方法を医用画像に適用し、複数のセグメンテーション結果からユーザに好適なセグメンテーション方法を選択させる技術がある。しかし、この技術では、セグメンテーション結果の全部または一部に多くの誤検出が含まれた場合に、再セグメンテーションをユーザに求めることとなる。 In order to segment medical images for use by users such as doctors, for example, there is a technique that applies a plurality of different segmentation methods to the medical image and allows the user to select a suitable segmentation method from the plurality of segmentation results. However, with this technique, if all or part of the segmentation results include many false positives, the user is required to perform re-segmentation.
他の技術として、医用画像を自動セグメンテーションし、品質が低いとモデルが判定した場合に、品質が低い代表スライスを1枚選択し、代表スライスに対する弱教師データの入力をユーザに求め、入力に応じてセグメンテーション結果を修正する技術がある。しかし、この技術では、品質が低い代表スライスを1枚提示するのみである。このため、セグメンテーション結果に誤検出が多い場合に、修正する位置を判断するユーザの手間を大きくすることとなる。 Another technique is to automatically segment medical images, and if the model determines that the quality is low, it selects one representative slice with low quality, asks the user to input weakly supervised data for the representative slice, and responds to the input. There are techniques for correcting segmentation results. However, this technique only presents one representative slice with low quality. For this reason, when there are many false positives in the segmentation results, the user's effort to determine the position to be corrected increases.
本明細書及び図面に開示の実施形態が解決しようとする課題は、医用画像の再セグメンテーションにかかる手間を軽減することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 The problem to be solved by the embodiments disclosed in this specification and the drawings is to reduce the effort required for resegmenting medical images. However, the problems to be solved by the embodiments disclosed in this specification and the drawings are not limited to the above problems. Problems corresponding to the effects of each configuration shown in the embodiments described later can also be positioned as other problems.
実施形態の医用画像処理装置は、取得部と、特定部と、表示制御部と、受付部と、再セグメンテーション部と、を持つ。取得部は、セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得する。特定部は、前記セグメンテーション結果に関する誤検出候補領域を特定する。表示制御部は、前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる。受付部は、ユーザから前記誤検出候補領域に関するラベリングを受け付ける。再セグメンテーション部は、前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する。 The medical image processing apparatus of the embodiment includes an acquisition section, a specification section, a display control section, a reception section, and a re-segmentation section. The acquisition unit acquires a medical image including a target region to be segmented, and information regarding a segmentation result of the target region included in the medical image. The specifying unit specifies a false detection candidate region regarding the segmentation result. The display control unit displays information regarding the erroneous detection candidate area in association with the medical image. The accepting unit accepts labeling regarding the false detection candidate area from the user. The re-segmentation unit performs segmentation of the target area based on the labeling.
以下、図面を参照しながら、実施形態の医用画像処理装置、医用画像処理方法、及びプログラムについて説明する。 Hereinafter, a medical image processing apparatus, a medical image processing method, and a program according to embodiments will be described with reference to the drawings.
(第1の実施形態)
図1は、第1の実施形態の病院内システム1の構成の一例を示すブロック図である。第1の実施形態の病院内システム1は、例えば、病院情報システム(Hospital Information System:以下、HIS)10と、放射線科情報システム(Radiology Information System:以下、RIS)20と、医用画像診断装置(モダリティ)30と、画像保存通信システム(PACS:Picture Archiving and Communication System)40と、医用画像処理装置100とを備える。
(First embodiment)
FIG. 1 is a block diagram showing an example of the configuration of an in-
病院内システム1においては、被検体の医用画像がモダリティ30により撮像される。モダリティ30により撮像された医用画像は、モダリティ30において自動セグメンテーションされる。自動セグメンテーションは、医用画像処理装置100などのモダリティ30以外の装置で実行されてもよい。医用画像処理装置100では、モダリティ30や他の装置で実行されたセグメンテーション結果からさらに再セグメンテーションが実行されて最終的なセグメンテーション結果が医用画像とともにユーザに提供される。提供された医用画像及びセグメンテーション結果は、ユーザによる読影や診断に利用される。
In the in-
HIS10は、病院内での業務支援を行うコンピュータシステムである。具体的には、HIS10は、各種サブシステムを有する。各種サブシステムとしては、例えば、電子カルテシステム、医療会計システム、診療予約システム、来院受付システム、入退院管理システムが含まれる。
The HIS 10 is a computer system that provides business support within the hospital. Specifically, the
HIS10は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、ディスプレイ、入力インターフェース及び通信インターフェースを備えるサーバ装置やクライアント端末等のコンピュータを含む。 The HIS 10 is, for example, a computer such as a server device or a client terminal that is equipped with a processor such as a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), a display, an input interface, and a communication interface. include.
ユーザは、HIS10に含まれる電子カルテシステムを用いて、患者に関する情報を入力したり参照したりする。ユーザは、HIS10に対して画像検査オーダーを発行する。HIS10は、画像検査オーダーに応じたオーダー情報をRIS20などの他のシステムに転送する。
A user uses the electronic medical record system included in the
RIS20は、画像診断部門での業務支援を行うコンピュータシステムである。RIS20は、HIS10と連携した画像検査オーダーの予約管理のほか、検査機器への予約情報連携、検査情報の管理などを行う。RIS20は、例えば、CPU等のプロセッサ、ROMやRAM等のメモリ、ディスプレイ、入力インターフェース及び通信インターフェースを備えるサーバ装置やクライアント端末等のコンピュータを含む。
RIS20 is a computer system that provides operational support in the image diagnosis department. The RIS 20 performs reservation management of image test orders in cooperation with the
モダリティ30は、例えば、画像検査指示等に基づき決定される撮影条件(撮影プロトコル)に従い撮像(撮影)を実行する。モダリティ30としては、例えば、X線コンピュータ断層撮影装置、X線診断装置、磁気共鳴イメージング装置、超音波診断装置、核医学診断装置等が挙げられる。モダリティ30は、例えば、医師(放射線科医)や診療放射線技師等のオペレータにより操作される。モダリティ30の撮像により生成された医用画像(画像データ)はPACS40及び医用画像処理装置100に送信される。
The
PACS40は、モダリティ30により送信された医用画像を受信してデータベースに保存するコンピュータシステムである。PACS40は、クライアントからのリクエストに応じて、データベースに保存された医用画像を送信(転送)する。PACS40は、CPU等のプロセッサ、ROMやRAM等のメモリ、ディスプレイ、入力インターフェース、通信インターフェースを含むサーバ・コンピュータを含む。PACS40に記憶された医用画像には、撮影対象の患者や撮影に関する情報が付帯情報として付帯されている。付帯情報には、例えば、DICOM(Digital Imaging and Communication in Medicine)規格に準拠した形式で、患者ID、検査ID、撮影条件(撮影プロトコル)等の情報が含まれる。
PACS 40 is a computer system that receives medical images transmitted by
病院内システム1の構成は上記に限定されない。病院内システム1は、例えば、読影レポート作成装置等を含んでいてもよい。また、病院内システム1のいくつかの要素が統合されていてもよい。例えば、HIS10とRIS20とが1個のシステムに統合されていてもよい。
The configuration of the in-
図2は、第1の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。医用画像処理装置100は、例えば、通信インターフェース110と、入力インターフェース120と、ディスプレイ130と、処理回路140と、メモリ150と、を含む。
FIG. 2 is a block diagram showing an example of the configuration of the medical
通信インターフェース110は、例えば、LAN(Local Area Network)などのネットワークNWを介してRIS20、モダリティ30、PACS40等の外部装置と通信する。通信インターフェース110は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。ネットワークNWは、LANに代えてまたは加えて、インターネット、セルラー網、Wi-Fi網、WAN(Wide Area Network)等を含んでもよい。
The
入力インターフェース120は、診療医等からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路140に出力する。入力インターフェース120は、例えば、診療医等により入力操作が行われた場合に、入力操作に応じた情報を生成する。
The
入力操作としては、例えば、オーダー情報の生成、参照画像候補の選択、編集画像の添付、編集画像の編集に関する操作がある。これらの場合の入力操作が実行された場合には、入力インターフェース120は、生成指示情報、添付要求情報、選択情報、画像編集情報をそれぞれ生成する。入力インターフェース120は、生成した入力操作に応じた情報を処理回路140に出力する。
Input operations include, for example, operations related to generation of order information, selection of reference image candidates, attachment of edited images, and editing of edited images. When the input operations in these cases are executed, the
入力インターフェース120は、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパネル等を含む。入力インターフェース120は、例えば、マイク等の音声入力を受け付けるユーザインターフェースであってもよい。入力インターフェース120がタッチパネルである場合、入力インターフェース120は、ディスプレイ130の表示機能を兼ね備えるものであってもよい。
The
なお、本明細書において入力インターフェースはマウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェースの例に含まれる。 Note that in this specification, the input interface is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, examples of the input interface include an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs this electrical signal to a control circuit.
ディスプレイ130は、各種の情報を表示する。例えば、ディスプレイ130は、処理回路140によって生成された画像や、操作者からの各種の入力操作を受け付けるためのGUI(Graphical User Interface)等を表示する。例えば、ディスプレイ130は、LCD(Liquid Crystal Display)や、CRT(Cathode Ray Tube)ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等である。
処理回路140は、例えば、取得機能141と、特定機能142と、表示制御機能143と、受付機能144と、再セグメンテーション機能145とを備える。処理回路140は、例えば、ハードウェアプロセッサ(コンピュータ)がメモリ(記憶回路)150に記憶されたプログラムを実行することにより、これらの機能を実現するものである。
The
ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA)などの回路(circuitry)を意味する。 A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (for example, a Simple Programmable Logic Device (SPLD), or Refers to circuits such as complex programmable logic devices (CPLDs) and field programmable gate arrays (FPGAs).
メモリ150にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ150に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体が医用画像処理装置100のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ150にインストールされてもよい。
Instead of storing the program in the
ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。医用画像処理装置100におけるハードウェアプロセッサやメモリ等は、HIS10のハードウェアプロセッサやメモリ等とは別個に設けられているが、これらが共通していてもよい。
The hardware processor is not limited to being configured as a single circuit, but may be configured as one hardware processor by combining a plurality of independent circuits to realize each function. Further, a plurality of components may be integrated into one hardware processor to realize each function. Although the hardware processor, memory, etc. in the medical
メモリ150は、例えば、取得画像データベース(以下、DB)151と、自動セグメンテーション結果DB152と、セグメンテーションモデル153とを記憶している。取得画像DB151は、取得機能141により取得された医用画像のDBである。自動セグメンテーション結果DB152は、例えばモダリティ30により送信されたセグメンテーション結果のデータベースである。セグメンテーションモデル153は、セグメンテーション結果及び後述する弱教師データを入力データ、再セグメンテーション結果を出力データとした教師データを用いた機械学習により生成された学習済モデルである。
The
図3は、取得画像DB151の内容の一例を示す図である。取得画像DB151は、複数の医用画像(スライス)を含む。医用画像は、例えば、患者ID、撮影日、モダリティ、画像IDの各項目が含まれる。取得画像DB151においては、患者ID、撮影日、モダリティ、ごとにそれぞれ複数の医用画像が含まれる。画像IDの項目は、複数の医用画像のそれぞれに付されたが画像IDの共通する部分を示す。
FIG. 3 is a diagram showing an example of the contents of the acquired
図4は、自動セグメンテーション結果DB152の内容の一例を示す図である。自動セグメンテーション結果DB152は、複数の自動セグメンテーション結果を含む。自動セグメンテーション結果は、例えば、患者ID、画像ID、画像種類、セグメンテーションID、セグメンテーション内容の各項目を含む。
FIG. 4 is a diagram showing an example of the contents of the automatic
取得機能141は、HIS10、RIS20、モダリティ30、PACS40等の外部装置により送信され通信インターフェース110により受信された情報を取得する。例えば、モダリティ30により送信される医用画像を複数取得する。医用画像は、セグメンテーション対象の対象領域を含む。
The
対象領域は、例えば、自動セグメンテーションを行う前に、例えば、HIS10により送信される電子カルテ等に基づいて、医用画像に予め指定される。対象領域は、任意であるが、例えば、身体の臓器や血管などである。医用画像は、モダリティ30以外の装置、例えば、PACS40により送信されてもよい。取得機能141は、取得した医用画像を取得画像DB151に格納する。
The target area is specified in advance in the medical image, for example, based on the electronic medical record transmitted by the
取得機能141は、医用画像に含まれる対象領域のセグメンテーション結果に関する報を取得する。取得機能141は、例えば、モダリティ30により送信された自動セグメンテーション結果を自動セグメンテーション結果DB152に格納する。取得機能141は、メモリ150に格納された自動セグメンテーション結果DB152から自動セグメンテーション結果を読み出して取得する。取得機能141は、取得部の一例である。
The
特定機能142は、セグメンテーション結果に関する誤検出候補領域を特定する。特定機能142は、1回の検査で取得された複数の医用画像に対して誤検出候補領域を特定する。誤検出候補領域の特定に先立ち、特定機能142は、複数の医用画像を振分基準に基づいてグループ化して誤検出候補グループを作成する。振分基準は、例えば、医用画像内における距離や画像特徴などを用いて定める。画像特徴は、例えば、輝度や色彩などである。
The
特定機能142は、誤検出候補グループに含まれる医用画像の中から代表スライスを1枚または複数枚選択する。特定機能142は、医用画像の枚数に応じて、代表スライスの数を調整する。特定機能142は、例えば、医用画像の数が多いほど、代表が画像の数を多く調整する。特定機能142は、例えば、誤検出候補グループに含まれる医用画像の数を予め定めておいて、定められた枚数に医用画像を調整して複数の医用画像をグループ化する。特定機能142は、特定部の一例である。
The
表示制御機能143は、表示制御によりにディスプレイ130に画像を表示させる。表示制御機能143は、特定機能142により特定された誤検出候補領域に関する情報、ここでは誤検出候補領域を医用画像に対応付けてディスプレイ130に表示させる。表示制御機能143は、誤検出候補領域を代表画像などの医用画像に対応付けて表示させるにあたり、誤検出候補領域を医用画像に重畳(オーバーラップ)させて表示させる。
The
表示制御機能143は、他の態様で誤検出候補領域を医用画像に対応付けて表示させてもよい。表示制御機能143は、例えば、誤検出候補領域と医用画像を略同一面積の領域に上下または左右に並べることで対応付けて表示させてもよい。表示される医用画像は、代表スライスであるが、他の医用画像でもよい。表示制御機能143は、誤検出候補領域とともにセグメンテーション結果をディスプレイ130に表示させる。表示制御機能143は、表示制御部の一例である。
The
受付機能144は、ユーザから誤検出候補領域に関するラベリングを受け付ける。ラベリングは、例えば、弱教師データを含む。弱教師データは、誤検出候補領域におけるセグメンテーション結果の修正に関する情報を含むデータである。ユーザは、入力インターフェース120に対して入力操作することにより、誤検出候補領域におけるセグメンテーション結果の修正を指定する。
The
入力インターフェース120は、入力インターフェース120の入力操作に応じた弱教師データを生成し、生成した弱教師データを処理回路140に送信する。処理回路140における受付機能144は、入力インターフェース120により送信された弱教師データを受け付ける。受付機能144は、受付部の一例である。
The
再セグメンテーション機能145は、メモリ150に格納された自動セグメンテーション結果DB152に含まれるセグメンテーション結果及び受付機能144により受け付けられた弱教師データに基づいて、セグメンテーションモデル153を用いて、医用画像における対象領域のセグメンテーション(再セグメンテーション)を実行する。
The
再セグメンテーション機能145は、例えば、グラフカット、リージョングローイング法などにより再セグメンテーションを行ってもよし、ニューラルネットワークを用いた再セグメンテーションを行ってもよい。再セグメンテーション機能145は、再セグメンテーション部の一例である。対象領域は、医用画像を自動セグメンテーションした後に設定される領域であるので、対象領域のセグメンテーションは、再セグメンテーションとなる。
The
次に、医用画像処理装置100における処理ついて説明する。図5は、医用画像処理装置100における処理の一例を示すフローチャートである。医用画像処理装置100は、まず、自動セグメンテーションの対象となる医用画像を取得機能141により取得した否かを判定する(ステップS101)。医用画像を取得していないと判定した場合、取得機能141は、ステップS101の処理を繰り返す。
Next, processing in the medical
医用画像を取得したと判定した場合、取得機能141は、取得した医用画像を取得画像DB151に格納する。続いて、取得機能141は、モダリティ30により送信された自動セグメンテーション結果を取得する(ステップS103)。セグメンテーションの対象は、例えば、ユーザにより予め指定されていてもよいし、セグメンテーションがなされた後に指定されてもよい。取得機能141は、取得したセグメンテーション結果を自動セグメンテーション結果DB152に格納する。
If it is determined that a medical image has been acquired, the
続いて、特定機能142は、セグメンテーションした各医用画像について、誤検出候補領域を特定する(ステップS105)。特定機能142は、例えば、セグメンテーション結果の予測確率を画素ごとに算出し、算出した予測確率の高さに応じて誤検出候補領域を特定し、例えば、予測確率が所定割合以下の画素の部分を誤検出候補領域と特定する。特定機能142は、過去の同様のセグメンテーション結果や画像処理に基づいて誤検出候補領域を特定してもよい。
Subsequently, the
続いて、特定機能142は、取得機能141により取得された医用画像内における距離や画像特徴などを用いて定められた振分基準に基づいて医用画像をグループ化して(ステップS107)誤検出候補グループを作成する。特定機能142は、画素間及びスライス間で近辺にまとまる誤検出候補領域を含む医用画像1つのグループとする。
Subsequently, the
続いて、特定機能142は、作成した誤検出候補グループに含まれる複数の医用画像の中から代表スライスを選択する(ステップS109)。特定機能142は、どのように代表スライスを選択してもよい。特定機能142は、例えば、誤検出候補グループに含まれる医用画像の枚数が一定数以上である場合に、代表スライスを1枚選択し、一定数を超える場合に、代表スライスを複数枚選択する。
Subsequently, the
特定機能142は、代表スライスを1枚選択する場合に、セグメンテーション結果の面積が最も大きい医用画像を代表スライスとしてもよいし、複数の医用画像が時系列で並んでいる場合の中央の医用画像を代表スライスとしてもよい。特定機能142は、例えば、代表スライスを複数枚選択する場合に、誤検出候補グループに含まれる医用画像の数に応じて枚数を決定し、例えば誤検出候補グループに含まれる医用画像の数が多いほど多くしてよい。特定機能142は、例えば、代表スライスを複数枚選択する場合に、複数の医用画像が時系列で並んでいる場合にその枚数を等分割するスライスなどしてよい。
When selecting one representative slice, the
図6は、医用画像をグループ化してから代表スライスを選択するまでの概要を説明する図である。図6の左列上段は、時系列に並んだ複数の医用画像を示し、左列下段は、それぞれセグメンテーション結果が重畳された時系列に並んだ複数の医用画像を示す。複数の医用画像及びセグメンテーション結果に基づき、誤検出候補領域が特定される。 FIG. 6 is a diagram illustrating an overview of the process from grouping medical images to selecting a representative slice. The upper part of the left column in FIG. 6 shows a plurality of medical images arranged in chronological order, and the lower part of the left column shows a plurality of medical images arranged in chronological order on which segmentation results are superimposed. False detection candidate regions are identified based on the plurality of medical images and segmentation results.
図6に示す例では、中列上段、中列中段、中列下段にそれぞれ示す3つの誤検出候補領域が特定される。中列上段では、画像の上部中央に誤検出候補領域が見られる。中列中段では、画像の上部左方に誤検出候補領域が見られる。中列下段では、画像の中央左部に誤検出候補領域が見られる。特定機能142は、誤検出候補領域を含む3つ医用画像のグループの中から、図6の右列上段、右列中段、右列下段にそれぞれ示すように、代表スライスを選択する。
In the example shown in FIG. 6, three false detection candidate areas are identified, shown in the upper middle row, the middle row of the middle row, and the lower middle row, respectively. In the upper middle row, a false detection candidate area can be seen at the top center of the image. In the middle row and middle row, a false detection candidate area can be seen at the top left of the image. In the lower part of the middle row, a false detection candidate area can be seen in the center left part of the image. The
続いて、特定機能142は、医用画像のグループから、セグメンテーションの対象となるグループを決定する(ステップS111)。続いて、表示制御機能143は、特定機能142により選択された代表スライスのセグメンテーション結果及び誤検出候補領域をディスプレイ130に表示させる(ステップS113)。
Subsequently, the
表示制御機能143は、代表スライスのセグメンテーション結果及び誤検出候補領域とともに、誤検出候補リスト及び入力モードをディスプレイ130に表示させる。誤検出候補リストは、誤検出候補グループのリストを示す。複数の誤検出候補グループ(第1誤検出候補グループから第3誤検出候補グループ)のうち、現在弱教師データの入力の対象となっている誤検出候補グループ(第1誤検出候補グループ)は明表示され、現在弱教師データの入力の対象となっている誤検出候補グループ(第2誤検出候補グループ及び第3誤検出候補グループ)は暗表示される。各誤検出候補グループにおける弱教師データの入力状況も合わせて表示される。
The
入力モードは、ユーザが入力インターフェース120により入力する弱教師データの種類を示すモードである。入力モードには、背景を修正するためにユーザが入力する背景モードと、セグメンテーションの対象を修正するためにユーザが入力する対象モードと、が含まれる。
The input mode is a mode that indicates the type of weakly supervised data that the user inputs through the
図7は、ディスプレイ130に表示された可視化画像の一例を示す図である。ディスプレイ130における左側上部には、誤検出候補リストが表示され左側下部には入力モードが表示される。ディスプレイ130の右側には、医用画像GA10、セグメンテーション結果GA20、及び誤検出候補領域GA30が表示される。医用画像GA10は、第1誤検出候補グループにおける代表スライスである。
FIG. 7 is a diagram showing an example of a visualized image displayed on the
セグメンテーション結果GA20は、医用画像GA10に重畳表示される。図7の例では、医用画像GA10の左側やや上方部分を覆うようにセグメンテーション結果GA20が表示されている。誤検出候補領域GA30は、医用画像GA10の上方中央部であり、セグメンテーション結果GA20の右側先端部近傍に配置されている。ユーザは、図7に示す画像を見ながら弱教師データを入力する。 Segmentation result GA20 is displayed superimposed on medical image GA10. In the example of FIG. 7, the segmentation result GA20 is displayed so as to cover the slightly upper left side of the medical image GA10. The false detection candidate area GA30 is located in the upper center of the medical image GA10 and near the right end of the segmentation result GA20. The user inputs weakly supervised data while viewing the image shown in FIG.
図8は、ディスプレイ130に表示された可視化画像の一例を示す図である。ユーザは、ディスプレイ130に表示された画像を見ながら、入力インターフェース120を操作することにより、誤検出候補領域GA30内におけるセグメンテーション結果GA20の修正を指示する入力操作を行う。
FIG. 8 is a diagram showing an example of a visualized image displayed on the
ユーザは、例えば、セグメンテーション結果GA20が狭い場合に、入力モードを対象として、セグメンテーション結果GA20を広げる領域を指示するように、入力インターフェース120を入力操作する。ユーザは、例えば、セグメンテーション結果GA20が広すぎる場合に、入力モードを背景として、背景を広げる領域を指示するように、入力インターフェース120を入力操作する。このとき、ユーザは、誤検出候補領域の全体について背景や対象についての入力操作をする必要はなく、修正したい範囲のみについての入力操作をすればよい。
For example, when the segmentation result GA20 is narrow, the user performs an input operation on the
続いて、受付機能144は、ユーザの入力操作に基づくセグメンテーション結果の修正に応じた弱教師データを受け付けたか否かを判定する(ステップS115)。受付機能144は、弱教師データを受け付けていないと判定した場合、弱教師データを受け付けるまでステップS115の処理を繰り返す。
Subsequently, the
弱教師データを受付機能144が受け付けたと判定した場合、再セグメンテーション機能145は、対象となる誤検出候補グループ内の医用画像のセグメンテーション結果及び受付機能144により受け付けられた弱教師データに基づいて、対象となる誤検出候補グループ内の全医用画像を再セグメンテーションする(ステップS117)。
When the
図9は、再セグメンテーションの工程の概要を説明する図である。図9における左側からの列をそれぞれ第1列から第4列と称する。第1列上段は、第1誤検出候補グループの代表スライス、第1列中段は、第2誤検出候補グループの代表スライス、第1列下段は、第3誤検出候補グループの代表スライスを示す。 FIG. 9 is a diagram illustrating an overview of the re-segmentation process. The columns from the left in FIG. 9 are referred to as first to fourth columns, respectively. The upper part of the first column shows a representative slice of the first false detection candidate group, the middle part of the first column shows a representative slice of the second false detection candidate group, and the lower part of the first column shows a representative slice of the third false detection candidate group.
第1列上段に示す第1誤検出候補グループの代表スライスがディスプレイ130に表示された状態で、ユーザの入力操作に基づく弱教師データを受付機能144が受け付けることにより、誤検出候補領域におけるセグメンテーション結果が弱教師データに基づいて再セグメンテーションが実行される。
With the representative slice of the first false detection candidate group shown in the upper part of the first column being displayed on the
続いて、第3列上段に示す第1誤検出候補グループの全ての医用画像に対して、弱教師データに基づいて、再セグメンテーションが実行される。同様の処理を第2誤検出候補グループに行うことにより、第1列中段、第2列中段、第3列中段に示すように、第2誤検出候補グループの誤検出候補領域における再セグメンテーションが弱教師データに基づいて実行される。 Subsequently, re-segmentation is performed on all medical images of the first erroneous detection candidate group shown in the upper row of the third column based on the weakly supervised data. By performing the same process on the second false detection candidate group, the resegmentation in the false detection candidate area of the second false detection candidate group is weak, as shown in the middle row of the first column, the middle row of the second column, and the middle row of the third column. Executed based on supervised data.
さらに、同様の処理を第3誤検出候補グループに行うことにより、第1列下段、第2列下段、第3列下段に示すように、第2誤検出候補グループの誤検出候補領域における再セグメンテーションが弱教師データに基づいて行われる。そして、第3列上段、第3列中段、第3列下段に示す全医用画像を合わせることにより、第4列に示すように、全医用画像のセグメンテーション結果が得られる。 Furthermore, by performing similar processing on the third false positive candidate group, resegmentation in the false positive candidate area of the second false positive candidate group is achieved, as shown in the lower row of the first column, the lower row of the second column, and the lower row of the third column. is performed based on weakly supervised data. By combining all the medical images shown in the upper row of the third column, the middle row of the third row, and the lower row of the third row, the segmentation results of all the medical images are obtained as shown in the fourth column.
続いて、再セグメンテーション機能145は、全誤検出候補グループについて再セグメンテーションが終了したか否かを判定する(ステップS119)。全誤検出候補グループについて再セグメンテーションが終了していないと判定した場合、再セグメンテーション機能145は、処理をステップS111に戻し、再セグメンテーションが終了していない誤検出候補グループを決定して、ステップS119までの処理を繰り返す。
Subsequently, the
全誤検出候補グループについて再セグメンテーションが終了したと再セグメンテーション機能145が判定した場合、医用画像処理装置100は、図5に示す処理を終了する。
When the
第1の実施形態の医用画像処理装置100は、誤検出候補領域を表示し、ユーザが誤検出領域を見たユーザが入力した弱教師データに基づいて、対象領域のセグメンテーション(再セグメンテーション)を実行する。このため、医用画像の再セグメンテーションにかかる手間を軽減することができる。
The medical
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と比較して、モデル生成機能を備える点で主に異なる。以下、第1の実施形態との相違点を中心として、第2の実施形態の医用画像処理装置について説明する。
(Second embodiment)
Next, a second embodiment will be described. The medical
図10は、第2の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。第2の実施形態の医用画像処理装置100は、処理回路140において、モデル生成機能210を備える。モデル生成機能210は、再セグメンテーションの結果を入力とした機械学習によりセグメンテーションモデル153を更新する。モデル生成機能210は、モデル生成部の一例である。
FIG. 10 is a block diagram showing an example of the configuration of a medical
第2の実施形態の医用画像処理装置100は、第1の実施形態と同様の手順により、セグメンテーション結果及び弱教師データに基づいて、医用画像における対象領域のセグメンテーション(再セグメンテーション)を実行するまで処理を実行する。続いて、モデル生成機能210は、セグメンテーション結果及び弱教師データを入力データ、再セグメンテーション結果を出力データとした教師データを用いた機械学習により、セグメンテーションモデル153を更新する。モデル生成機能210は、更新したセグメンテーションモデルを新たなセグメンテーションモデル153としてメモリ150に格納する。
The medical
第2の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第2の実施形態の医用画像処理装置100は、モデル生成機能210を備える。このため、再セグメンテーションを実行するごとに再セグメンテーション結果を用いてセグメンテーションモデル153が更新されるので、セグメンテーションモデル153によるセグメンテーションの精度を高めることができる。
The medical
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態の医用画像処理装置100においては、任意のタイミングあるいはリアルタイムでセグメンテーション結果を複数回修正することができる。このため、医用画像処理装置100は、再セグメンテーション機能145が弱教師データに基づいて再セグメンテーションを実行した場合に、表示制御機能143が、再セグメンテーション結果をディスプレイ130に表示させる点で第1の実施形態と主に異なる。以下、第1の実施形態との相違点を中心として第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment will be described. In the medical
図11は、ディスプレイ130に表示された可視化画像の一例を示す図である。第3の実施形態の医用画像処理装置100において、表示制御機能143は、医用画像GA10、セグメンテーション結果GA20、誤検出候補領域GA30等の他、再セグメンテーション結果GA21、継続ボタンGA40及び完了ボタンGA50をディスプレイ130に表示させる。
FIG. 11 is a diagram showing an example of a visualized image displayed on the
再セグメンテーション結果GA21は、再セグメンテーション機能145による再セグメンテーションにより得られる。再セグメンテーション結果GA21は、セグメンテーション結果GA20と分けて表示されるが、セグメンテーション結果GA20と再セグメンテーション結果GA21は一体的に表示されてもよい。継続ボタンGA40及び完了ボタンGA50については、第4の実施形態において説明する。
The re-segmentation result GA21 is obtained by re-segmentation by the
再セグメンテーション結果GA21が表示された後、さらに再セグメンテーション機能145による再セグメンテーションが実行される場合には、ここでのセグメンテーション結果GA20と再セグメンテーション結果GA21が一体的となってセグメンテーション結果GA20としてディスプレイ130に表示される。
After the re-segmentation result GA21 is displayed, if re-segmentation is further performed by the
第3の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第3の実施形態の医用画像処理装置100は、さらに、再度の再セグメンテーションを実行する場合に、再セグメンテーション結果GA21が表示される。このため、ユーザは、再セグメンテーション結果GA21を確認しながら任意のタイミングあるいはリアルタイムでセグメンテーション結果を修正することができる。
The medical
(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態の医用画像処理装置100は、任意のタイミングあるいはリアルタイムでセグメンテーション結果を複数回修正し、医用画像の再セグメンテーションを実行した後、更に、再セグメンテーションを実行可能である点で、主に第1の実施形態と異なる。以下、第1の実施形態との相違点を中心として第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment will be described. The main feature of the medical
第4の実施形態の医用画像処理装置100においては、再セグメンテーションを実行している間に、再セグメンテーション結果をディスプレイ130に表示させる。ここでの再セグメンテーション結果は、再セグメンテーションが複数回実行される場合の、各再セグメンテーションによる再セグメンテーション結果を含む。第4の実施形態の医用画像処理装置100では、再セグメンテーションを実行した後、さらに再セグメンテーションを実行するか、セグメンテーションを完了するかをユーザが選択可能とされる。
In the medical
図11に示す継続ボタンGA40及び完了ボタンGA50は、いずれもGUIである。ユーザが入力インターフェース120により指定することで入力可能である。継続ボタンGA40が指定されることにより、入力インターフェース120から継続指示を示す継続情報が処理回路140に送信される。完了ボタンGA50が指定されることにより、入力インターフェース120から完了情報が処理回路140に送信される。
Both the continuation button GA40 and the completion button GA50 shown in FIG. 11 are GUI. It can be input by the user specifying it using the
処理回路140は、取得機能141により継続情報を取得した場合、受付機能144において、入力モードを指定したユーザの弱教師データの入力を受け付け、再セグメンテーション機能145により再セグメンテーションを実行する。再セグメンテーションを実行した場合には、表示制御機能143は、再セグメンテーション結果を含む図11に示す画像をディスプレイ130に表示させる。処理回路140は、取得機能141により完了情報を取得した場合、再セグメンテーション機能145における再セグメンテーションの実行を終了する。
When the
第4の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第4の実施形態の医用画像処理装置100は、さらに、表示制御機能143が継続ボタンGA40及び完了ボタンGA50をディスプレイ130に表示させる。したがって、自らが求めるセグメンテーション結果をユーザが得るまでにかかる手間を軽減することができる。
The medical
第4の実施形態の医用画像処理装置100では、継続ボタンGA40及び完了ボタンGA50を表示するが、継続ボタンGA40及び完了ボタンGA50の一方または両票を表示しなくてもよい。継続ボタンGA40を表示しない場合には、例えば、弱教師データが入力されるごとに再セグメンテーション機能145は、再セグメンテーションを実行してもよい。完了ボタンGA50を表示しない場合には、例えば、一定時間弱教師データの入力が無い場合に、再セグメンテーション機能145における再セグメンテーションの実行を終了してよい。
In the medical
(第5の実施形態)
次に、第5の実施形態について説明する。第5の実施形態の医用画像処理装置100は、取得機能141は、モダリティ30により送信される医用画像を取得し、取得機能141により取得された医用画像をセグメンテーションするセグメンテーション機能を備える点で、主に第1の実施形態と異なる。以下、第1の実施形態との相違点を中心として第5の実施形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment will be described. The main feature of the medical
図12は、第5の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。第5の実施形態の医用画像処理装置100における処理回路140は、セグメンテーション機能310を備える。セグメンテーション機能310は、取得機能141により取得された医用画像を自動セグメンテーションする。セグメンテーション機能310は、医用画像を入力して自動セグメンテーションする。セグメンテーション機能310は、セグメンテーション結果を自動セグメンテーション結果DB152に格納する。セグメンテーション機能310は、セグメンテーション部の一例である。
FIG. 12 is a block diagram showing an example of the configuration of a medical
第5の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第5の実施形態の医用画像処理装置100は、さらに、医用画像をセグメンテーションするセグメンテーション機能310を備える。このため、セグメンテーションが実行されていない医用画像についても、セグメンテーション結果をユーザが得るまでにかかる手間を軽減することができる。
The medical
以上説明した少なくとも1つの実施形態によれば、セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得する取得部と、前記セグメンテーション結果に関する誤検出候補領域を特定する特定部と、前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる表示制御部と、ユーザから前記誤検出候補領域に関するラベリングを受け付ける受付部と、前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する再セグメンテーション部と、を持つことにより、医用画像の再セグメンテーションにかかる手間を軽減することができる。 According to at least one embodiment described above, a medical image including a target region to be segmented, an acquisition unit that acquires information regarding a segmentation result of the target region included in the medical image, and an erroneous detection regarding the segmentation result. a specifying unit that identifies a candidate area; a display control unit that displays information related to the false detection candidate area in association with the medical image; a reception unit that receives labeling from a user regarding the false detection candidate area; By having a re-segmentation unit that performs segmentation of the target area, it is possible to reduce the effort required for re-segmenting a medical image.
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.
1…病院内システム
10…HIS
20…RIS
30…モダリティ
40…PACS
100…医用画像処理装置
110…通信インターフェース
120…入力インターフェース
130…ディスプレイ
140…処理回路
141…取得機能
142…特定機能
143…表示制御機能
144…受付機能
145…再セグメンテーション機能
150…メモリ
151…取得画像DB
152…自動セグメンテーション結果DB
153…セグメンテーションモデル
210…モデル生成機能
310…セグメンテーション機能
GA10…医用画像
GA20…セグメンテーション結果
GA21…再セグメンテーション結果
GA30…誤検出候補領域
GA40…継続ボタン
GA50…完了ボタン
NW…ネットワーク
1...
20...RIS
30...
100...Medical
152...Automatic segmentation result DB
153...
Claims (10)
前記セグメンテーション結果に関する誤検出候補領域を特定する特定部と、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる表示制御部と、
ユーザから前記誤検出候補領域に関するラベリングを受け付ける受付部と、
前記ラベリングに基づいて、前記対象領域の再セグメンテーションを実行する再セグメンテーション部と、を備える、
医用画像処理装置。 an acquisition unit that acquires a medical image including a target region to be segmented, and information regarding a segmentation result of the target region included in the medical image;
a specifying unit that specifies a false detection candidate region regarding the segmentation result;
a display control unit that displays information regarding the false detection candidate region in association with the medical image;
a reception unit that receives labeling regarding the false detection candidate region from a user;
a resegmentation unit that performs resegmentation of the target area based on the labeling,
Medical image processing device.
前記特定部は、複数の前記医用画像を振分基準に基づいてグループ化された複数の前記医用画像の中から代表スライスを選択し、
前記表示制御部は、前記誤検出候補領域に関する情報を前記代表スライスに対応付けて表示させる、
請求項1に記載の医用画像処理装置。 The acquisition unit acquires a plurality of the medical images,
The identifying unit selects a representative slice from among the plurality of medical images that are grouped based on a classification criterion;
The display control unit displays information regarding the false detection candidate region in association with the representative slice.
The medical image processing device according to claim 1.
請求項2に記載の医用画像処理装置。 The identification unit groups the plurality of medical images using at least one of a distance or an image feature within the medical image as the distribution criterion.
The medical image processing device according to claim 2.
請求項1に記載の医用画像処理装置。 The display control unit displays information regarding the false detection candidate area together with the segmentation result.
The medical image processing device according to claim 1.
請求項2に記載の医用画像処理装置。 The specifying unit adjusts the number of representative slices according to the number of the plurality of medical images.
The medical image processing device according to claim 2.
請求項1に記載の医用画像処理装置。 further comprising a model generation unit that generates a segmentation model by machine learning using the results of the re-segmentation as training data;
The medical image processing device according to claim 1.
請求項1に記載の医用画像処理装置。 The display control unit displays the result of the re-segmentation together with information regarding the false detection candidate area.
The medical image processing device according to claim 1.
請求項7に記載の医用画像処理装置。 The reception unit receives a continuation instruction to continue segmentation of the target area.
The medical image processing device according to claim 7.
セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得し、
前記セグメンテーション結果に関する誤検出候補領域を特定し、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させ、
ユーザから前記誤検出候補領域に関するラベリングを受け付け、
前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する、
医用画像処理方法。 The computer is
obtaining a medical image including a target region to be segmented and information regarding a segmentation result of the target region included in the medical image;
identifying a false positive candidate region regarding the segmentation result;
displaying information regarding the false detection candidate region in association with the medical image;
receiving labeling regarding the false detection candidate area from a user;
performing segmentation of the region of interest based on the labeling;
Medical image processing method.
セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得し、
前記セグメンテーション結果に関する誤検出候補領域を特定し、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させ、
ユーザから前記誤検出候補領域に関するラベリングを受け付け、
前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する、ことを行わせる、
プログラム。 to the computer,
obtaining a medical image including a target region to be segmented and information regarding a segmentation result of the target region included in the medical image;
identifying a false positive candidate region regarding the segmentation result;
displaying information regarding the false detection candidate region in association with the medical image;
receiving labeling regarding the false detection candidate area from the user;
performing segmentation of the region of interest based on the labeling;
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113987A JP2024011742A (en) | 2022-07-15 | 2022-07-15 | Medical image processing device, medical image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113987A JP2024011742A (en) | 2022-07-15 | 2022-07-15 | Medical image processing device, medical image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024011742A true JP2024011742A (en) | 2024-01-25 |
Family
ID=89621737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113987A Pending JP2024011742A (en) | 2022-07-15 | 2022-07-15 | Medical image processing device, medical image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024011742A (en) |
-
2022
- 2022-07-15 JP JP2022113987A patent/JP2024011742A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10460838B2 (en) | Automated anatomically-based reporting of medical images via image annotation | |
US20180060535A1 (en) | Updating probabilities of conditions based on annotations on medical images | |
JP4911029B2 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
US8244010B2 (en) | Image processing device and a control method and control program thereof | |
US8306292B2 (en) | Image display device and image display program storage medium | |
JP7187244B2 (en) | Medical image processing device, medical image processing system and medical image processing program | |
US20180055468A1 (en) | Tracking anatomical findings within medical images | |
JP2008521468A (en) | Digital medical image analysis | |
US20190279408A1 (en) | Medical image processing apparatus, medical image processing method, and medical image processing program | |
US20180060488A1 (en) | Customizing annotations on medical images | |
US20180060534A1 (en) | Verifying annotations on medical images using stored rules | |
US20200402663A1 (en) | Medical information processing apparatus and medical information processing method | |
JP2007151645A (en) | Medical diagnostic imaging support system | |
US10860894B2 (en) | Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program | |
JP2016202721A (en) | Medical image display apparatus and program | |
US20150324521A1 (en) | Information processing apparatus, information processing method, and storage medium storing program | |
CN112074912A (en) | Interactive coronary artery labeling using interventional X-ray images and deep learning | |
US11200978B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
US11704826B2 (en) | Diagnostic imaging support apparatus capable of automatically selecting an image for extracting a contour from among a plurality of images of different types, diagnostic imaging support method therefor, and non-transitory recording medium for storing diagnostic imaging support program therefor | |
JP2024011742A (en) | Medical image processing device, medical image processing method, and program | |
US20230290486A1 (en) | Medical information processing device, medical information processing method, and storage medium | |
EP4328930A1 (en) | Artificial intelligence supported reading by redacting of a normal area in a medical image | |
US20220108451A1 (en) | Learning device, method, and program, medical image processing apparatus, method, and program, and discriminator | |
JP7428055B2 (en) | Diagnostic support system, diagnostic support device and program | |
WO2022239593A1 (en) | Document creation assistance device, document creation assistance method, and document creation assistance program |