JP2024011742A - Medical image processing device, medical image processing method, and program - Google Patents

Medical image processing device, medical image processing method, and program Download PDF

Info

Publication number
JP2024011742A
JP2024011742A JP2022113987A JP2022113987A JP2024011742A JP 2024011742 A JP2024011742 A JP 2024011742A JP 2022113987 A JP2022113987 A JP 2022113987A JP 2022113987 A JP2022113987 A JP 2022113987A JP 2024011742 A JP2024011742 A JP 2024011742A
Authority
JP
Japan
Prior art keywords
medical image
segmentation
image processing
false detection
detection candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022113987A
Other languages
Japanese (ja)
Inventor
陽平 村口
Yohei Muraguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2022113987A priority Critical patent/JP2024011742A/en
Publication of JP2024011742A publication Critical patent/JP2024011742A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the time and effort for re-segmentation of a medical image.
SOLUTION: A medical image processing device according to an embodiment comprises: an acquisition unit; a specification unit; a display control unit; a reception unit; and a re-segmentation unit. The acquisition unit acquires a medical image including an object region of a segmentation object and information about a segmentation result of the object region included in the medical image. The specification unit specifies an erroneous detection candidate region about the segmentation result. The display control unit displays information about the erroneous detection candidate region in association with the medical image. The reception unit receives labeling about the erroneous detection candidate region from a user. The re-segmentation unit executes segmentation of the object region on the basis of the labeling.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置、医用画像処理方法、及びプログラムに関する。 Embodiments disclosed in this specification and the drawings relate to a medical image processing device, a medical image processing method, and a program.

医師等のユーザが利用するために医用画像をセグメンテーションするため、例えば、複数の異なるセグメンテーション方法を医用画像に適用し、複数のセグメンテーション結果からユーザに好適なセグメンテーション方法を選択させる技術がある。しかし、この技術では、セグメンテーション結果の全部または一部に多くの誤検出が含まれた場合に、再セグメンテーションをユーザに求めることとなる。 In order to segment medical images for use by users such as doctors, for example, there is a technique that applies a plurality of different segmentation methods to the medical image and allows the user to select a suitable segmentation method from the plurality of segmentation results. However, with this technique, if all or part of the segmentation results include many false positives, the user is required to perform re-segmentation.

他の技術として、医用画像を自動セグメンテーションし、品質が低いとモデルが判定した場合に、品質が低い代表スライスを1枚選択し、代表スライスに対する弱教師データの入力をユーザに求め、入力に応じてセグメンテーション結果を修正する技術がある。しかし、この技術では、品質が低い代表スライスを1枚提示するのみである。このため、セグメンテーション結果に誤検出が多い場合に、修正する位置を判断するユーザの手間を大きくすることとなる。 Another technique is to automatically segment medical images, and if the model determines that the quality is low, it selects one representative slice with low quality, asks the user to input weakly supervised data for the representative slice, and responds to the input. There are techniques for correcting segmentation results. However, this technique only presents one representative slice with low quality. For this reason, when there are many false positives in the segmentation results, the user's effort to determine the position to be corrected increases.

特許第6088498号公報Patent No. 6088498

本明細書及び図面に開示の実施形態が解決しようとする課題は、医用画像の再セグメンテーションにかかる手間を軽減することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 The problem to be solved by the embodiments disclosed in this specification and the drawings is to reduce the effort required for resegmenting medical images. However, the problems to be solved by the embodiments disclosed in this specification and the drawings are not limited to the above problems. Problems corresponding to the effects of each configuration shown in the embodiments described later can also be positioned as other problems.

実施形態の医用画像処理装置は、取得部と、特定部と、表示制御部と、受付部と、再セグメンテーション部と、を持つ。取得部は、セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得する。特定部は、前記セグメンテーション結果に関する誤検出候補領域を特定する。表示制御部は、前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる。受付部は、ユーザから前記誤検出候補領域に関するラベリングを受け付ける。再セグメンテーション部は、前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する。 The medical image processing apparatus of the embodiment includes an acquisition section, a specification section, a display control section, a reception section, and a re-segmentation section. The acquisition unit acquires a medical image including a target region to be segmented, and information regarding a segmentation result of the target region included in the medical image. The specifying unit specifies a false detection candidate region regarding the segmentation result. The display control unit displays information regarding the erroneous detection candidate area in association with the medical image. The accepting unit accepts labeling regarding the false detection candidate area from the user. The re-segmentation unit performs segmentation of the target area based on the labeling.

第1の実施形態の病院内システム1の構成の一例を示すブロック図。FIG. 1 is a block diagram showing an example of the configuration of an in-hospital system 1 according to a first embodiment. 第1の実施形態の医用画像処理装置100の構成の一例を示すブロック図。FIG. 1 is a block diagram showing an example of the configuration of a medical image processing apparatus 100 according to the first embodiment. 取得画像DB151の内容の一例を示す図。The figure which shows an example of the content of acquired image DB151. 自動セグメンテーション結果DB152の内容の一例を示す図。The figure which shows an example of the content of automatic segmentation result DB152. 医用画像処理装置100における処理の一例を示すフローチャート。5 is a flowchart illustrating an example of processing in the medical image processing apparatus 100. 医用画像をグループ化してから代表スライスを選択するまでの概要を説明する図。FIG. 3 is a diagram illustrating an overview of the process from grouping medical images to selecting a representative slice. ディスプレイ130に表示された可視化画像の一例を示す図。FIG. 3 is a diagram showing an example of a visualized image displayed on the display 130. ディスプレイ130に表示された可視化画像の一例を示す図。FIG. 3 is a diagram showing an example of a visualized image displayed on the display 130. 再セグメンテーションの工程の概要を説明する図。The figure explaining the outline of the process of re-segmentation. 第2の実施形態の医用画像処理装置100の構成の一例を示すブロック図。FIG. 2 is a block diagram showing an example of the configuration of a medical image processing apparatus 100 according to a second embodiment. ディスプレイ130に表示された可視化画像の一例を示す図。FIG. 3 is a diagram showing an example of a visualized image displayed on the display 130. 第5の実施形態の医用画像処理装置100の構成の一例を示すブロック図A block diagram showing an example of the configuration of a medical image processing apparatus 100 according to the fifth embodiment

以下、図面を参照しながら、実施形態の医用画像処理装置、医用画像処理方法、及びプログラムについて説明する。 Hereinafter, a medical image processing apparatus, a medical image processing method, and a program according to embodiments will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態の病院内システム1の構成の一例を示すブロック図である。第1の実施形態の病院内システム1は、例えば、病院情報システム(Hospital Information System:以下、HIS)10と、放射線科情報システム(Radiology Information System:以下、RIS)20と、医用画像診断装置(モダリティ)30と、画像保存通信システム(PACS:Picture Archiving and Communication System)40と、医用画像処理装置100とを備える。
(First embodiment)
FIG. 1 is a block diagram showing an example of the configuration of an in-hospital system 1 according to the first embodiment. The in-hospital system 1 of the first embodiment includes, for example, a hospital information system (hereinafter referred to as HIS) 10, a radiology information system (hereinafter referred to as RIS) 20, and a medical image diagnostic apparatus (hereinafter referred to as RIS). modality) 30, a picture archiving and communication system (PACS) 40, and a medical image processing apparatus 100.

病院内システム1においては、被検体の医用画像がモダリティ30により撮像される。モダリティ30により撮像された医用画像は、モダリティ30において自動セグメンテーションされる。自動セグメンテーションは、医用画像処理装置100などのモダリティ30以外の装置で実行されてもよい。医用画像処理装置100では、モダリティ30や他の装置で実行されたセグメンテーション結果からさらに再セグメンテーションが実行されて最終的なセグメンテーション結果が医用画像とともにユーザに提供される。提供された医用画像及びセグメンテーション結果は、ユーザによる読影や診断に利用される。 In the in-hospital system 1 , a medical image of a subject is captured by a modality 30 . A medical image captured by the modality 30 is automatically segmented in the modality 30. Automatic segmentation may be performed in a device other than modality 30, such as medical image processing device 100. In the medical image processing apparatus 100, re-segmentation is further performed based on the segmentation results performed by the modality 30 or other devices, and the final segmentation results are provided to the user together with the medical image. The provided medical images and segmentation results are used for interpretation and diagnosis by the user.

HIS10は、病院内での業務支援を行うコンピュータシステムである。具体的には、HIS10は、各種サブシステムを有する。各種サブシステムとしては、例えば、電子カルテシステム、医療会計システム、診療予約システム、来院受付システム、入退院管理システムが含まれる。 The HIS 10 is a computer system that provides business support within the hospital. Specifically, the HIS 10 has various subsystems. Various subsystems include, for example, an electronic medical record system, a medical accounting system, a medical reservation system, a hospital visit reception system, and an admission/discharge management system.

HIS10は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、ディスプレイ、入力インターフェース及び通信インターフェースを備えるサーバ装置やクライアント端末等のコンピュータを含む。 The HIS 10 is, for example, a computer such as a server device or a client terminal that is equipped with a processor such as a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), a display, an input interface, and a communication interface. include.

ユーザは、HIS10に含まれる電子カルテシステムを用いて、患者に関する情報を入力したり参照したりする。ユーザは、HIS10に対して画像検査オーダーを発行する。HIS10は、画像検査オーダーに応じたオーダー情報をRIS20などの他のシステムに転送する。 A user uses the electronic medical record system included in the HIS 10 to input and refer to information regarding a patient. A user issues an image inspection order to the HIS 10. The HIS 10 transfers order information corresponding to the image inspection order to other systems such as the RIS 20.

RIS20は、画像診断部門での業務支援を行うコンピュータシステムである。RIS20は、HIS10と連携した画像検査オーダーの予約管理のほか、検査機器への予約情報連携、検査情報の管理などを行う。RIS20は、例えば、CPU等のプロセッサ、ROMやRAM等のメモリ、ディスプレイ、入力インターフェース及び通信インターフェースを備えるサーバ装置やクライアント端末等のコンピュータを含む。 RIS20 is a computer system that provides operational support in the image diagnosis department. The RIS 20 performs reservation management of image test orders in cooperation with the HIS 10, as well as coordination of reservation information with examination equipment and management of examination information. The RIS 20 includes, for example, a computer such as a server device or a client terminal that includes a processor such as a CPU, a memory such as a ROM or a RAM, a display, an input interface, and a communication interface.

モダリティ30は、例えば、画像検査指示等に基づき決定される撮影条件(撮影プロトコル)に従い撮像(撮影)を実行する。モダリティ30としては、例えば、X線コンピュータ断層撮影装置、X線診断装置、磁気共鳴イメージング装置、超音波診断装置、核医学診断装置等が挙げられる。モダリティ30は、例えば、医師(放射線科医)や診療放射線技師等のオペレータにより操作される。モダリティ30の撮像により生成された医用画像(画像データ)はPACS40及び医用画像処理装置100に送信される。 The modality 30 executes imaging (photography) according to imaging conditions (imaging protocol) determined based on, for example, an image examination instruction. Examples of the modality 30 include an X-ray computed tomography device, an X-ray diagnostic device, a magnetic resonance imaging device, an ultrasound diagnostic device, a nuclear medicine diagnostic device, and the like. The modality 30 is operated by, for example, an operator such as a doctor (radiologist) or a medical radiology technician. A medical image (image data) generated by imaging by the modality 30 is transmitted to the PACS 40 and the medical image processing apparatus 100.

PACS40は、モダリティ30により送信された医用画像を受信してデータベースに保存するコンピュータシステムである。PACS40は、クライアントからのリクエストに応じて、データベースに保存された医用画像を送信(転送)する。PACS40は、CPU等のプロセッサ、ROMやRAM等のメモリ、ディスプレイ、入力インターフェース、通信インターフェースを含むサーバ・コンピュータを含む。PACS40に記憶された医用画像には、撮影対象の患者や撮影に関する情報が付帯情報として付帯されている。付帯情報には、例えば、DICOM(Digital Imaging and Communication in Medicine)規格に準拠した形式で、患者ID、検査ID、撮影条件(撮影プロトコル)等の情報が含まれる。 PACS 40 is a computer system that receives medical images transmitted by modality 30 and stores them in a database. The PACS 40 transmits (transfers) medical images stored in the database in response to requests from clients. The PACS 40 includes a server computer including a processor such as a CPU, a memory such as ROM and RAM, a display, an input interface, and a communication interface. The medical images stored in the PACS 40 are accompanied by information regarding the patient to be photographed and the photographing as additional information. The supplementary information includes information such as a patient ID, an examination ID, and imaging conditions (imaging protocol) in a format that complies with the DICOM (Digital Imaging and Communication in Medicine) standard, for example.

病院内システム1の構成は上記に限定されない。病院内システム1は、例えば、読影レポート作成装置等を含んでいてもよい。また、病院内システム1のいくつかの要素が統合されていてもよい。例えば、HIS10とRIS20とが1個のシステムに統合されていてもよい。 The configuration of the in-hospital system 1 is not limited to the above. The in-hospital system 1 may include, for example, an image interpretation report creation device. Moreover, some elements of the in-hospital system 1 may be integrated. For example, the HIS 10 and the RIS 20 may be integrated into one system.

図2は、第1の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。医用画像処理装置100は、例えば、通信インターフェース110と、入力インターフェース120と、ディスプレイ130と、処理回路140と、メモリ150と、を含む。 FIG. 2 is a block diagram showing an example of the configuration of the medical image processing apparatus 100 of the first embodiment. Medical image processing apparatus 100 includes, for example, a communication interface 110, an input interface 120, a display 130, a processing circuit 140, and a memory 150.

通信インターフェース110は、例えば、LAN(Local Area Network)などのネットワークNWを介してRIS20、モダリティ30、PACS40等の外部装置と通信する。通信インターフェース110は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。ネットワークNWは、LANに代えてまたは加えて、インターネット、セルラー網、Wi-Fi網、WAN(Wide Area Network)等を含んでもよい。 The communication interface 110 communicates with external devices such as the RIS 20, the modality 30, and the PACS 40 via a network NW such as a LAN (Local Area Network). The communication interface 110 includes, for example, a communication interface such as a NIC (Network Interface Card). The network NW may include the Internet, a cellular network, a Wi-Fi network, a WAN (Wide Area Network), etc. instead of or in addition to a LAN.

入力インターフェース120は、診療医等からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路140に出力する。入力インターフェース120は、例えば、診療医等により入力操作が行われた場合に、入力操作に応じた情報を生成する。 The input interface 120 receives various input operations from a treating doctor and the like, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 140. For example, when an input operation is performed by a doctor or the like, the input interface 120 generates information according to the input operation.

入力操作としては、例えば、オーダー情報の生成、参照画像候補の選択、編集画像の添付、編集画像の編集に関する操作がある。これらの場合の入力操作が実行された場合には、入力インターフェース120は、生成指示情報、添付要求情報、選択情報、画像編集情報をそれぞれ生成する。入力インターフェース120は、生成した入力操作に応じた情報を処理回路140に出力する。 Input operations include, for example, operations related to generation of order information, selection of reference image candidates, attachment of edited images, and editing of edited images. When the input operations in these cases are executed, the input interface 120 generates generation instruction information, attachment request information, selection information, and image editing information, respectively. The input interface 120 outputs information corresponding to the generated input operation to the processing circuit 140.

入力インターフェース120は、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパネル等を含む。入力インターフェース120は、例えば、マイク等の音声入力を受け付けるユーザインターフェースであってもよい。入力インターフェース120がタッチパネルである場合、入力インターフェース120は、ディスプレイ130の表示機能を兼ね備えるものであってもよい。 The input interface 120 includes, for example, a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch panel, and the like. The input interface 120 may be, for example, a user interface that accepts voice input such as a microphone. When the input interface 120 is a touch panel, the input interface 120 may also have the display function of the display 130.

なお、本明細書において入力インターフェースはマウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェースの例に含まれる。 Note that in this specification, the input interface is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, examples of the input interface include an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs this electrical signal to a control circuit.

ディスプレイ130は、各種の情報を表示する。例えば、ディスプレイ130は、処理回路140によって生成された画像や、操作者からの各種の入力操作を受け付けるためのGUI(Graphical User Interface)等を表示する。例えば、ディスプレイ130は、LCD(Liquid Crystal Display)や、CRT(Cathode Ray Tube)ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等である。 Display 130 displays various information. For example, the display 130 displays images generated by the processing circuit 140, a GUI (Graphical User Interface) for accepting various input operations from an operator, and the like. For example, the display 130 is an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an organic EL (Electro Luminescence) display, or the like.

処理回路140は、例えば、取得機能141と、特定機能142と、表示制御機能143と、受付機能144と、再セグメンテーション機能145とを備える。処理回路140は、例えば、ハードウェアプロセッサ(コンピュータ)がメモリ(記憶回路)150に記憶されたプログラムを実行することにより、これらの機能を実現するものである。 The processing circuit 140 includes, for example, an acquisition function 141, a specific function 142, a display control function 143, a reception function 144, and a re-segmentation function 145. The processing circuit 140 realizes these functions by, for example, a hardware processor (computer) executing a program stored in a memory (storage circuit) 150.

ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA)などの回路(circuitry)を意味する。 A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (for example, a Simple Programmable Logic Device (SPLD), or Refers to circuits such as complex programmable logic devices (CPLDs) and field programmable gate arrays (FPGAs).

メモリ150にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ150に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体が医用画像処理装置100のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ150にインストールされてもよい。 Instead of storing the program in the memory 150, the program may be directly incorporated into the circuit of the hardware processor. In this case, the hardware processor realizes its functions by reading and executing a program built into the circuit. The above program may be stored in advance in the memory 150 or in a non-temporary storage medium such as a DVD or CD-ROM, and the non-temporary storage medium may be a drive device ( (not shown) may be installed in the memory 150 from a non-transitory storage medium.

ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。医用画像処理装置100におけるハードウェアプロセッサやメモリ等は、HIS10のハードウェアプロセッサやメモリ等とは別個に設けられているが、これらが共通していてもよい。 The hardware processor is not limited to being configured as a single circuit, but may be configured as one hardware processor by combining a plurality of independent circuits to realize each function. Further, a plurality of components may be integrated into one hardware processor to realize each function. Although the hardware processor, memory, etc. in the medical image processing apparatus 100 are provided separately from the hardware processor, memory, etc. in the HIS 10, they may be common.

メモリ150は、例えば、取得画像データベース(以下、DB)151と、自動セグメンテーション結果DB152と、セグメンテーションモデル153とを記憶している。取得画像DB151は、取得機能141により取得された医用画像のDBである。自動セグメンテーション結果DB152は、例えばモダリティ30により送信されたセグメンテーション結果のデータベースである。セグメンテーションモデル153は、セグメンテーション結果及び後述する弱教師データを入力データ、再セグメンテーション結果を出力データとした教師データを用いた機械学習により生成された学習済モデルである。 The memory 150 stores, for example, an acquired image database (hereinafter referred to as DB) 151, an automatic segmentation result DB 152, and a segmentation model 153. The acquired image DB 151 is a DB of medical images acquired by the acquisition function 141. The automatic segmentation result DB 152 is a database of segmentation results transmitted by the modality 30, for example. The segmentation model 153 is a learned model generated by machine learning using segmentation results and supervised data with weakly supervised data (described later) as input data and re-segmentation results as output data.

図3は、取得画像DB151の内容の一例を示す図である。取得画像DB151は、複数の医用画像(スライス)を含む。医用画像は、例えば、患者ID、撮影日、モダリティ、画像IDの各項目が含まれる。取得画像DB151においては、患者ID、撮影日、モダリティ、ごとにそれぞれ複数の医用画像が含まれる。画像IDの項目は、複数の医用画像のそれぞれに付されたが画像IDの共通する部分を示す。 FIG. 3 is a diagram showing an example of the contents of the acquired image DB 151. The acquired image DB 151 includes a plurality of medical images (slices). The medical image includes, for example, each item of patient ID, imaging date, modality, and image ID. The acquired image DB 151 includes a plurality of medical images for each patient ID, imaging date, and modality. The image ID item is assigned to each of a plurality of medical images, but indicates a common part of the image ID.

図4は、自動セグメンテーション結果DB152の内容の一例を示す図である。自動セグメンテーション結果DB152は、複数の自動セグメンテーション結果を含む。自動セグメンテーション結果は、例えば、患者ID、画像ID、画像種類、セグメンテーションID、セグメンテーション内容の各項目を含む。 FIG. 4 is a diagram showing an example of the contents of the automatic segmentation result DB 152. The automatic segmentation result DB 152 includes a plurality of automatic segmentation results. The automatic segmentation result includes, for example, the following items: patient ID, image ID, image type, segmentation ID, and segmentation content.

取得機能141は、HIS10、RIS20、モダリティ30、PACS40等の外部装置により送信され通信インターフェース110により受信された情報を取得する。例えば、モダリティ30により送信される医用画像を複数取得する。医用画像は、セグメンテーション対象の対象領域を含む。 The acquisition function 141 acquires information transmitted by external devices such as the HIS 10 , the RIS 20 , the modality 30 , and the PACS 40 and received by the communication interface 110 . For example, a plurality of medical images transmitted by the modality 30 are acquired. The medical image includes a target region for segmentation.

対象領域は、例えば、自動セグメンテーションを行う前に、例えば、HIS10により送信される電子カルテ等に基づいて、医用画像に予め指定される。対象領域は、任意であるが、例えば、身体の臓器や血管などである。医用画像は、モダリティ30以外の装置、例えば、PACS40により送信されてもよい。取得機能141は、取得した医用画像を取得画像DB151に格納する。 The target area is specified in advance in the medical image, for example, based on the electronic medical record transmitted by the HIS 10, for example, before performing automatic segmentation. The target area is arbitrary, and may be, for example, a body organ or a blood vessel. Medical images may be transmitted by a device other than modality 30, for example PACS 40. The acquisition function 141 stores the acquired medical images in the acquired image DB 151.

取得機能141は、医用画像に含まれる対象領域のセグメンテーション結果に関する報を取得する。取得機能141は、例えば、モダリティ30により送信された自動セグメンテーション結果を自動セグメンテーション結果DB152に格納する。取得機能141は、メモリ150に格納された自動セグメンテーション結果DB152から自動セグメンテーション結果を読み出して取得する。取得機能141は、取得部の一例である。 The acquisition function 141 acquires information regarding the segmentation results of the target area included in the medical image. The acquisition function 141 stores, for example, the automatic segmentation result transmitted by the modality 30 in the automatic segmentation result DB 152. The acquisition function 141 reads and acquires automatic segmentation results from the automatic segmentation result DB 152 stored in the memory 150. The acquisition function 141 is an example of an acquisition unit.

特定機能142は、セグメンテーション結果に関する誤検出候補領域を特定する。特定機能142は、1回の検査で取得された複数の医用画像に対して誤検出候補領域を特定する。誤検出候補領域の特定に先立ち、特定機能142は、複数の医用画像を振分基準に基づいてグループ化して誤検出候補グループを作成する。振分基準は、例えば、医用画像内における距離や画像特徴などを用いて定める。画像特徴は、例えば、輝度や色彩などである。 The identification function 142 identifies false positive candidate regions regarding the segmentation results. The identification function 142 identifies false detection candidate areas in a plurality of medical images acquired in one examination. Prior to specifying a false detection candidate area, the identification function 142 groups a plurality of medical images based on a classification criterion to create a false detection candidate group. The distribution criteria are determined using, for example, distances and image features within the medical image. Image characteristics include, for example, brightness and color.

特定機能142は、誤検出候補グループに含まれる医用画像の中から代表スライスを1枚または複数枚選択する。特定機能142は、医用画像の枚数に応じて、代表スライスの数を調整する。特定機能142は、例えば、医用画像の数が多いほど、代表が画像の数を多く調整する。特定機能142は、例えば、誤検出候補グループに含まれる医用画像の数を予め定めておいて、定められた枚数に医用画像を調整して複数の医用画像をグループ化する。特定機能142は、特定部の一例である。 The specific function 142 selects one or more representative slices from among the medical images included in the false detection candidate group. The specific function 142 adjusts the number of representative slices according to the number of medical images. For example, the specific function 142 adjusts the number of representative images to increase as the number of medical images increases. The specific function 142, for example, predetermines the number of medical images included in the false detection candidate group, adjusts the medical images to the determined number, and groups the plurality of medical images. The specific function 142 is an example of a specific part.

表示制御機能143は、表示制御によりにディスプレイ130に画像を表示させる。表示制御機能143は、特定機能142により特定された誤検出候補領域に関する情報、ここでは誤検出候補領域を医用画像に対応付けてディスプレイ130に表示させる。表示制御機能143は、誤検出候補領域を代表画像などの医用画像に対応付けて表示させるにあたり、誤検出候補領域を医用画像に重畳(オーバーラップ)させて表示させる。 The display control function 143 causes the display 130 to display an image through display control. The display control function 143 causes the display 130 to display information regarding the erroneous detection candidate area specified by the specific function 142, in this case, the erroneous detection candidate area, in association with the medical image. In displaying the erroneous detection candidate area in association with a medical image such as a representative image, the display control function 143 causes the erroneous detection candidate area to be displayed in a superimposed manner (overlapping) with the medical image.

表示制御機能143は、他の態様で誤検出候補領域を医用画像に対応付けて表示させてもよい。表示制御機能143は、例えば、誤検出候補領域と医用画像を略同一面積の領域に上下または左右に並べることで対応付けて表示させてもよい。表示される医用画像は、代表スライスであるが、他の医用画像でもよい。表示制御機能143は、誤検出候補領域とともにセグメンテーション結果をディスプレイ130に表示させる。表示制御機能143は、表示制御部の一例である。 The display control function 143 may display the false detection candidate region in association with the medical image in another manner. For example, the display control function 143 may display the false detection candidate region and the medical image in association with each other by arranging them vertically or horizontally in an area having approximately the same area. Although the displayed medical image is a representative slice, it may be any other medical image. The display control function 143 causes the segmentation result to be displayed on the display 130 together with the false detection candidate area. The display control function 143 is an example of a display control section.

受付機能144は、ユーザから誤検出候補領域に関するラベリングを受け付ける。ラベリングは、例えば、弱教師データを含む。弱教師データは、誤検出候補領域におけるセグメンテーション結果の修正に関する情報を含むデータである。ユーザは、入力インターフェース120に対して入力操作することにより、誤検出候補領域におけるセグメンテーション結果の修正を指定する。 The reception function 144 receives labeling regarding the false detection candidate area from the user. Labeling includes, for example, weakly supervised data. Weakly supervised data is data that includes information regarding correction of segmentation results in false detection candidate regions. The user specifies correction of the segmentation result in the false detection candidate region by performing an input operation on the input interface 120.

入力インターフェース120は、入力インターフェース120の入力操作に応じた弱教師データを生成し、生成した弱教師データを処理回路140に送信する。処理回路140における受付機能144は、入力インターフェース120により送信された弱教師データを受け付ける。受付機能144は、受付部の一例である。 The input interface 120 generates weakly supervised data in response to input operations on the input interface 120, and transmits the generated weakly supervised data to the processing circuit 140. The reception function 144 in the processing circuit 140 receives the weakly supervised data transmitted by the input interface 120. The reception function 144 is an example of a reception unit.

再セグメンテーション機能145は、メモリ150に格納された自動セグメンテーション結果DB152に含まれるセグメンテーション結果及び受付機能144により受け付けられた弱教師データに基づいて、セグメンテーションモデル153を用いて、医用画像における対象領域のセグメンテーション(再セグメンテーション)を実行する。 The re-segmentation function 145 performs segmentation of the target area in the medical image using the segmentation model 153 based on the segmentation results included in the automatic segmentation result DB 152 stored in the memory 150 and the weakly supervised data received by the reception function 144. (resegmentation).

再セグメンテーション機能145は、例えば、グラフカット、リージョングローイング法などにより再セグメンテーションを行ってもよし、ニューラルネットワークを用いた再セグメンテーションを行ってもよい。再セグメンテーション機能145は、再セグメンテーション部の一例である。対象領域は、医用画像を自動セグメンテーションした後に設定される領域であるので、対象領域のセグメンテーションは、再セグメンテーションとなる。 The re-segmentation function 145 may perform re-segmentation using, for example, a graph cut, a region growing method, or the like, or may perform re-segmentation using a neural network. The re-segmentation function 145 is an example of a re-segmentation unit. Since the target region is a region set after automatic segmentation of a medical image, segmentation of the target region is re-segmentation.

次に、医用画像処理装置100における処理ついて説明する。図5は、医用画像処理装置100における処理の一例を示すフローチャートである。医用画像処理装置100は、まず、自動セグメンテーションの対象となる医用画像を取得機能141により取得した否かを判定する(ステップS101)。医用画像を取得していないと判定した場合、取得機能141は、ステップS101の処理を繰り返す。 Next, processing in the medical image processing apparatus 100 will be explained. FIG. 5 is a flowchart illustrating an example of processing in the medical image processing apparatus 100. The medical image processing apparatus 100 first determines whether a medical image to be subjected to automatic segmentation has been acquired by the acquisition function 141 (step S101). If it is determined that no medical image has been acquired, the acquisition function 141 repeats the process of step S101.

医用画像を取得したと判定した場合、取得機能141は、取得した医用画像を取得画像DB151に格納する。続いて、取得機能141は、モダリティ30により送信された自動セグメンテーション結果を取得する(ステップS103)。セグメンテーションの対象は、例えば、ユーザにより予め指定されていてもよいし、セグメンテーションがなされた後に指定されてもよい。取得機能141は、取得したセグメンテーション結果を自動セグメンテーション結果DB152に格納する。 If it is determined that a medical image has been acquired, the acquisition function 141 stores the acquired medical image in the acquired image DB 151. Subsequently, the acquisition function 141 acquires the automatic segmentation result transmitted by the modality 30 (step S103). The target of segmentation may be specified by the user in advance, or may be specified after segmentation has been performed, for example. The acquisition function 141 stores the acquired segmentation results in the automatic segmentation result DB 152.

続いて、特定機能142は、セグメンテーションした各医用画像について、誤検出候補領域を特定する(ステップS105)。特定機能142は、例えば、セグメンテーション結果の予測確率を画素ごとに算出し、算出した予測確率の高さに応じて誤検出候補領域を特定し、例えば、予測確率が所定割合以下の画素の部分を誤検出候補領域と特定する。特定機能142は、過去の同様のセグメンテーション結果や画像処理に基づいて誤検出候補領域を特定してもよい。 Subsequently, the identification function 142 identifies false detection candidate regions for each segmented medical image (step S105). For example, the specific function 142 calculates the predicted probability of the segmentation result for each pixel, identifies a false detection candidate region according to the height of the calculated predicted probability, and, for example, identifies a portion of pixels where the predicted probability is less than or equal to a predetermined percentage. Identify the area as a false detection candidate area. The identification function 142 may identify the false detection candidate area based on similar past segmentation results or image processing.

続いて、特定機能142は、取得機能141により取得された医用画像内における距離や画像特徴などを用いて定められた振分基準に基づいて医用画像をグループ化して(ステップS107)誤検出候補グループを作成する。特定機能142は、画素間及びスライス間で近辺にまとまる誤検出候補領域を含む医用画像1つのグループとする。 Subsequently, the specific function 142 groups the medical images based on the classification criteria determined using the distance, image characteristics, etc. in the medical images acquired by the acquisition function 141 (step S107), and creates false detection candidate groups. Create. The specific function 142 is defined as one group of medical images including false detection candidate areas that are clustered together between pixels and slices.

続いて、特定機能142は、作成した誤検出候補グループに含まれる複数の医用画像の中から代表スライスを選択する(ステップS109)。特定機能142は、どのように代表スライスを選択してもよい。特定機能142は、例えば、誤検出候補グループに含まれる医用画像の枚数が一定数以上である場合に、代表スライスを1枚選択し、一定数を超える場合に、代表スライスを複数枚選択する。 Subsequently, the specific function 142 selects a representative slice from among the plurality of medical images included in the created false detection candidate group (step S109). The specific function 142 may select the representative slice in any way. For example, the specific function 142 selects one representative slice when the number of medical images included in the false detection candidate group is a certain number or more, and selects a plurality of representative slices when the number exceeds a certain number.

特定機能142は、代表スライスを1枚選択する場合に、セグメンテーション結果の面積が最も大きい医用画像を代表スライスとしてもよいし、複数の医用画像が時系列で並んでいる場合の中央の医用画像を代表スライスとしてもよい。特定機能142は、例えば、代表スライスを複数枚選択する場合に、誤検出候補グループに含まれる医用画像の数に応じて枚数を決定し、例えば誤検出候補グループに含まれる医用画像の数が多いほど多くしてよい。特定機能142は、例えば、代表スライスを複数枚選択する場合に、複数の医用画像が時系列で並んでいる場合にその枚数を等分割するスライスなどしてよい。 When selecting one representative slice, the specific function 142 may select the medical image with the largest area of the segmentation result as the representative slice, or may select the central medical image when multiple medical images are arranged in chronological order. It may also be used as a representative slice. For example, when selecting a plurality of representative slices, the specific function 142 determines the number of representative slices according to the number of medical images included in the false detection candidate group, and for example, if the number of medical images included in the false detection candidate group is large. You can use as much as you like. For example, when selecting a plurality of representative slices, the specific function 142 may be a slice that divides the number of representative slices evenly when a plurality of medical images are arranged in chronological order.

図6は、医用画像をグループ化してから代表スライスを選択するまでの概要を説明する図である。図6の左列上段は、時系列に並んだ複数の医用画像を示し、左列下段は、それぞれセグメンテーション結果が重畳された時系列に並んだ複数の医用画像を示す。複数の医用画像及びセグメンテーション結果に基づき、誤検出候補領域が特定される。 FIG. 6 is a diagram illustrating an overview of the process from grouping medical images to selecting a representative slice. The upper part of the left column in FIG. 6 shows a plurality of medical images arranged in chronological order, and the lower part of the left column shows a plurality of medical images arranged in chronological order on which segmentation results are superimposed. False detection candidate regions are identified based on the plurality of medical images and segmentation results.

図6に示す例では、中列上段、中列中段、中列下段にそれぞれ示す3つの誤検出候補領域が特定される。中列上段では、画像の上部中央に誤検出候補領域が見られる。中列中段では、画像の上部左方に誤検出候補領域が見られる。中列下段では、画像の中央左部に誤検出候補領域が見られる。特定機能142は、誤検出候補領域を含む3つ医用画像のグループの中から、図6の右列上段、右列中段、右列下段にそれぞれ示すように、代表スライスを選択する。 In the example shown in FIG. 6, three false detection candidate areas are identified, shown in the upper middle row, the middle row of the middle row, and the lower middle row, respectively. In the upper middle row, a false detection candidate area can be seen at the top center of the image. In the middle row and middle row, a false detection candidate area can be seen at the top left of the image. In the lower part of the middle row, a false detection candidate area can be seen in the center left part of the image. The specific function 142 selects representative slices from among three groups of medical images including the false detection candidate region, as shown in the upper right column, middle right column, and lower right column of FIG. 6, respectively.

続いて、特定機能142は、医用画像のグループから、セグメンテーションの対象となるグループを決定する(ステップS111)。続いて、表示制御機能143は、特定機能142により選択された代表スライスのセグメンテーション結果及び誤検出候補領域をディスプレイ130に表示させる(ステップS113)。 Subsequently, the specific function 142 determines a group to be segmented from among the groups of medical images (step S111). Subsequently, the display control function 143 causes the display 130 to display the segmentation result of the representative slice selected by the specific function 142 and the false detection candidate area (step S113).

表示制御機能143は、代表スライスのセグメンテーション結果及び誤検出候補領域とともに、誤検出候補リスト及び入力モードをディスプレイ130に表示させる。誤検出候補リストは、誤検出候補グループのリストを示す。複数の誤検出候補グループ(第1誤検出候補グループから第3誤検出候補グループ)のうち、現在弱教師データの入力の対象となっている誤検出候補グループ(第1誤検出候補グループ)は明表示され、現在弱教師データの入力の対象となっている誤検出候補グループ(第2誤検出候補グループ及び第3誤検出候補グループ)は暗表示される。各誤検出候補グループにおける弱教師データの入力状況も合わせて表示される。 The display control function 143 causes the display 130 to display the segmentation result of the representative slice and the false detection candidate area, as well as the false detection candidate list and the input mode. The false detection candidate list indicates a list of false detection candidate groups. Among the multiple false positive candidate groups (the first false positive candidate group to the third false positive candidate group), the false positive candidate group (the first false positive candidate group) that is currently the target of weakly supervised data input is clear. The false detection candidate groups (the second false detection candidate group and the third false detection candidate group) that are displayed and are currently subject to input of weakly supervised data are darkly displayed. The input status of weakly supervised data in each false detection candidate group is also displayed.

入力モードは、ユーザが入力インターフェース120により入力する弱教師データの種類を示すモードである。入力モードには、背景を修正するためにユーザが入力する背景モードと、セグメンテーションの対象を修正するためにユーザが入力する対象モードと、が含まれる。 The input mode is a mode that indicates the type of weakly supervised data that the user inputs through the input interface 120. The input modes include a background mode in which the user inputs to modify the background, and a target mode in which the user inputs to modify the segmentation target.

図7は、ディスプレイ130に表示された可視化画像の一例を示す図である。ディスプレイ130における左側上部には、誤検出候補リストが表示され左側下部には入力モードが表示される。ディスプレイ130の右側には、医用画像GA10、セグメンテーション結果GA20、及び誤検出候補領域GA30が表示される。医用画像GA10は、第1誤検出候補グループにおける代表スライスである。 FIG. 7 is a diagram showing an example of a visualized image displayed on the display 130. A false detection candidate list is displayed on the upper left side of the display 130, and an input mode is displayed on the lower left side. On the right side of the display 130, a medical image GA10, a segmentation result GA20, and a false detection candidate area GA30 are displayed. Medical image GA10 is a representative slice in the first false detection candidate group.

セグメンテーション結果GA20は、医用画像GA10に重畳表示される。図7の例では、医用画像GA10の左側やや上方部分を覆うようにセグメンテーション結果GA20が表示されている。誤検出候補領域GA30は、医用画像GA10の上方中央部であり、セグメンテーション結果GA20の右側先端部近傍に配置されている。ユーザは、図7に示す画像を見ながら弱教師データを入力する。 Segmentation result GA20 is displayed superimposed on medical image GA10. In the example of FIG. 7, the segmentation result GA20 is displayed so as to cover the slightly upper left side of the medical image GA10. The false detection candidate area GA30 is located in the upper center of the medical image GA10 and near the right end of the segmentation result GA20. The user inputs weakly supervised data while viewing the image shown in FIG.

図8は、ディスプレイ130に表示された可視化画像の一例を示す図である。ユーザは、ディスプレイ130に表示された画像を見ながら、入力インターフェース120を操作することにより、誤検出候補領域GA30内におけるセグメンテーション結果GA20の修正を指示する入力操作を行う。 FIG. 8 is a diagram showing an example of a visualized image displayed on the display 130. The user operates the input interface 120 while viewing the image displayed on the display 130, thereby performing an input operation to instruct correction of the segmentation result GA20 within the false detection candidate area GA30.

ユーザは、例えば、セグメンテーション結果GA20が狭い場合に、入力モードを対象として、セグメンテーション結果GA20を広げる領域を指示するように、入力インターフェース120を入力操作する。ユーザは、例えば、セグメンテーション結果GA20が広すぎる場合に、入力モードを背景として、背景を広げる領域を指示するように、入力インターフェース120を入力操作する。このとき、ユーザは、誤検出候補領域の全体について背景や対象についての入力操作をする必要はなく、修正したい範囲のみについての入力操作をすればよい。 For example, when the segmentation result GA20 is narrow, the user performs an input operation on the input interface 120 to specify an area to widen the segmentation result GA20 using the input mode. For example, if the segmentation result GA20 is too wide, the user operates the input interface 120 to specify an area to widen the background, using the input mode as the background. At this time, the user does not need to perform an input operation regarding the background or object for the entire erroneous detection candidate area, but only needs to perform an input operation for the range to be corrected.

続いて、受付機能144は、ユーザの入力操作に基づくセグメンテーション結果の修正に応じた弱教師データを受け付けたか否かを判定する(ステップS115)。受付機能144は、弱教師データを受け付けていないと判定した場合、弱教師データを受け付けるまでステップS115の処理を繰り返す。 Subsequently, the reception function 144 determines whether weakly supervised data corresponding to the correction of the segmentation result based on the user's input operation has been received (step S115). If the receiving function 144 determines that weakly supervised data is not accepted, it repeats the process of step S115 until weakly supervised data is accepted.

弱教師データを受付機能144が受け付けたと判定した場合、再セグメンテーション機能145は、対象となる誤検出候補グループ内の医用画像のセグメンテーション結果及び受付機能144により受け付けられた弱教師データに基づいて、対象となる誤検出候補グループ内の全医用画像を再セグメンテーションする(ステップS117)。 When the reception function 144 determines that the weakly supervised data has been accepted, the resegmentation function 145 determines the target based on the segmentation results of the medical images in the target false detection candidate group and the weakly supervised data received by the reception function 144. All medical images in the false detection candidate group are re-segmented (step S117).

図9は、再セグメンテーションの工程の概要を説明する図である。図9における左側からの列をそれぞれ第1列から第4列と称する。第1列上段は、第1誤検出候補グループの代表スライス、第1列中段は、第2誤検出候補グループの代表スライス、第1列下段は、第3誤検出候補グループの代表スライスを示す。 FIG. 9 is a diagram illustrating an overview of the re-segmentation process. The columns from the left in FIG. 9 are referred to as first to fourth columns, respectively. The upper part of the first column shows a representative slice of the first false detection candidate group, the middle part of the first column shows a representative slice of the second false detection candidate group, and the lower part of the first column shows a representative slice of the third false detection candidate group.

第1列上段に示す第1誤検出候補グループの代表スライスがディスプレイ130に表示された状態で、ユーザの入力操作に基づく弱教師データを受付機能144が受け付けることにより、誤検出候補領域におけるセグメンテーション結果が弱教師データに基づいて再セグメンテーションが実行される。 With the representative slice of the first false detection candidate group shown in the upper part of the first column being displayed on the display 130, the reception function 144 receives weakly supervised data based on the user's input operation, thereby obtaining the segmentation result in the false detection candidate area. resegmentation is performed based on weakly supervised data.

続いて、第3列上段に示す第1誤検出候補グループの全ての医用画像に対して、弱教師データに基づいて、再セグメンテーションが実行される。同様の処理を第2誤検出候補グループに行うことにより、第1列中段、第2列中段、第3列中段に示すように、第2誤検出候補グループの誤検出候補領域における再セグメンテーションが弱教師データに基づいて実行される。 Subsequently, re-segmentation is performed on all medical images of the first erroneous detection candidate group shown in the upper row of the third column based on the weakly supervised data. By performing the same process on the second false detection candidate group, the resegmentation in the false detection candidate area of the second false detection candidate group is weak, as shown in the middle row of the first column, the middle row of the second column, and the middle row of the third column. Executed based on supervised data.

さらに、同様の処理を第3誤検出候補グループに行うことにより、第1列下段、第2列下段、第3列下段に示すように、第2誤検出候補グループの誤検出候補領域における再セグメンテーションが弱教師データに基づいて行われる。そして、第3列上段、第3列中段、第3列下段に示す全医用画像を合わせることにより、第4列に示すように、全医用画像のセグメンテーション結果が得られる。 Furthermore, by performing similar processing on the third false positive candidate group, resegmentation in the false positive candidate area of the second false positive candidate group is achieved, as shown in the lower row of the first column, the lower row of the second column, and the lower row of the third column. is performed based on weakly supervised data. By combining all the medical images shown in the upper row of the third column, the middle row of the third row, and the lower row of the third row, the segmentation results of all the medical images are obtained as shown in the fourth column.

続いて、再セグメンテーション機能145は、全誤検出候補グループについて再セグメンテーションが終了したか否かを判定する(ステップS119)。全誤検出候補グループについて再セグメンテーションが終了していないと判定した場合、再セグメンテーション機能145は、処理をステップS111に戻し、再セグメンテーションが終了していない誤検出候補グループを決定して、ステップS119までの処理を繰り返す。 Subsequently, the re-segmentation function 145 determines whether re-segmentation has been completed for all false detection candidate groups (step S119). If it is determined that re-segmentation has not been completed for all false detection candidate groups, the re-segmentation function 145 returns the process to step S111, determines the false detection candidate groups for which re-segmentation has not been completed, and continues the process up to step S119. Repeat the process.

全誤検出候補グループについて再セグメンテーションが終了したと再セグメンテーション機能145が判定した場合、医用画像処理装置100は、図5に示す処理を終了する。 When the re-segmentation function 145 determines that re-segmentation has been completed for all false detection candidate groups, the medical image processing apparatus 100 ends the process shown in FIG. 5.

第1の実施形態の医用画像処理装置100は、誤検出候補領域を表示し、ユーザが誤検出領域を見たユーザが入力した弱教師データに基づいて、対象領域のセグメンテーション(再セグメンテーション)を実行する。このため、医用画像の再セグメンテーションにかかる手間を軽減することができる。 The medical image processing apparatus 100 of the first embodiment displays a false detection candidate region and performs segmentation (re-segmentation) of the target region based on weakly supervised data input by the user who saw the false detection region. do. Therefore, the effort required for resegmenting medical images can be reduced.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と比較して、モデル生成機能を備える点で主に異なる。以下、第1の実施形態との相違点を中心として、第2の実施形態の医用画像処理装置について説明する。
(Second embodiment)
Next, a second embodiment will be described. The medical image processing apparatus 100 of the second embodiment differs from the medical image processing apparatus 100 of the first embodiment mainly in that it includes a model generation function. The medical image processing apparatus of the second embodiment will be described below, focusing on the differences from the first embodiment.

図10は、第2の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。第2の実施形態の医用画像処理装置100は、処理回路140において、モデル生成機能210を備える。モデル生成機能210は、再セグメンテーションの結果を入力とした機械学習によりセグメンテーションモデル153を更新する。モデル生成機能210は、モデル生成部の一例である。 FIG. 10 is a block diagram showing an example of the configuration of a medical image processing apparatus 100 according to the second embodiment. The medical image processing apparatus 100 of the second embodiment includes a model generation function 210 in the processing circuit 140. The model generation function 210 updates the segmentation model 153 by machine learning using the re-segmentation results as input. The model generation function 210 is an example of a model generation unit.

第2の実施形態の医用画像処理装置100は、第1の実施形態と同様の手順により、セグメンテーション結果及び弱教師データに基づいて、医用画像における対象領域のセグメンテーション(再セグメンテーション)を実行するまで処理を実行する。続いて、モデル生成機能210は、セグメンテーション結果及び弱教師データを入力データ、再セグメンテーション結果を出力データとした教師データを用いた機械学習により、セグメンテーションモデル153を更新する。モデル生成機能210は、更新したセグメンテーションモデルを新たなセグメンテーションモデル153としてメモリ150に格納する。 The medical image processing apparatus 100 according to the second embodiment performs processing until segmentation (re-segmentation) of a target area in a medical image is performed based on the segmentation result and weakly supervised data using the same procedure as in the first embodiment. Execute. Subsequently, the model generation function 210 updates the segmentation model 153 by machine learning using the segmentation results and the supervised data with the weakly supervised data as input data and the re-segmentation results as output data. The model generation function 210 stores the updated segmentation model in the memory 150 as a new segmentation model 153.

第2の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第2の実施形態の医用画像処理装置100は、モデル生成機能210を備える。このため、再セグメンテーションを実行するごとに再セグメンテーション結果を用いてセグメンテーションモデル153が更新されるので、セグメンテーションモデル153によるセグメンテーションの精度を高めることができる。 The medical image processing apparatus 100 of the second embodiment has the same effects as the medical image processing apparatus 100 of the first embodiment. The medical image processing apparatus 100 of the second embodiment includes a model generation function 210. Therefore, each time re-segmentation is executed, the segmentation model 153 is updated using the re-segmentation results, so the accuracy of segmentation by the segmentation model 153 can be improved.

(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態の医用画像処理装置100においては、任意のタイミングあるいはリアルタイムでセグメンテーション結果を複数回修正することができる。このため、医用画像処理装置100は、再セグメンテーション機能145が弱教師データに基づいて再セグメンテーションを実行した場合に、表示制御機能143が、再セグメンテーション結果をディスプレイ130に表示させる点で第1の実施形態と主に異なる。以下、第1の実施形態との相違点を中心として第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment will be described. In the medical image processing apparatus 100 of the third embodiment, the segmentation result can be corrected multiple times at any timing or in real time. For this reason, the medical image processing apparatus 100 performs the first implementation in that when the re-segmentation function 145 executes re-segmentation based on weakly supervised data, the display control function 143 displays the re-segmentation result on the display 130. Mainly differs in form. The third embodiment will be described below, focusing on the differences from the first embodiment.

図11は、ディスプレイ130に表示された可視化画像の一例を示す図である。第3の実施形態の医用画像処理装置100において、表示制御機能143は、医用画像GA10、セグメンテーション結果GA20、誤検出候補領域GA30等の他、再セグメンテーション結果GA21、継続ボタンGA40及び完了ボタンGA50をディスプレイ130に表示させる。 FIG. 11 is a diagram showing an example of a visualized image displayed on the display 130. In the medical image processing apparatus 100 of the third embodiment, the display control function 143 displays the medical image GA10, segmentation result GA20, false detection candidate area GA30, etc., as well as re-segmentation result GA21, continue button GA40, and completion button GA50. 130.

再セグメンテーション結果GA21は、再セグメンテーション機能145による再セグメンテーションにより得られる。再セグメンテーション結果GA21は、セグメンテーション結果GA20と分けて表示されるが、セグメンテーション結果GA20と再セグメンテーション結果GA21は一体的に表示されてもよい。継続ボタンGA40及び完了ボタンGA50については、第4の実施形態において説明する。 The re-segmentation result GA21 is obtained by re-segmentation by the re-segmentation function 145. Although the re-segmentation result GA21 is displayed separately from the segmentation result GA20, the segmentation result GA20 and the re-segmentation result GA21 may be displayed integrally. The continue button GA40 and the completion button GA50 will be explained in the fourth embodiment.

再セグメンテーション結果GA21が表示された後、さらに再セグメンテーション機能145による再セグメンテーションが実行される場合には、ここでのセグメンテーション結果GA20と再セグメンテーション結果GA21が一体的となってセグメンテーション結果GA20としてディスプレイ130に表示される。 After the re-segmentation result GA21 is displayed, if re-segmentation is further performed by the re-segmentation function 145, the segmentation result GA20 here and the re-segmentation result GA21 are integrated and displayed on the display 130 as the segmentation result GA20. Is displayed.

第3の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第3の実施形態の医用画像処理装置100は、さらに、再度の再セグメンテーションを実行する場合に、再セグメンテーション結果GA21が表示される。このため、ユーザは、再セグメンテーション結果GA21を確認しながら任意のタイミングあるいはリアルタイムでセグメンテーション結果を修正することができる。 The medical image processing apparatus 100 of the third embodiment has the same effects as the medical image processing apparatus 100 of the first embodiment. The medical image processing apparatus 100 of the third embodiment further displays a re-segmentation result GA21 when re-segmenting is performed again. Therefore, the user can modify the segmentation result at any timing or in real time while checking the re-segmentation result GA21.

(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態の医用画像処理装置100は、任意のタイミングあるいはリアルタイムでセグメンテーション結果を複数回修正し、医用画像の再セグメンテーションを実行した後、更に、再セグメンテーションを実行可能である点で、主に第1の実施形態と異なる。以下、第1の実施形態との相違点を中心として第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment will be described. The main feature of the medical image processing apparatus 100 of the fourth embodiment is that it is possible to correct the segmentation result multiple times at any timing or in real time, and then perform re-segmentation after re-segmenting the medical image. This is different from the first embodiment. The fourth embodiment will be described below, focusing on the differences from the first embodiment.

第4の実施形態の医用画像処理装置100においては、再セグメンテーションを実行している間に、再セグメンテーション結果をディスプレイ130に表示させる。ここでの再セグメンテーション結果は、再セグメンテーションが複数回実行される場合の、各再セグメンテーションによる再セグメンテーション結果を含む。第4の実施形態の医用画像処理装置100では、再セグメンテーションを実行した後、さらに再セグメンテーションを実行するか、セグメンテーションを完了するかをユーザが選択可能とされる。 In the medical image processing apparatus 100 of the fourth embodiment, the re-segmentation results are displayed on the display 130 while re-segmentation is being performed. The re-segmentation results here include re-segmentation results from each re-segmentation when re-segmentation is performed multiple times. In the medical image processing apparatus 100 of the fourth embodiment, after performing re-segmentation, the user can select whether to further perform re-segmentation or to complete the segmentation.

図11に示す継続ボタンGA40及び完了ボタンGA50は、いずれもGUIである。ユーザが入力インターフェース120により指定することで入力可能である。継続ボタンGA40が指定されることにより、入力インターフェース120から継続指示を示す継続情報が処理回路140に送信される。完了ボタンGA50が指定されることにより、入力インターフェース120から完了情報が処理回路140に送信される。 Both the continuation button GA40 and the completion button GA50 shown in FIG. 11 are GUI. It can be input by the user specifying it using the input interface 120. By designating the continuation button GA40, continuation information indicating a continuation instruction is transmitted from the input interface 120 to the processing circuit 140. By designating the completion button GA50, completion information is transmitted from the input interface 120 to the processing circuit 140.

処理回路140は、取得機能141により継続情報を取得した場合、受付機能144において、入力モードを指定したユーザの弱教師データの入力を受け付け、再セグメンテーション機能145により再セグメンテーションを実行する。再セグメンテーションを実行した場合には、表示制御機能143は、再セグメンテーション結果を含む図11に示す画像をディスプレイ130に表示させる。処理回路140は、取得機能141により完了情報を取得した場合、再セグメンテーション機能145における再セグメンテーションの実行を終了する。 When the processing circuit 140 acquires the continuation information by the acquisition function 141, the reception function 144 accepts input of weakly supervised data from the user who has specified the input mode, and the re-segmentation function 145 executes re-segmentation. When re-segmentation is executed, the display control function 143 causes the display 130 to display the image shown in FIG. 11 including the re-segmentation results. When the processing circuit 140 acquires the completion information by the acquisition function 141, the processing circuit 140 ends the execution of the re-segmentation in the re-segmentation function 145.

第4の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第4の実施形態の医用画像処理装置100は、さらに、表示制御機能143が継続ボタンGA40及び完了ボタンGA50をディスプレイ130に表示させる。したがって、自らが求めるセグメンテーション結果をユーザが得るまでにかかる手間を軽減することができる。 The medical image processing apparatus 100 of the fourth embodiment has the same effects as the medical image processing apparatus 100 of the first embodiment. In the medical image processing apparatus 100 of the fourth embodiment, the display control function 143 further displays a continue button GA40 and a complete button GA50 on the display 130. Therefore, it is possible to reduce the effort required for the user to obtain the segmentation result that he/she desires.

第4の実施形態の医用画像処理装置100では、継続ボタンGA40及び完了ボタンGA50を表示するが、継続ボタンGA40及び完了ボタンGA50の一方または両票を表示しなくてもよい。継続ボタンGA40を表示しない場合には、例えば、弱教師データが入力されるごとに再セグメンテーション機能145は、再セグメンテーションを実行してもよい。完了ボタンGA50を表示しない場合には、例えば、一定時間弱教師データの入力が無い場合に、再セグメンテーション機能145における再セグメンテーションの実行を終了してよい。 In the medical image processing apparatus 100 of the fourth embodiment, the continue button GA40 and the complete button GA50 are displayed, but one or both of the continue button GA40 and the complete button GA50 may not be displayed. If the continue button GA40 is not displayed, for example, the re-segmentation function 145 may perform re-segmentation every time weakly supervised data is input. If the completion button GA50 is not displayed, the re-segmentation execution in the re-segmentation function 145 may be terminated, for example, when no teacher data is input for a certain period of time.

(第5の実施形態)
次に、第5の実施形態について説明する。第5の実施形態の医用画像処理装置100は、取得機能141は、モダリティ30により送信される医用画像を取得し、取得機能141により取得された医用画像をセグメンテーションするセグメンテーション機能を備える点で、主に第1の実施形態と異なる。以下、第1の実施形態との相違点を中心として第5の実施形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment will be described. The main feature of the medical image processing apparatus 100 of the fifth embodiment is that the acquisition function 141 has a segmentation function that acquires a medical image transmitted by the modality 30 and segments the medical image acquired by the acquisition function 141. This is different from the first embodiment. The fifth embodiment will be described below, focusing on the differences from the first embodiment.

図12は、第5の実施形態の医用画像処理装置100の構成の一例を示すブロック図である。第5の実施形態の医用画像処理装置100における処理回路140は、セグメンテーション機能310を備える。セグメンテーション機能310は、取得機能141により取得された医用画像を自動セグメンテーションする。セグメンテーション機能310は、医用画像を入力して自動セグメンテーションする。セグメンテーション機能310は、セグメンテーション結果を自動セグメンテーション結果DB152に格納する。セグメンテーション機能310は、セグメンテーション部の一例である。 FIG. 12 is a block diagram showing an example of the configuration of a medical image processing apparatus 100 according to the fifth embodiment. The processing circuit 140 in the medical image processing apparatus 100 of the fifth embodiment includes a segmentation function 310. The segmentation function 310 automatically segments the medical image acquired by the acquisition function 141. The segmentation function 310 inputs a medical image and performs automatic segmentation. The segmentation function 310 stores the segmentation results in the automatic segmentation result DB 152. The segmentation function 310 is an example of a segmentation unit.

第5の実施形態の医用画像処理装置100は、第1の実施形態の医用画像処理装置100と同様の作用効果を奏する。第5の実施形態の医用画像処理装置100は、さらに、医用画像をセグメンテーションするセグメンテーション機能310を備える。このため、セグメンテーションが実行されていない医用画像についても、セグメンテーション結果をユーザが得るまでにかかる手間を軽減することができる。 The medical image processing apparatus 100 of the fifth embodiment has the same effects as the medical image processing apparatus 100 of the first embodiment. The medical image processing apparatus 100 of the fifth embodiment further includes a segmentation function 310 that segments a medical image. Therefore, it is possible to reduce the effort required for the user to obtain segmentation results even for medical images on which segmentation has not been performed.

以上説明した少なくとも1つの実施形態によれば、セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得する取得部と、前記セグメンテーション結果に関する誤検出候補領域を特定する特定部と、前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる表示制御部と、ユーザから前記誤検出候補領域に関するラベリングを受け付ける受付部と、前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する再セグメンテーション部と、を持つことにより、医用画像の再セグメンテーションにかかる手間を軽減することができる。 According to at least one embodiment described above, a medical image including a target region to be segmented, an acquisition unit that acquires information regarding a segmentation result of the target region included in the medical image, and an erroneous detection regarding the segmentation result. a specifying unit that identifies a candidate area; a display control unit that displays information related to the false detection candidate area in association with the medical image; a reception unit that receives labeling from a user regarding the false detection candidate area; By having a re-segmentation unit that performs segmentation of the target area, it is possible to reduce the effort required for re-segmenting a medical image.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1…病院内システム
10…HIS
20…RIS
30…モダリティ
40…PACS
100…医用画像処理装置
110…通信インターフェース
120…入力インターフェース
130…ディスプレイ
140…処理回路
141…取得機能
142…特定機能
143…表示制御機能
144…受付機能
145…再セグメンテーション機能
150…メモリ
151…取得画像DB
152…自動セグメンテーション結果DB
153…セグメンテーションモデル
210…モデル生成機能
310…セグメンテーション機能
GA10…医用画像
GA20…セグメンテーション結果
GA21…再セグメンテーション結果
GA30…誤検出候補領域
GA40…継続ボタン
GA50…完了ボタン
NW…ネットワーク
1...Hospital system 10...HIS
20...RIS
30...Modality 40...PACS
100...Medical image processing device 110...Communication interface 120...Input interface 130...Display 140...Processing circuit 141...Acquisition function 142...Specific function 143...Display control function 144...Reception function 145...Resegmentation function 150...Memory 151...Acquired image DB
152...Automatic segmentation result DB
153...Segmentation model 210...Model generation function 310...Segmentation function GA10...Medical image GA20...Segmentation result GA21...Resegmentation result GA30...False detection candidate area GA40...Continue button GA50...Complete button NW...Network

Claims (10)

セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得する取得部と、
前記セグメンテーション結果に関する誤検出候補領域を特定する特定部と、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させる表示制御部と、
ユーザから前記誤検出候補領域に関するラベリングを受け付ける受付部と、
前記ラベリングに基づいて、前記対象領域の再セグメンテーションを実行する再セグメンテーション部と、を備える、
医用画像処理装置。
an acquisition unit that acquires a medical image including a target region to be segmented, and information regarding a segmentation result of the target region included in the medical image;
a specifying unit that specifies a false detection candidate region regarding the segmentation result;
a display control unit that displays information regarding the false detection candidate region in association with the medical image;
a reception unit that receives labeling regarding the false detection candidate region from a user;
a resegmentation unit that performs resegmentation of the target area based on the labeling,
Medical image processing device.
前記取得部は、前記医用画像を複数取得し、
前記特定部は、複数の前記医用画像を振分基準に基づいてグループ化された複数の前記医用画像の中から代表スライスを選択し、
前記表示制御部は、前記誤検出候補領域に関する情報を前記代表スライスに対応付けて表示させる、
請求項1に記載の医用画像処理装置。
The acquisition unit acquires a plurality of the medical images,
The identifying unit selects a representative slice from among the plurality of medical images that are grouped based on a classification criterion;
The display control unit displays information regarding the false detection candidate region in association with the representative slice.
The medical image processing device according to claim 1.
前記特定部は、前記医用画像内における距離または画像特徴のうち少なくともいずれかを前記振分基準として、複数の前記医用画像をグループ化する、
請求項2に記載の医用画像処理装置。
The identification unit groups the plurality of medical images using at least one of a distance or an image feature within the medical image as the distribution criterion.
The medical image processing device according to claim 2.
前記表示制御部は、前記セグメンテーション結果とともに前記誤検出候補領域に関する情報を表示させる、
請求項1に記載の医用画像処理装置。
The display control unit displays information regarding the false detection candidate area together with the segmentation result.
The medical image processing device according to claim 1.
前記特定部は、複数の前記医用画像の枚数に応じて、前記代表スライスの数を調整する、
請求項2に記載の医用画像処理装置。
The specifying unit adjusts the number of representative slices according to the number of the plurality of medical images.
The medical image processing device according to claim 2.
前記再セグメンテーションの結果を教師データとした機械学習によりセグメンテーションモデルを生成するモデル生成部を更に備える、
請求項1に記載の医用画像処理装置。
further comprising a model generation unit that generates a segmentation model by machine learning using the results of the re-segmentation as training data;
The medical image processing device according to claim 1.
前記表示制御部は、前記再セグメンテーションの結果を前記誤検出候補領域に関する情報とともに表示させる、
請求項1に記載の医用画像処理装置。
The display control unit displays the result of the re-segmentation together with information regarding the false detection candidate area.
The medical image processing device according to claim 1.
前記受付部は、前記対象領域のセグメンテーションを継続させる継続指示を受け付ける、
請求項7に記載の医用画像処理装置。
The reception unit receives a continuation instruction to continue segmentation of the target area.
The medical image processing device according to claim 7.
コンピュータが、
セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得し、
前記セグメンテーション結果に関する誤検出候補領域を特定し、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させ、
ユーザから前記誤検出候補領域に関するラベリングを受け付け、
前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する、
医用画像処理方法。
The computer is
obtaining a medical image including a target region to be segmented and information regarding a segmentation result of the target region included in the medical image;
identifying a false positive candidate region regarding the segmentation result;
displaying information regarding the false detection candidate region in association with the medical image;
receiving labeling regarding the false detection candidate area from a user;
performing segmentation of the region of interest based on the labeling;
Medical image processing method.
コンピュータに、
セグメンテーション対象の対象領域を含む医用画像と、前記医用画像に含まれる前記対象領域のセグメンテーション結果に関する情報を取得し、
前記セグメンテーション結果に関する誤検出候補領域を特定し、
前記誤検出候補領域に関する情報を前記医用画像に対応付けて表示させ、
ユーザから前記誤検出候補領域に関するラベリングを受け付け、
前記ラベリングに基づいて、前記対象領域のセグメンテーションを実行する、ことを行わせる、
プログラム。
to the computer,
obtaining a medical image including a target region to be segmented and information regarding a segmentation result of the target region included in the medical image;
identifying a false positive candidate region regarding the segmentation result;
displaying information regarding the false detection candidate region in association with the medical image;
receiving labeling regarding the false detection candidate area from the user;
performing segmentation of the region of interest based on the labeling;
program.
JP2022113987A 2022-07-15 2022-07-15 Medical image processing device, medical image processing method, and program Pending JP2024011742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022113987A JP2024011742A (en) 2022-07-15 2022-07-15 Medical image processing device, medical image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022113987A JP2024011742A (en) 2022-07-15 2022-07-15 Medical image processing device, medical image processing method, and program

Publications (1)

Publication Number Publication Date
JP2024011742A true JP2024011742A (en) 2024-01-25

Family

ID=89621737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022113987A Pending JP2024011742A (en) 2022-07-15 2022-07-15 Medical image processing device, medical image processing method, and program

Country Status (1)

Country Link
JP (1) JP2024011742A (en)

Similar Documents

Publication Publication Date Title
US10460838B2 (en) Automated anatomically-based reporting of medical images via image annotation
US20180060535A1 (en) Updating probabilities of conditions based on annotations on medical images
JP4911029B2 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
US8244010B2 (en) Image processing device and a control method and control program thereof
US8306292B2 (en) Image display device and image display program storage medium
JP7187244B2 (en) Medical image processing device, medical image processing system and medical image processing program
US20180055468A1 (en) Tracking anatomical findings within medical images
JP2008521468A (en) Digital medical image analysis
US20190279408A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
US20180060488A1 (en) Customizing annotations on medical images
US20180060534A1 (en) Verifying annotations on medical images using stored rules
US20200402663A1 (en) Medical information processing apparatus and medical information processing method
JP2007151645A (en) Medical diagnostic imaging support system
US10860894B2 (en) Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program
JP2016202721A (en) Medical image display apparatus and program
US20150324521A1 (en) Information processing apparatus, information processing method, and storage medium storing program
CN112074912A (en) Interactive coronary artery labeling using interventional X-ray images and deep learning
US11200978B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US11704826B2 (en) Diagnostic imaging support apparatus capable of automatically selecting an image for extracting a contour from among a plurality of images of different types, diagnostic imaging support method therefor, and non-transitory recording medium for storing diagnostic imaging support program therefor
JP2024011742A (en) Medical image processing device, medical image processing method, and program
US20230290486A1 (en) Medical information processing device, medical information processing method, and storage medium
EP4328930A1 (en) Artificial intelligence supported reading by redacting of a normal area in a medical image
US20220108451A1 (en) Learning device, method, and program, medical image processing apparatus, method, and program, and discriminator
JP7428055B2 (en) Diagnostic support system, diagnostic support device and program
WO2022239593A1 (en) Document creation assistance device, document creation assistance method, and document creation assistance program