JP7163168B2 - Medical image processing device, system and program - Google Patents

Medical image processing device, system and program Download PDF

Info

Publication number
JP7163168B2
JP7163168B2 JP2018237696A JP2018237696A JP7163168B2 JP 7163168 B2 JP7163168 B2 JP 7163168B2 JP 2018237696 A JP2018237696 A JP 2018237696A JP 2018237696 A JP2018237696 A JP 2018237696A JP 7163168 B2 JP7163168 B2 JP 7163168B2
Authority
JP
Japan
Prior art keywords
model
trained
data
trained model
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018237696A
Other languages
Japanese (ja)
Other versions
JP2020101860A (en
Inventor
昂彦 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018237696A priority Critical patent/JP7163168B2/en
Publication of JP2020101860A publication Critical patent/JP2020101860A/en
Application granted granted Critical
Publication of JP7163168B2 publication Critical patent/JP7163168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、医用画像処理装置、システム及びプログラムに関する。 The embodiments of the present invention relate to medical image processing apparatuses, systems, and programs.

機械学習の発展に伴い、医用分野においても機械学習の適用が進みつつある。医用データを用いてモデルを機械学習して学習済みモデルを作成する場合、学習用の医用データを大量に用意する必要がある。
ある目的の処理のために一度作成された学習済みモデルは、基本的に異なる目的の処理のために利用することは難しい。例えば、脳腫瘍を検出するための学習済みモデルは、脳の医用画像の中から腫瘍を検出することに特化している。よって、肝腫瘍など別の部位から腫瘍を検出することに当該学習済みモデルを利用したとしても、肝臓の医用画像に対する処理能力は低いと考えられる。
With the development of machine learning, application of machine learning is progressing also in the medical field. When creating a learned model by machine learning a model using medical data, it is necessary to prepare a large amount of medical data for learning.
It is difficult to use a trained model once created for processing for a certain purpose for processing for a fundamentally different purpose. For example, a trained model for detecting brain tumors specializes in detecting tumors in medical images of the brain. Therefore, even if the trained model is used to detect a tumor from another site such as a liver tumor, the processing capability for medical images of the liver is considered to be low.

そのため、例えば脳の医用画像から腫瘍を検出する学習済みモデルを生成または購入したユーザが、今度は肝腫瘍を検出する学習済みモデルを利用したいと考えたとする。この場合、新たに肝腫瘍の医用データを用意して肝腫瘍の学習済みモデルを生成するか、別途肝腫瘍の学習済みモデルを購入する必要がある。結果、以前に用いた医用データや学習済みモデルを再利用することができず、ユーザにとって労力およびコストの観点からも非常に負担がかかる。 Therefore, for example, a user who has generated or purchased a trained model for detecting tumors from medical images of the brain wants to use the trained model for detecting liver tumors. In this case, it is necessary to prepare new liver tumor medical data and generate a trained model of the liver tumor, or separately purchase a trained model of the liver tumor. As a result, previously used medical data and trained models cannot be reused, which imposes a heavy burden on the user in terms of labor and cost.

米国特許出願公開第2010/0121178号明細書U.S. Patent Application Publication No. 2010/0121178 米国特許第9208405号明細書U.S. Pat. No. 9,208,405 米国特許出願公開第2018/0060722号明細書U.S. Patent Application Publication No. 2018/0060722

本発明が解決しようとする課題は、ユーザビリティを向上させることである。 A problem to be solved by the present invention is to improve usability.

本実施形態に係る医用画像処理装置は、取得部と、学習部とを含む。取得部は、入力データおよび出力データを用いて学習した第1学習済みモデルを取得する。生成部は、前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する。 A medical image processing apparatus according to this embodiment includes an acquisition unit and a learning unit. The acquisition unit acquires a first trained model trained using the input data and the output data. The generating unit re-learns the first trained model using the preprocessed data and the output data, and removes the processing corresponding to the preprocessing from the first trained model. generate a second trained model.

図1は、第1の実施形態に係る医用画像処理装置を示すブロック図である。FIG. 1 is a block diagram showing a medical image processing apparatus according to the first embodiment. 図2Aは、学習機能による学習済みモデルの細分化の具体例を示す図である。FIG. 2A is a diagram showing a specific example of subdivision of a trained model by the learning function. 図2Bは、学習機能による学習済みモデルの細分化の具体例を示す図である。FIG. 2B is a diagram showing a specific example of subdivision of a trained model by the learning function. 図3は、第2の実施形態に係る医用画像処理装置を示すブロック図である。FIG. 3 is a block diagram showing a medical image processing apparatus according to the second embodiment. 図4は、第2の実施形態に係る医用画像処理装置の動作例を示す図である。FIG. 4 is a diagram showing an operation example of the medical image processing apparatus according to the second embodiment. 図5は、モデル選択機能による細分化候補を判定する一例を示す図である。FIG. 5 is a diagram showing an example of determining subdivision candidates by the model selection function. 図6は、第3の実施形態に係る医用画像処理装置によるGUI(Graphical User Interface)の一例を示す図である。FIG. 6 is a diagram showing an example of a GUI (Graphical User Interface) by the medical image processing apparatus according to the third embodiment. 図7は、GUIにおけるモデルの検索処理の第1例を示す図である。FIG. 7 is a diagram showing a first example of model search processing in the GUI. 図8は、GUIにおけるモデルの検索処理の第2例を示す図である。FIG. 8 is a diagram showing a second example of model search processing in the GUI. 図9は、GUIにおけるモデルの検索処理の第2例を示す図である。FIG. 9 is a diagram showing a second example of model search processing in the GUI. 図10は、第4の実施形態に係る医用画像診断システムを示すブロック図である。FIG. 10 is a block diagram showing a medical image diagnostic system according to the fourth embodiment. 図11は、第4の実施形態に係る医用画像診断システムにおける医用画像処理装置の動作例を示す図である。FIG. 11 is a diagram showing an operation example of the medical image processing apparatus in the medical image diagnostic system according to the fourth embodiment.

以下、図面を参照しながら本実施形態に係わる医用画像処理装置、システムおよびプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。 A medical image processing apparatus, system, and program according to the present embodiment will be described below with reference to the drawings. In the following embodiments, it is assumed that parts denoted by the same reference numerals perform the same operations, and overlapping descriptions will be omitted as appropriate. An embodiment will be described below with reference to the drawings.

なお、以下の本実施形態に係る医用画像処理装置は、X線CT(Computed Tomography)装置またはMR(Magnetic Resonance)などの各医用画像診断装置のコンソールに含まれてもよいし、ワークステーションに含まれてもよいし、クラウドサーバなどのサーバに含まれてもよい。 The medical image processing apparatus according to the present embodiment described below may be included in the console of each medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus or MR (Magnetic Resonance), or may be included in a workstation. may be included in a server such as a cloud server.

(第1の実施形態)
第1の実施形態に係る医用画像処理装置は、学習済みモデルにより実行される処理内容を細分化し、ある処理内容に特化した学習済みモデルへ変更する。
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置10は、処理回路11と、データ格納部12と、通信インタフェース13とを含む。処理回路11は、モデル取得機能111と、処理分割機能113と、学習機能115と、表示制御機能117とを含む。
(First embodiment)
The medical image processing apparatus according to the first embodiment subdivides the processing content to be executed by the trained model and changes it to a trained model specialized for certain processing content.
A medical image processing apparatus according to the first embodiment will be described with reference to the block diagram of FIG.
A medical image processing apparatus 10 according to the first embodiment includes a processing circuit 11 , a data storage section 12 and a communication interface 13 . The processing circuitry 11 includes a model acquisition function 111 , a process division function 113 , a learning function 115 and a display control function 117 .

モデル取得機能111により処理回路11は、処理対象の学習済みモデルを取得する。処理対象の学習済みモデルは、ある入力データおよび出力データの組を学習用データとして用いて学習させることで生成されたモデルである。処理対象の学習済みモデルは、外部から取得されてもよいし、後述するデータ格納部12に予め格納される学習済みモデルを処理対象の学習済みモデルとして取得してもよい。また、処理対象の学習済みモデルは、後述する学習機能115によりモデルを学習させることで生成される学習済みモデルであってもよい。 With the model acquisition function 111, the processing circuit 11 acquires a trained model to be processed. A trained model to be processed is a model generated by learning using a set of input data and output data as learning data. The trained model to be processed may be acquired from the outside, or a trained model stored in advance in the data storage unit 12, which will be described later, may be acquired as the trained model to be processed. Also, the trained model to be processed may be a trained model that is generated by learning a model using the learning function 115, which will be described later.

処理分割機能113により処理回路11は、処理対象の学習済みモデルで実行される処理内容を細分化し、処理内容がどのような処理の組合せにより実現されるかを示す細分化情報を得る。具体的には、CTの生データが入力され、肺結節がセグメンテーションされた画像を出力する学習済みモデルを想定する。当該学習済みモデルにおいて生データから肺結節がセグメンテーションされた画像を出力するまでの過程は、例えば、生データをCT画像再構成する処理と、CT画像から肺野をセグメンテーションする処理と、肺野内の結節をセグメンテーションする処理とに細分化できる。よって、処理分割機能113により処理回路11は、細分化された処理に関する情報を細分化情報として得ればよい。
なお、処理内容の細分化方法は、ユーザがどのような処理に細分化するかを医用画像処理装置10に入力する方法を想定する。なお、細分化方法は、外部から処理内容の細分化例を得たり、または過去に医用画像処理装置10で実行された処理内容の細分化例を得たりして、当該細分化例をルックアップテーブルとしてデータ格納部12に格納しておく。処理分割機能113により処理回路11は、当該ルックアップテーブルを参照する方法でもよい。
With the processing division function 113, the processing circuit 11 subdivides the processing content to be executed by the trained model to be processed, and obtains subdivision information indicating how the processing content is realized by combination of processing. Specifically, assume a trained model that receives CT raw data and outputs images in which pulmonary nodules are segmented. The process of outputting an image in which the lung nodule is segmented from the raw data in the trained model includes, for example, a process of CT image reconstruction of the raw data, a process of segmenting the lung field from the CT image, and a process of segmenting the lung field from the CT image. It can be subdivided into the process of segmenting nodules. Therefore, the processing circuit 11 may obtain information about the subdivided processing as the subdivision information by the processing division function 113 .
In addition, as a method for subdividing the processing content, it is assumed that the user inputs to the medical image processing apparatus 10 what kind of processing is to be subdivided. The subdivision method obtains a subdivision example of the processing content from the outside, or obtains a subdivision example of the processing content executed in the medical image processing apparatus 10 in the past, and looks up the subdivision example. It is stored in the data storage unit 12 as a table. The processing circuit 11 may refer to the lookup table by the processing division function 113 .

学習機能115により処理回路11は、細分化情報に基づいて、学習済みモデルを生成した際の入力データとは異なる前処理が施された前処理データと、学習済みモデルを生成した際の出力データとを学習用データとして、当該学習済みモデルを再学習させる。再学習の結果、学習機能115により処理回路11は、元の学習済みモデルから前処理に対応する処理が除かれた再学習済みモデルを生成する。
表示制御機能117により処理回路11は、学習済みモデル、学習済みモデルの細分化情報などをディスプレイに表示させる。
Based on the subdivision information, the processing circuit 11 by the learning function 115 generates preprocessed data that has been preprocessed differently from the input data used to generate the trained model, and output data used to generate the trained model. is used as learning data, and the learned model is re-learned. As a result of the re-learning, the processing circuit 11 generates a re-learned model by removing the processing corresponding to the pre-processing from the original trained model by the learning function 115 .
By means of the display control function 117, the processing circuit 11 causes the display to display the learned model, subdivision information of the learned model, and the like.

データ格納部12は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。データ格納部12は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリの保存領域は、医用画像処理装置10内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。
データ格納部12は、例えば、学習済みモデルを再学習させるための、入力データおよび正解データ(出力データ)となる学習用データ、細分化情報を格納する。入力データとしては、例えば生データ、サイノグラムデータ、ボリュームデータ、画像データが挙げられる。正解データとしては、例えばサイノグラムデータ、ボリュームデータ、画像データ、判定スコア(病変スコアなど)、分析結果が挙げられる。学習用データは、入力データと正解データとの組の場合もあるし、前処理データと正解データとの組の場合もある。データ格納部12はさらに、入力されるデータに対し前処理を行う学習済みモデルである前処理モデルを格納してもよい。前処理モデルを用いることで、入力データから前処理データを生成することができる。
The data storage unit 12 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an integrated circuit storage device that stores various information. The data storage unit 12 includes portable storage media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), flash memories, semiconductor memory devices such as RAMs (Random Access Memory), etc., in addition to HDDs and SSDs. It may be a driving device that reads and writes various information between. Moreover, the storage area of the memory may be in the medical image processing apparatus 10 or in an external storage device connected via a network.
The data storage unit 12 stores, for example, input data, correct data (output data) for relearning a trained model, and subdivision information. Examples of input data include raw data, sinogram data, volume data, and image data. Examples of correct data include sinogram data, volume data, image data, determination scores (lesion scores, etc.), and analysis results. The learning data may be a set of input data and correct data, or may be a set of preprocessed data and correct data. The data storage unit 12 may further store a preprocessing model, which is a trained model that preprocesses input data. Preprocessed data can be generated from input data by using a preprocessed model.

通信インタフェース13は、外部と通信するためのインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。 The communication interface 13 is an interface for communicating with the outside, and since a general interface may be used, description thereof will be omitted here.

次に、学習機能115による学習済みモデルの細分化の具体例について図2Aおよび図2Bを参照して説明する。
学習済みモデルは、入力データと出力データとの組である学習用データに基づいて、モデル学習プログラムに従い、例えば多層ネットワークなどのモデルを機械学習することで生成される。機械学習のアルゴリズムとしては、ニューラルネットワーク、ディープラーニング、Random Forest等を想定するが、サポートベクタマシン、カーネル回帰など他の機械学習アルゴリズムを用いてもよい。なお、学習済みモデルは、複数の関数が合成されたパラメータ付き合成関数ともいえる。パラメータ付き合成関数は、複数の調整可能な関数およびパラメータの組合せにより定義される。学習済みモデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。
Next, a specific example of segmentation of the trained model by the learning function 115 will be described with reference to FIGS. 2A and 2B.
A trained model is generated by machine learning a model such as a multi-layer network according to a model learning program based on learning data, which is a set of input data and output data. Machine learning algorithms are assumed to be neural networks, deep learning, random forests, etc., but other machine learning algorithms such as support vector machines and kernel regression may also be used. Note that the trained model can also be said to be a parameterized composite function obtained by combining a plurality of functions. A parameterized composite function is defined by a combination of multiple adjustable functions and parameters. A trained model can be any parameterized composite function that meets the above requirements.

ここで図2Aに示すように、(a)処理対象の学習済みモデルとして、処理内容が「肺の腫瘍をセグメンテーション」である学習済みモデル20を想定する。学習済みモデル20は、入力データ21としてボリュームデータが入力されると、出力データ22として肺の腫瘍がセグメンテーションされた画像データを出力する。 Here, as shown in FIG. 2A, (a) as a trained model to be processed, a trained model 20 whose processing content is "segmentation of lung tumor" is assumed. When volume data is input as input data 21 , the trained model 20 outputs image data obtained by segmenting a lung tumor as output data 22 .

処理分割機能113により処理回路11は、細分化情報に基づき、ボリュームデータから肺の腫瘍をセグメンテーションするまでの学習済みモデル20の処理内容を細分化する。処理内容の細分化は、上述したようなユーザが適宜入力する方法でも、ルックアップテーブルを参照する方法でもよい。さらには、処理対象の学習済みモデル20の処理途中の状態を確認できる場合は、処理途中でどのような処理が行われているかを検出し、検出された処理に応じて処理内容を細分化してもよい。 With the processing division function 113, the processing circuit 11 subdivides the processing contents of the learned model 20 up to the segmentation of the lung tumor from the volume data based on the subdivision information. The details of processing may be subdivided by a method of appropriately inputting by the user as described above or a method of referring to a lookup table. Furthermore, when the state of the trained model 20 to be processed can be confirmed during processing, it detects what kind of processing is being performed during processing, and subdivides the processing contents according to the detected processing. good too.

ここでは、ボリュームデータから肺をセグメンテーションする第1ステップと、セグメンテーションされた肺を肺葉ごとに分割する第2ステップと、腫瘍をセグメンテーションする第3ステップとに処理内容が細分化された場合を想定する。ここで、ユーザが第3ステップの処理を実行する学習済みモデルを生成したいと考える場合、第1ステップおよび第2ステップは前処理と呼ばれる。 Here, it is assumed that the processing is subdivided into a first step of segmenting the lung from the volume data, a second step of dividing the segmented lung into lobes, and a third step of segmenting the tumor. . Here, when the user wishes to generate a trained model that performs the processing of the third step, the first and second steps are called preprocessing.

学習機能115により処理回路11は、入力データ21に対する前処理として、入力データ21に第1ステップが実行されたデータを入力データ23とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、学習済みモデル20を再学習(例えば強化学習)させる(図2A中、(b))。入力データ23としては、予め肺がセグメンテーションされたボリュームデータをデータ格納部12に用意し、肺がセグメンテーションされたボリュームデータが用いられてもよい。または、外部から取得した肺がセグメンテーションされたボリュームデータが用いられてもよい。または、データ格納部12に格納されるボリュームデータに対して一般的なセグメンテーション処理を実行することで、肺がセグメンテーションされたボリュームデータが生成され用いられてもよい。または、ボリュームデータが入力され、肺がセグメンテーションされたデータを出力する学習済みモデルの出力が用いてもよい。 With the learning function 115, the processing circuit 11 learns, as preprocessing for the input data 21, data obtained by performing the first step on the input data 21 as the input data 23 and data obtained by segmenting the lung tumor as the output data 22. The trained model 20 is relearned (for example, reinforced learning) based on the data for use ((b) in FIG. 2A). As the input data 23, volume data obtained by segmenting the lungs may be prepared in advance in the data storage unit 12, and the volume data obtained by segmenting the lungs may be used. Alternatively, volume data obtained by segmenting lungs obtained from the outside may be used. Alternatively, by performing a general segmentation process on the volume data stored in the data storage unit 12, volume data obtained by segmenting the lungs may be generated and used. Alternatively, the output of a trained model that receives volume data and outputs lung segmentation data may be used.

再学習の結果として得られる再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされた後のデータが入力データとして用いられるため、第1前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル24は、学習済みモデル20から第1前処理機能を除いたモデルに変更される(図2A中、(c))。再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。 The relearned model 24 obtained as a result of relearning is changed to a trained model that processes the first preprocessed data because data obtained by segmenting the lungs from the volume data is used as input data. That is, the relearned model 24 is changed to a model obtained by removing the first preprocessing function from the trained model 20 ((c) in FIG. 2A). The retrained model 24 receives data obtained by segmenting lungs from volume data, and outputs data obtained by segmenting lung tumors.

同様に、第2ステップに関する前処理済みのデータと出力データ22を用いて、再学習済みモデル24を再学習する例を図2Bに示す。
ここでは、第2ステップ、すなわち肺を肺葉ごとに分割したデータを入力データ25とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、再学習済みモデル24を再学習させる(図2B中、(d))。入力データ25は、入力データ23の場合と同様に取得されればよい。例えば、入力データ25として、予め肺葉ごとに分割されたデータが用いられてもよいし、肺がセグメンテーションされたデータが入力され、肺葉ごとに分割されたデータを出力する学習済みモデルの出力が用いられてもよい。
Similarly, an example of retraining a retrained model 24 using preprocessed data and output data 22 for the second step is shown in FIG. 2B.
Here, in the second step, the relearned model 24 is re-trained based on the learning data in which the input data 25 is data obtained by dividing the lung into lobes, and the output data 22 is data obtained by segmenting the lung tumor. Learn ((d) in FIG. 2B). The input data 25 may be acquired in the same manner as the input data 23 . For example, as the input data 25, data preliminarily divided into lung lobes may be used, or data obtained by segmenting the lung is input, and the output of a trained model that outputs data divided into lung lobes is used. may be

再学習の結果として得られる再学習済みモデル26は、肺葉ごとに分割されたデータが入力データとして用いられるため、第2前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル26は、再学習済みモデル24から第2前処理機能を除いたモデルに変更される(図2A中、(e))。再学習済みモデル26は、肺葉ごとに分割されたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。 The re-learned model 26 obtained as a result of re-learning is changed to a trained model that processes the second preprocessed data because the data divided for each lung lobe is used as input data. That is, the relearned model 26 is changed to a model obtained by removing the second preprocessing function from the relearned model 24 ((e) in FIG. 2A). The retrained model 26 receives data segmented by lung lobe, and outputs data obtained by segmenting lung tumors.

なお、図2Aおよび図2Bの(b)および(d)に示す再学習の段階で、学習機能115により処理回路11が、学習済みモデル20の多層ネットワークの中で前処理に相当する処理を実行している層を検出できる場合は、当該前処理に相当する処理を実行している層を削減したモデルに対して、再学習を実行し、再学習済みモデルを生成してもよい。 In the re-learning stages shown in (b) and (d) of FIGS. 2A and 2B, the learning function 115 causes the processing circuit 11 to perform processing corresponding to preprocessing in the multilayer network of the trained model 20. If it is possible to detect the layer in which the preprocessing is being performed, the model from which the layer in which the processing corresponding to the preprocessing is being performed is eliminated may be re-learned to generate a re-learned model.

さらに、図2Aおよび図2Bでは、細分化された処理ごとに学習済みモデルを再学習しているが、これに限らず、図2Aの(b)の再学習を実行せずに、第2前処理済みデータを入力データとし、(d)の再学習を実行してもよい。 Furthermore, in FIGS. 2A and 2B, the learned model is re-learned for each subdivided process, but this is not restrictive. The re-learning of (d) may be executed using the processed data as input data.

以上に示した第1の実施形態によれば、学習済みモデルの処理内容を細分化し、汎用性の高い学習済みモデルとなるように再学習(強化学習)させることで、汎用性の高い学習済みモデルに学習済みモデルを変更することができる。つまり、例えば肺の腫瘍をセグメンテーションした画像を出力する学習済みモデルを再学習し、腫瘍をセグメンテーションする処理に特化した学習済みモデルに変更する。当該変更された学習済みモデルに、肝臓がセグメンテーションされたデータを入力すると、当該変更された学習済みモデルでは、何らかのセグメンテーションが実行されたデータに対して腫瘍をセグメンテーションした画像を出力するので、肺の医用データに限らず、肝臓など他の臓器の医用データから腫瘍をセグメンテーションできる。
すなわち、第1の実施形態によれば、より汎用性の高い学習済みモデルを生成でき、ユーザビリティを向上させることができる。
According to the first embodiment described above, by subdividing the processing content of a trained model and re-learning (reinforcement learning) to become a highly versatile trained model, a trained model with high versatility can be obtained. A trained model can be changed into a model. That is, for example, a trained model that outputs an image obtained by segmenting a lung tumor is retrained, and the trained model is changed to a trained model that specializes in the process of segmenting a tumor. When data obtained by segmenting the liver is input to the modified trained model, the modified trained model outputs an image obtained by segmenting the tumor with respect to the data on which some segmentation has been performed. Tumors can be segmented not only from medical data, but also from medical data of other organs such as the liver.
That is, according to the first embodiment, it is possible to generate a more versatile trained model and improve usability.

(第2の実施形態)
第2の実施形態では、所望の処理を1つの学習済みモデルで実現するのではなく、複数の汎用的な学習済みモデルを組み合わせることで所望の処理を実現する。
(Second embodiment)
In the second embodiment, desired processing is realized by combining a plurality of general-purpose trained models instead of realizing desired processing with one trained model.

第2の実施形態に係る医用画像処理装置10について図3のブロック図を参照して説明する。
第2の実施形態に係る医用画像処理装置10は、第1の実施形態に係る医用画像処理装置10に加え、処理回路11にモデル選択機能119をさらに含む。また、データ格納部12および処理回路11の処理分割機能113の構成が第1の実施形態と異なる。
A medical image processing apparatus 10 according to a second embodiment will be described with reference to the block diagram of FIG.
The medical image processing apparatus 10 according to the second embodiment further includes a model selection function 119 in the processing circuit 11 in addition to the medical image processing apparatus 10 according to the first embodiment. Also, the configurations of the data storage unit 12 and the processing division function 113 of the processing circuit 11 are different from those of the first embodiment.

データ格納部12は、複数の学習済みモデルを格納する。複数の学習済みモデルはそれぞれ、処理内容が異なる。例えば、腫瘍を抽出する学習済みモデル、肺をセグメンテーションする学習済みモデルなど、各用途に応じた学習済みモデルを格納する。なお、同じ処理内容であっても入力するデータの違いに応じて複数の学習済みモデルが格納されてもよい。例えば、CT画像から腫瘍をセグメンテーションする学習済みモデルと、MR画像から腫瘍をセグメンテーションする学習済みモデルとをそれぞれ格納する。 The data storage unit 12 stores a plurality of trained models. Each of the trained models has different processing contents. For example, a trained model for extracting a tumor, a trained model for lung segmentation, etc. are stored according to each application. Note that a plurality of trained models may be stored according to differences in input data even if the processing content is the same. For example, a trained model for segmenting tumors from CT images and a trained model for segmenting tumors from MR images are stored respectively.

また、学習済みモデルには、付帯情報が付帯される。付帯情報は、学習済みモデルの処理内容、学習済みモデルから出力されるデータの正答率、学習済みモデルの入力データおよび出力データ、学習済みモデルの処理内容を実行するのに要する処理時間などを含む。 In addition, additional information is attached to the trained model. Supplementary information includes the processing details of the trained model, the correct answer rate of the data output from the trained model, the input data and output data of the trained model, the processing time required to execute the processing details of the trained model, etc. .

また、データ格納部12は、学習済みモデルに加え、ルールベースで設計された処理モデル(以下、ルールモデルという)を格納してもよい。ルールモデルにも付帯情報が付帯される。 Further, the data storage unit 12 may store a processing model designed on a rule basis (hereinafter referred to as a rule model) in addition to the learned model. Supplementary information is also attached to the rule model.

処理分割機能113により処理回路11は、ユーザの所望の処理(以下、目的処理と呼ぶ)を複数の処理に細分化する。言い換えれば、目的処理を複数の処理(ステップ)の組み合わせに変換する。目的処理を細分化する場合は、第1の実施形態に係る学習済みモデルの処理内容を細分化する場合と同様の方法を用いればよい。
モデル選択機能119により処理回路11は、付帯情報に基づき、目的処理を達成するための学習済みモデルの組合せを選択する。
With the processing division function 113, the processing circuit 11 subdivides the processing desired by the user (hereinafter referred to as target processing) into a plurality of processings. In other words, the target process is converted into a combination of multiple processes (steps). When subdividing the target process, the same method as in subdividing the processing content of the trained model according to the first embodiment may be used.
With the model selection function 119, the processing circuit 11 selects a combination of trained models for achieving the target processing based on the incidental information.

次に、第2の実施形態に係る医用画像処理装置10の具体的な動作例について図4を参照して説明する。
目的処理40として、「X線CT装置により取得した生データから肺結節をセグメンテーションする」場合を想定する。以下、X線CT装置により取得した生データをCT生データという。
Next, a specific operation example of the medical image processing apparatus 10 according to the second embodiment will be described with reference to FIG.
As the target process 40, a case of "segmentation of pulmonary nodules from raw data acquired by an X-ray CT apparatus" is assumed. Raw data acquired by the X-ray CT apparatus is hereinafter referred to as CT raw data.

処理分割機能113により処理回路11は、目的処理40を、CT生データからの画像再構成処理、肺野セグメンテーション処理、及び肺野内の結節セグメンテーション処理に細分化する。結果として、第1学習済みモデル41、第2学習済みモデル43および第3学習済みモデル45の組合せが得られる。 The processing division function 113 causes the processing circuit 11 to subdivide the target processing 40 into image reconstruction processing from CT raw data, lung field segmentation processing, and lung nodule segmentation processing. As a result, a combination of first trained model 41, second trained model 43 and third trained model 45 is obtained.

目的処理の細分化の粒度(例えば、組み合わされる処理の数)は、ユーザが所有している(データ格納部12に格納される)学習済みモデルを優先的に利用するように決定されてもよい。例えば、目的処理を第1の処理から第5の処理までの5つの処理に細分化できる場合、ユーザが既に第4および第5の処理をまとめた学習済みモデルを所有していれば、当該学習済みモデルを利用すべく、目的処理を3つの処理に細分化すればよい。なお、細分化の粒度は、なるべく細分化数が少なくなるような学習済みモデルの組合せに決定されてもよいし、反対に、なるべく細分化数が多くなるような学習済みモデルの組合せに決定されてもよい。 The granularity of subdivision of the target process (for example, the number of processes to be combined) may be determined so as to preferentially use the trained model owned by the user (stored in the data storage unit 12). . For example, when the target process can be subdivided into five processes from the first process to the fifth process, if the user already owns a trained model that summarizes the fourth and fifth processes, the learned model In order to use the finished model, the target process should be subdivided into three processes. The granularity of subdivision may be determined as a combination of trained models that minimizes the number of subdivisions, or conversely, it is determined as a combination of trained models that maximizes the number of subdivisions. may

モデル選択機能119により処理回路11は、目的処理が細分化された、画像再構成処理、肺野セグメンテーション処理および結節セグメンテーションに対応する各学習済みモデルを、データ格納部12から選択する。なお、モデル選択機能119により処理回路11は、自動的に学習モデルを選択することに限らずユーザが手動でモデルを選択してもよい。 With the model selection function 119, the processing circuit 11 selects from the data storage unit 12 each trained model corresponding to the image reconstruction processing, the lung field segmentation processing, and the nodule segmentation in which the target processing is subdivided. The model selection function 119 allows the processing circuit 11 to automatically select a learning model, and the user may manually select a model.

なお、目的処理を細分化する際には、目的処理が1つのパターンに細分化されず、複数のパターンが細分化候補として想定される場合もある。この場合、モデル選択機能119により処理回路11が、どの細分化候補が最も適切かを判定してもよい。 When subdividing the target process, the target process may not be subdivided into one pattern, and a plurality of patterns may be assumed as subdivision candidates. In this case, model selection function 119 may allow processing circuitry 11 to determine which candidate refinement is most appropriate.

モデル選択機能119による細分化候補の判定例について図5を参照して説明する。
図5の例では、図4に示す目的処理40「X線CT装置により取得した生データから肺結節をセグメンテーションする」について、2つの細分化候補51,53が生成される場合を示す。細分化候補51は「画像再構成処理→肺のセグメンテーション→肺葉のセグメンテーション→腫瘍のセグメンテーション」で示される順序の学習済みモデル511の組合せであり、細分化候補53は「肺のセグメンテーション→TDC取得処理→TDCに基づく腫瘍のセグメンテーション」で示される順序の学習済みモデル531の組合せである場合を想定する。
An example of determination of subdivision candidates by the model selection function 119 will be described with reference to FIG.
The example of FIG. 5 shows a case where two subdivision candidates 51 and 53 are generated for the objective process 40 "segmentation of pulmonary nodules from raw data acquired by an X-ray CT apparatus" shown in FIG. The subdivision candidate 51 is a combination of trained models 511 in the order indicated by “image reconstruction processing→lung segmentation→lung lobe segmentation→tumor segmentation”, and the subdivision candidate 53 is a combination of “lung segmentation→TDC acquisition processing”. →TDC-based tumor segmentation” is assumed to be a combination of trained models 531 in the order shown.

学習済みモデル511には付帯情報513が付帯され、学習済みモデル531には付帯情報533が付帯される。また、細分化候補51には全体的な付帯情報52が付帯され、細分化候補53にも全体的な付帯情報54が付与される。なお、図5の例では、説明の便宜上、付帯情報513のみ内容を図示しているが、他の付帯情報にも同様の情報が含まれる。 Additional information 513 is attached to the trained model 511 , and additional information 533 is attached to the trained model 531 . Further, the subdivision candidate 51 is attached with overall additional information 52 , and the subdivision candidate 53 is also provided with overall additional information 54 . In addition, in the example of FIG. 5, for convenience of explanation, the contents of only the incidental information 513 are illustrated, but the same information is included in other incidental information.

全体的な付帯情報52および付帯情報54に含まれるデータの正答率は、細分化候補に含まれる各学習済みモデルの正答率の平均であってもよいし、細分化候補51または細分化候補53によりサンプルデータを処理させることで得られる正答率でもよい。または、第三者により実際に利用されたときの正答率のフィードバックデータを利用してもよい。全体的な付帯情報に含まれる処理時間は、各学習済みモデルの処理時間を積算した時間を用いればよい。 The correct answer rate of the data included in the overall supplementary information 52 and supplementary information 54 may be the average of the correct answer rates of the trained models included in the subdivision candidates, or the subdivision candidate 51 or subdivision candidate 53 It may be the correct answer rate obtained by processing the sample data by . Alternatively, feedback data of correct answer rate when actually used by a third party may be used. As the processing time included in the overall incidental information, the time obtained by accumulating the processing time of each learned model may be used.

モデル選択機能119により処理回路11は、付帯情報に基づき、最適な細分化候補(組合せ候補)を処理モデルとして選択する。図5の例では、正答率が優先されるように設定してあれば、細分化候補53が処理モデルとして選択され、処理時間が優先される設定であれば、細分化候補51が処理モデルとして選択される。なお、提示される正答率または処理時間を考慮して、ユーザが手動で最適な細分化候補を処理モデルとして選択してもよい。 With the model selection function 119, the processing circuit 11 selects an optimum subdivision candidate (combination candidate) as a processing model based on the incidental information. In the example of FIG. 5, the subdivision candidate 53 is selected as the processing model if the correct answer rate is prioritized, and the subdivision candidate 51 is selected as the processing model if the processing time is prioritized. selected. It should be noted that the user may manually select the optimal subdivision candidate as the processing model, taking into account the presented correct answer rate or processing time.

以上に示した第2の実施形態によれば、目的処理を複数の処理に細分化し、モデル選択機能119により処理回路11が、処理ごとの学習済みモデルを組み合わせることで、目的処理を実現する。これにより、例えばユーザが、目的処理を処理内容とする学習済みモデルを所有していなくとも、手持ちの学習済みモデルを組み合わせることで同様の目的処理を実現できると共に、既に購入または作成された、手持ちの学習済みモデルを有効に利用することができる。 According to the second embodiment described above, the target process is subdivided into a plurality of processes, and the model selection function 119 allows the processing circuit 11 to combine trained models for each process, thereby realizing the target process. As a result, for example, even if the user does not own a trained model whose processing content is the target process, the same target process can be realized by combining the trained model in hand, and the user already purchased or created a hand-held It is possible to effectively use the trained model of

(第3の実施形態)
第3の実施形態では、学習済みモデルの組合せを支援するGUI(Graphical User Interface)を提供する医用画像処理装置を示す。
(Third embodiment)
The third embodiment shows a medical image processing apparatus that provides a GUI (Graphical User Interface) that supports combination of trained models.

第3の実施形態に係るGUIの一例について図6を参照して説明する。
図6は、ユーザによる学習済みモデルの組合せを支援するGUIであり、表示制御機能117により処理回路11が、例えばコンソール装置またはワークステーションのディスプレイへの当該GUIの表示を制御する。
An example of the GUI according to the third embodiment will be described with reference to FIG.
FIG. 6 shows a GUI that assists the user in combining trained models, and the display control function 117 causes the processing circuit 11 to control the display of the GUI on, for example, a console device or workstation display.

ユーザは、キーボード、マウス、トラックボールなどの外部入力装置、または、タッチパネル式のディスプレイであれば直接触れることにより、GUIへの入力またはカーソル68の移動を実現し、目的処理を実現するための学習済みモデルの組合せ作業を含む設計を行うことができる。 The user can input to the GUI or move the cursor 68 by directly touching an external input device such as a keyboard, mouse, or trackball, or by directly touching a touch-panel display. It is possible to carry out a design including a combination work of a finished model.

図6では、ある目的処理に対して、入力データと出力データとが決定されているとする。表示制御機能117により処理回路11は、目的処理に関する複数の学習済みモデルの組合せ作業を行う作業領域60、複数の学習済みモデル601を表示するAIモデルリスト62、ルールモデル640を表示するルールベースリスト64、および後述するコネクタ660を表示するコネクタリスト66を含むGUIの表示を制御する。AIモデルリスト62には、第2の実施形態に示すデータ格納部12に格納される複数の学習済みモデルが含まれることを想定する、第1の実施形態で生成された再学習済みモデルをAIモデルリスト62に含めてもよい。 In FIG. 6, it is assumed that input data and output data are determined for a certain target process. The display control function 117 causes the processing circuit 11 to display a work area 60 for combining a plurality of trained models for target processing, an AI model list 62 for displaying a plurality of trained models 601, and a rule base list for displaying a rule model 640. 64, and a connector list 66 that displays connectors 660, described below. It is assumed that the AI model list 62 includes a plurality of trained models stored in the data storage unit 12 shown in the second embodiment. It may be included in the model list 62.

ユーザは、目的処理を実現するように、AIモデルリスト62から複数の学習済みモデル601を選択し、ルールベースリスト64からルールモデル640を選択して、学習済みモデル601およびルールモデル640の組合せ作業を実行する。また、図示しないが、学習済みモデル601を選択することで、学習済みモデル601に付帯される付帯情報を表示するようにしてもよい。また、ルールモデル640に対しても付帯情報が付帯されてもよい。以下、便宜上、学習済みモデル601およびルールモデル640をまとめて単に「モデル」と呼ぶ。 The user selects a plurality of learned models 601 from the AI model list 62, selects a rule model 640 from the rule base list 64, and combines the learned models 601 and the rule model 640 so as to achieve the desired processing. to run. Further, although not shown, by selecting the learned model 601, additional information attached to the learned model 601 may be displayed. Supplementary information may also be attached to the rule model 640 . Hereinafter, for convenience, the trained model 601 and the rule model 640 are simply referred to collectively as "models."

AIモデルリスト62、ルールベースリスト64、およびコネクタリスト66は、モデルの処理内容のカテゴリごとにソートして表示されてもよい。例えば、「セグメンテーション」のカテゴリ、「腫瘍判定」のカテゴリといったように区別してモデルを表示することで、ユーザの視認性を向上させることができる。 The AI model list 62, the rule base list 64, and the connector list 66 may be sorted and displayed for each category of model processing content. For example, the user's visibility can be improved by displaying the model separately in the category of "segmentation" and the category of "tumor determination".

なお、第2の実施形態で示した細分化候補をデフォルトで作業領域60に表示させておき、ユーザが、細分化候補をそのまま利用するか、細分化候補を組み替えるかを判断してもよい。 The subdivision candidates shown in the second embodiment may be displayed in the work area 60 by default, and the user may decide whether to use the subdivision candidates as they are or to rearrange the subdivision candidates.

GUIで表示される学習済みモデル601は、説明ブロック6011と、入力端子6013と出力端子6015とを含む。説明ブロック6011は、学習済みモデル601の処理内容を記載したブロックである。入力端子6013は、入力データの形式が記号で示され、当該記号が説明ブロック6011の一端に枝を介して接続される。出力端子6015は、出力データの形式が記号で示され、当該記号が説明ブロック6011の他端に枝を介して接続される。 A trained model 601 displayed on the GUI includes an explanation block 6011 , an input terminal 6013 and an output terminal 6015 . A description block 6011 is a block describing the processing details of the trained model 601 . The input terminal 6013 indicates the format of the input data by a symbol, and the symbol is connected to one end of the explanation block 6011 via a branch. The output terminal 6015 indicates the format of output data by a symbol, and the symbol is connected to the other end of the explanation block 6011 via a branch.

入力端子6013および出力端子6015の各データの形式としては、例えば、ピクセルデータ、ボクセルデータ、生データ、中間データ(例えば、サイノグラム)などが想定される。入力各データの形式を一意に識別するため、各データに異なる記号が割り当てられる。 As the format of each data of the input terminal 6013 and the output terminal 6015, for example, pixel data, voxel data, raw data, intermediate data (for example, sinogram), etc. are assumed. Each data is assigned a different symbol to uniquely identify the format of each input data.

ユーザは、入力端子6013および出力端子6015の形状を見れば、入出力のデータ形式が一致するか否かを容易に判断できる。図6の例では、入力データがボリュームデータで記号が「○」であると想定すると、肺のセグメンテーション処理に関する学習済みモデル601の入力端子6013が「○」の記号であるので、ユーザは学習済みモデル601を入力に接続可能であると判断できる。なお、ルールモデル640については、学習済みモデル601と同様の表示形式であるので説明を省略する。 A user can easily determine whether or not the input and output data formats match by looking at the shapes of the input terminal 6013 and the output terminal 6015 . In the example of FIG. 6, assuming that the input data is volume data and the symbol is "○", the input terminal 6013 of the trained model 601 for lung segmentation processing is the symbol "◯", so the user can It can be determined that the model 601 can be connected to the input. Note that the rule model 640 has the same display format as the learned model 601, so the explanation is omitted.

ここで、モデルの組合せ作業において、目的処理の入力および出力の間で入出力関係が揃わない場合も考えられる。例えば、先のモデルからの出力がボリュームデータで、接続したい学習済みモデル601の入力が画像データである場合、ボリュームデータから画像データへの変換が必要となる。また、入出力が同じ画像データでも、画像のマトリクスサイズが異なる場合は、入力先のマトリクスサイズに合わせて出力元のマトリクスサイズを変換する必要がある。 Here, in the work of combining models, there may be a case where the input/output relationship between the input and output of the target process is not aligned. For example, when the output from the previous model is volume data and the input of the trained model 601 to be connected is image data, conversion from volume data to image data is required. Also, even if the input and output are the same image data, if the matrix size of the image is different, it is necessary to convert the matrix size of the output source according to the matrix size of the input destination.

よって、データ形式の変換およびマトリクスサイズの変換など、モデル間の入出力関係を整合させるデータ変換を示すコネクタ660をコネクタリスト66に複数格納する。コネクタ660は、マトリクスサイズ変換であればマスク画像を用いればよく、データ変換であれば一般的なデータ変換式を用いればよい。
コネクタ660を用意することで、ユーザが視覚的かつ容易に学習済みモデル間のデータの入出力関係を合わせることができる。
Therefore, a connector list 66 stores a plurality of connectors 660 that indicate data conversion that matches the input/output relationship between models, such as data format conversion and matrix size conversion. The connector 660 may use a mask image for matrix size conversion, and may use a general data conversion formula for data conversion.
By preparing the connector 660, the user can visually and easily match the data input/output relationship between trained models.

次に、GUIにおけるモデルの検索処理の第1例について図7を参照して説明する。
図7は、作業領域60に学習済みモデル601を1つ配置した状態を示す。表示制御機能117により処理回路11は、候補領域70をGUI上に表示する。候補領域70には、モデル候補701と必要コネクタ703とが対応付けられて表示される。
モデル候補701は、作業領域60に配置されたモデルに対し組合せ可能なモデルを示す。モデル候補は、例えば処理分割機能113により処理回路11が、細分化情報に基づいて、配置された学習済みモデル601に接続されたモデルを抽出すればよい。
必要コネクタ703は、作業領域60に配置されたモデルに対してモデル候補701を接続する際に必要となるコネクタを示す。必要コネクタは、例えば表示制御機能117により処理回路11が、付帯情報を参照して、作業領域60に配置されたモデルの出力と、組合せ可能なモデルの入力とに関する情報から、入出力関係が一致していなければ、入出力関係が一致するような変換、つまりコネクタを選択して表示させればよい。なお、コネクタが必要ない場合には、「なし」と記載されるか、空欄とすればよい。
Next, a first example of model search processing in the GUI will be described with reference to FIG.
FIG. 7 shows a state in which one trained model 601 is arranged in the work area 60. FIG. The display control function 117 causes the processing circuit 11 to display the candidate area 70 on the GUI. In the candidate area 70, model candidates 701 and necessary connectors 703 are displayed in association with each other.
A model candidate 701 indicates a model that can be combined with the model arranged in the work area 60 . For the model candidate, for example, the processing circuit 11 may extract a model connected to the arranged trained model 601 based on the segmentation information by the processing division function 113 .
A required connector 703 indicates a connector required when connecting the model candidate 701 to the model arranged in the work area 60 . For example, the display control function 117 causes the processing circuit 11 to refer to the supplementary information, and based on the information on the output of the model arranged in the work area 60 and the input of the model that can be combined, the input/output relationship is the same. If they do not match, a conversion that matches the input/output relationship, that is, a connector can be selected and displayed. If a connector is not required, write "none" or leave it blank.

表示制御機能117により処理回路11は、作業領域60に、モデルが配置されると、配置されたモデルを参照して、モデル候補をAIモデルリスト62、ルールベースリスト64およびコネクタリスト66から、対象となるモデルまたはコネクタを抽出し、候補領域70に表示する。 When a model is placed in the work area 60 by the display control function 117, the processing circuit 11 refers to the placed model and selects model candidates from the AI model list 62, the rule base list 64, and the connector list 66. A model or connector that becomes is extracted and displayed in the candidate area 70 .

次に、GUIにおけるモデルの検索処理の第2例について図8および図9を参照して説明する。図8および図9は、いわゆるインクリメンタルサーチを想定する。
図8は、ユーザがモデルの組合せに用いたいと考えるモデルについて、ユーザが検索ウィンドウ80に文字を入力する例である。「は」と入力すると、「は」から始まる学習済みモデル601およびルールモデル640の候補が候補欄81に表示される。なお、コネクタ660に名称を付与しておけば、学習済みモデル601およびルールモデル640と併せて、コネクタ660も検索対象に設定されてもよい。続けてユーザが検索ウィンドウ80に「はい」と入力すると、候補欄81に表示されるモデルが、「はい」から始まる学習済みモデル601およびルールモデル640に限定される。このような学習済みモデル601として、例えば、肺のセグメンテーションのモデルが表示される。
Next, a second example of model search processing in the GUI will be described with reference to FIGS. 8 and 9. FIG. 8 and 9 assume a so-called incremental search.
FIG. 8 is an example of a user entering characters into a search window 80 for a model that the user wishes to use in combining models. When "ha" is entered, candidates for learned models 601 and rule models 640 beginning with "ha" are displayed in the candidate field 81. FIG. By giving a name to the connector 660, the connector 660 may be set as a search target together with the trained model 601 and the rule model 640. FIG. When the user subsequently enters "yes" in search window 80, the models displayed in candidate column 81 are limited to learned models 601 and rule models 640 beginning with "yes". As such a trained model 601, for example, a lung segmentation model is displayed.

以上に示した第3の実施形態によれば、学習済みモデルの組合せを支援するGUIを提供することで、ユーザが目的処理を実現可能な範囲で自由にモデルを組合せることができ、目的処理の設計に関するユーザビリティを向上させることができる。 According to the third embodiment described above, by providing a GUI that supports the combination of learned models, the user can freely combine models within a range in which the target process can be achieved. can improve the usability of the design of

(第4の実施形態)
次に、第4の実施形態として、クラウドを利用してモデルの購入および販売を行う例について説明する。
第4の実施形態に係る医用画像診断装置を含む医用画像診断システムについて図10を参照して説明する。
(Fourth embodiment)
Next, as a fourth embodiment, an example of purchasing and selling models using the cloud will be described.
A medical image diagnostic system including a medical image diagnostic apparatus according to the fourth embodiment will be described with reference to FIG.

図10に示す医用画像診断システム1は、1以上の医用画像処理装置10と、クラウドサーバ3とを含む。1以上の医用画像処理装置10は、医用画像処理装置10が病院ごとに配置される場合を想定する。各医用画像処理装置10は、ネットワーク5を介してクラウドサーバ3と接続される。 A medical image diagnostic system 1 shown in FIG. 10 includes one or more medical image processing apparatuses 10 and a cloud server 3 . It is assumed that one or more medical image processing apparatuses 10 are arranged for each hospital. Each medical image processing apparatus 10 is connected to the cloud server 3 via the network 5 .

医用画像処理装置10は、第1の実施形態または第2の実施形態に係る医用画像処理装置10の構成でもよいが、ここでは、処理回路11は表示制御機能117を含むとする。 The medical image processing apparatus 10 may have the configuration of the medical image processing apparatus 10 according to the first embodiment or the second embodiment, but here the processing circuit 11 includes the display control function 117 .

クラウドサーバ3は、データ格納部12と、処理回路11と、通信インタフェース13を含む。処理回路11は、モデル取得機能111、学習機能115および処理分割機能113を含む。このように、処理負荷が多いと想定される学習機能115や、メモリに対する負荷が多いデータ格納部12などの構成をクラウドサーバ3に含み、その他の構成を医用画像処理装置10に含むように構成を分散させてもよい。構成を分散させる際は、医用画像処理装置10ごとにアクセス権限を付与し、クラウドサーバ3に格納される学習用データおよび各種モデル(学習済みモデル、ルールモデル)のうち、アクセス権限を有するデータのみにアクセスを許可するようにアクセスを制限してもよい。 The cloud server 3 includes a data storage unit 12 , a processing circuit 11 and a communication interface 13 . Processing circuit 11 includes model acquisition function 111 , learning function 115 and processing division function 113 . In this way, the cloud server 3 includes the learning function 115, which is assumed to have a large processing load, and the data storage unit 12, which has a large memory load, and the other components are included in the medical image processing apparatus 10. may be dispersed. When distributing the configuration, access authority is granted to each medical image processing apparatus 10, and among learning data and various models (learned models, rule models) stored in the cloud server 3, only data with access authority access may be restricted to allow access to

クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのダウンロード要求に応じて、医用画像処理装置10にデータをダウンロードさせてもよい。または、クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのアップロード要求に応じて、医用画像処理装置10にデータをアップロードさせてもよい。 The cloud server 3 may cause the medical image processing apparatus 10 to download data in response to download requests from the medical image processing apparatus 10 for learning data and various models. Alternatively, the cloud server 3 may cause the medical image processing apparatus 10 to upload data in response to an upload request from the medical image processing apparatus 10 for learning data and various models.

図10に示すような構成とすることで、各医用画像処理装置10側では、処理回路11を実現するプロセッサやメモリの負荷を減らしつつ、スループットを向上させることができる。また、クラウドサーバ3側で学習処理などを行うことで、学習時間を短縮でき、データの一元管理を実現することができる。 By adopting the configuration shown in FIG. 10, on the side of each medical image processing apparatus 10, the throughput can be improved while reducing the load on the processor and memory that implement the processing circuit 11. FIG. Further, by performing learning processing on the cloud server 3 side, the learning time can be shortened, and centralized management of data can be realized.

次に、第4の実施形態に係る医用画像処理装置10の動作例を図11に示す。
図11は、図7と同様に作業領域60と候補領域72とを示すGUIの一例である。
Next, FIG. 11 shows an operation example of the medical image processing apparatus 10 according to the fourth embodiment.
FIG. 11 is an example of a GUI showing a work area 60 and candidate areas 72, similar to FIG.

表示制御機能117により処理回路11は、候補領域72をGUI上に表示する。候補領域72は、モデル候補701とユーザが当該モデル候補701を所有しているか否かを示す所有フラグ705とを対応付けて表示する。モデル候補に自身が所有していないモデル(以下、未所持モデル721という)は、所有フラグ705を「×」として表示させる。未所持モデル721は、図10のように、アイコンを破線で表示してもよいし、色を薄く表示してもよいし、マークを付けるなどしてもよい。すなわち、自身が所有しているモデルと区別して表示される態様で未所持モデル721が表示されればよい。 The display control function 117 causes the processing circuit 11 to display the candidate area 72 on the GUI. The candidate area 72 displays the candidate model 701 and an ownership flag 705 indicating whether or not the user owns the candidate model 701 in association with each other. Models that the model candidate does not own (hereinafter referred to as unpossessed models 721) are displayed with the ownership flag 705 as "x". The non-possessed model 721 may be displayed with a dashed line, a light color, or a mark as shown in FIG. 10 . In other words, the non-possessed model 721 may be displayed in a manner to be distinguished from the model owned by the user.

さらに、表示制御機能117により処理回路11は、未所持モデル721を購入するための購入ボタン723を表示してもよい。ユーザは、購入ボタン723にカーソル68を合わせクリックすることで、モデルおよび金額の確認画面(図示せず)を表示させ、さらに確認ボタンを押下すれば未所持モデル721を購入可能とする。未所持モデル721の購入方法は、例えばクラウドサーバ3に、多数の学習済みモデル、ルールモデルおよびコネクタを格納しておき、ユーザが利用する医用画像処理装置10からクラウドサーバ3にアクセスして未所持モデル721を購入可能とすればよい。 Furthermore, the display control function 117 causes the processing circuitry 11 to display a purchase button 723 for purchasing the non-possessed model 721 . By moving the cursor 68 to the purchase button 723 and clicking it, the user displays a model and price confirmation screen (not shown), and further presses the confirmation button to enable the purchase of the non-possessed model 721 . The method of purchasing the non-possessed model 721 is, for example, to store a large number of learned models, rule models, and connectors in the cloud server 3, access the cloud server 3 from the medical image processing apparatus 10 used by the user, and purchase the non-possessed model 721. Model 721 should be made available for purchase.

また、ユーザが作成した学習済みモデル、ルールモデルおよびコネクタをクラウドサーバ3に登録できるようにし、登録したモデルを第三者に販売できるようにしてもよい。 In addition, it is also possible to allow users to register learned models, rule models and connectors created by users in the cloud server 3, and to sell the registered models to third parties.

以上に示した第4の実施形態によれば、クラウドサーバに学習用データおよび各種モデルを格納し、ユーザが各種モデルをクラウドサーバから購入及び販売できることで、ユーザビリティを向上させることができる。 According to the fourth embodiment described above, learning data and various models are stored in the cloud server, and the user can purchase and sell various models from the cloud server, thereby improving usability.

本実施形態に係る処理回路11は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを含む。また処理回路11は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。処理回路11は、メモリに展開されたプログラムを実行するプロセッサにより、モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119を実行する。なお、各機能(モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路11を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。 The processing circuit 11 according to the present embodiment includes, for example, a processor such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), a ROM (Read Only Memory), and a RAM ( Random Access Memory) and other memories. The processing circuit 11 may also be an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other complex programmable logic device (CPLD). , may be implemented by a Simple Programmable Logic Device (SPLD). The processing circuit 11 executes a model acquisition function 111, a processing division function 113, a learning function 115, a display control function 117, and a model selection function 119 by means of a processor that executes programs developed in memory. Each function (model acquisition function 111, process division function 113, learning function 115, display control function 117, and model selection function 119) is not limited to being realized by a single processing circuit. The processing circuit 11 may be configured by combining a plurality of independent processors, and each function may be implemented by executing a program by each processor.

なお、上述した実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVD、Blu-ray(登録商標)ディスクなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。 Note that each function according to the above-described embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and deploying them on the memory. At this time, a program that can cause a computer to execute the method is stored in a storage medium such as a magnetic disk (hard disk, etc.), an optical disk (CD-ROM, DVD, Blu-ray (registered trademark) disk, etc.), a semiconductor memory, etc. It is also possible to distribute

上述の第1の実施形態から第3の実施形態に係る医用画像処理装置および第4の実施形態に係る医用画像処理システムによれば、ユーザビリティを向上させることができる。 According to the medical image processing apparatuses according to the first to third embodiments and the medical image processing system according to the fourth embodiment, usability can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 医用画像診断システム
3 クラウドサーバ
5 ネットワーク
10 医用画像処理装置
11 処理回路
12 データ格納部
13 通信インタフェース
20 学習済みモデル
21,23,25 入力データ
22 出力データ
24,26 再学習済みモデル
40 目的処理
41,43,45,511,531,601 学習済みモデル
51,53 細分化候補
52,54,513,533 付帯情報
60 作業領域
62 AIモデルリスト
64 ルールベースリスト
66 コネクタリスト
68 カーソル
70,72 候補領域
80 検索ウィンドウ
111 モデル取得機能
113 処理分割機能
115 学習機能
117 表示制御機能
119 モデル選択機能
640 ルールモデル
660 コネクタ
701 モデル候補
703 必要コネクタ
705 所有フラグ
721 未所持モデル
723 購入ボタン
6011 説明ブロック
6013 入力端子
6015 出力端子
1 Medical Image Diagnosis System 3 Cloud Server 5 Network 10 Medical Image Processing Apparatus 11 Processing Circuit 12 Data Storage Unit 13 Communication Interface 20 Trained Model 21, 23, 25 Input Data 22 Output Data 24, 26 Re-Trained Model 40 Objective Process 41 , 43, 45, 511, 531, 601 Trained model 51, 53 Subdivision candidate 52, 54, 513, 533 Additional information 60 Work area 62 AI model list 64 Rule base list 66 Connector list 68 Cursor 70, 72 Candidate area 80 Search window 111 Model acquisition function 113 Processing division function 115 Learning function 117 Display control function 119 Model selection function 640 Rule model 660 Connector 701 Model candidate 703 Required connector 705 Possession flag 721 Unpossessed model 723 Purchase button 6011 Explanation block 6013 Input terminal 6015 Output terminal

Claims (10)

入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得部と、
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
を具備する医用画像処理装置。
an acquisition unit that acquires a first trained model trained using the input data and the output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model a learning unit that generates a trained model;
A medical image processing apparatus comprising:
選択部をさらに具備し、
前記第2学習済みモデルは、前記第2学習済みモデルの処理内容および入出力に関する付帯情報が付帯され、
前記選択部は、前記付帯情報に基づき、目的処理を達成するための第2学習済みモデルの組合せを選択する、請求項1に記載の医用画像処理装置。
further comprising a selection unit,
the second trained model is accompanied by supplementary information regarding the processing content and input/output of the second trained model;
2. The medical image processing apparatus according to claim 1, wherein said selection unit selects a combination of second trained models for achieving target processing based on said supplementary information.
複数の第2学習済みモデルに関する第1リストと、前記第1リストから選択された第2学習済みモデルを含む学習済みモデルの組合せ作業を行う作業領域と、を表示するGUI(Graphical User Interface)を制御する表示制御部をさらに具備する、請求項2に記載の医用画像処理装置。 A GUI (Graphical User Interface) displaying a first list relating to a plurality of second trained models and a work area for performing work on combining the trained models including the second trained models selected from the first list; 3. The medical image processing apparatus according to claim 2, further comprising a display controller for controlling. 前記第1リストは、前記複数の第2学習済みモデルを処理内容のカテゴリごとにソートして表示される、請求項3に記載の医用画像処理装置。 4. The medical image processing apparatus according to claim 3, wherein said first list is displayed by sorting said plurality of second trained models by category of processing content. 前記表示制御部は、前記第1リストから第2学習済みモデルが選択され、当該第2学習済みモデルが前記作業領域に配置された場合、配置された第2学習済みモデルと組合せ可能な学習済みモデルの候補を表示する、請求項3または請求項4に記載の医用画像処理装置。 When a second trained model is selected from the first list and the second trained model is arranged in the work area, the display control unit controls a learned model that can be combined with the arranged second trained model. 5. The medical image processing apparatus according to claim 3, wherein model candidates are displayed. 前記表示制御部は、ルールベースで設計された処理モデルであるルールモデルに関する第2リストを前記GUIに表示する、請求項3から請求項5のいずれか1項に記載の医用画像処理装置。 6. The medical image processing apparatus according to any one of claims 3 to 5, wherein said display control unit displays on said GUI a second list of rule models, which are processing models designed based on rules. 前記第2学習済みモデルおよび前記ルールモデルはアイコンとして表示され、
前記アイコンは、前記第2学習済みモデルの処理内容を記載したブロックと、前記ブロックの一端に接続され、入力データを表現した記号と、前記ブロックの他端に接続され、出力データを表現した記号とを含む、請求項6に記載の医用画像処理装置。
the second trained model and the rule model are displayed as icons;
The icon includes a block describing the processing details of the second trained model, a symbol connected to one end of the block representing input data, and a symbol connected to the other end of the block representing output data. The medical image processing apparatus according to claim 6, comprising:
前記表示制御部は、前記第2学習済みモデル間、前記ルールモデル間、および前記第2学習済みモデルと前記ルールモデルとの間の入出力関係を整合させるデータ変換を示すコネクタに関する第3リストを前記GUIに表示する、請求項6または請求項7に記載の医用画像処理装置。 The display control unit creates a third list related to connectors indicating data conversion that matches input/output relationships between the second trained models, between the rule models, and between the second trained models and the rule models. 8. The medical image processing apparatus according to claim 6, wherein the GUI is displayed. 1以上の医用画像処理装置とサーバとを含む医用画像処理システムであって、
前記サーバは、
入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得部と、
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
前記入力データ、前記出力データ、前記前処理データおよび前記第2学習済みモデルを含む複数の学習済みモデルを格納する格納部と、
を具備し、
前記1以上の医用画像処理装置はそれぞれ、
前記複数の学習済みモデルに関する第1リストと、前記第1リストから選択された学習済みモデルの組合せ作業を行う作業領域と、を表示するGUI(Graphical User Interface)を制御する表示制御部を具備する、医用画像処理システム。
A medical image processing system including one or more medical image processing apparatuses and a server,
The server is
an acquisition unit that acquires a first trained model trained using the input data and the output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model a learning unit that generates a trained model;
a storage unit that stores a plurality of trained models including the input data, the output data, the preprocessed data, and the second trained model;
and
Each of the one or more medical image processing devices
a display control unit for controlling a GUI (Graphical User Interface) that displays a first list relating to the plurality of trained models and a work area for combining trained models selected from the first list; , medical imaging systems.
コンピュータに、
入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得機能と、
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習機能と、を実現させる医用画像処理プログラム。
to the computer,
an acquisition function for acquiring a first trained model trained using input data and output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model A medical image processing program that realizes a learning function that generates a finished model.
JP2018237696A 2018-12-19 2018-12-19 Medical image processing device, system and program Active JP7163168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018237696A JP7163168B2 (en) 2018-12-19 2018-12-19 Medical image processing device, system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237696A JP7163168B2 (en) 2018-12-19 2018-12-19 Medical image processing device, system and program

Publications (2)

Publication Number Publication Date
JP2020101860A JP2020101860A (en) 2020-07-02
JP7163168B2 true JP7163168B2 (en) 2022-10-31

Family

ID=71141238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237696A Active JP7163168B2 (en) 2018-12-19 2018-12-19 Medical image processing device, system and program

Country Status (1)

Country Link
JP (1) JP7163168B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6914562B1 (en) * 2020-07-08 2021-08-04 株式会社ヒューマノーム研究所 Information processing system
JP7224589B1 (en) * 2022-03-18 2023-02-20 AI inside株式会社 Program, information processing device, information processing system, information processing method
CN117396897A (en) 2022-05-11 2024-01-12 艾佐斯株式会社 Joint learner forming device, joint learner forming program, and non-transitory recording medium storing joint learner forming program
WO2024176288A1 (en) * 2023-02-20 2024-08-29 株式会社日立ハイテク Model generation system and model generation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017519282A (en) 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Distributed model learning
WO2018024555A1 (en) 2016-08-02 2018-02-08 Koninklijke Philips N.V. Robust pulmonary lobe segmentation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147099A (en) * 1995-11-24 1997-06-06 Hitachi Ltd Gradation conversion processing system for digital image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017519282A (en) 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated Distributed model learning
WO2018024555A1 (en) 2016-08-02 2018-02-08 Koninklijke Philips N.V. Robust pulmonary lobe segmentation
JP2019522299A (en) 2016-08-02 2019-08-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Robust lung lobe segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 藍雅 外3名,2段階転移学習を用いた深層畳み込みニューラルネットによるびまん性肺疾患の識別と特徴表現の解析,情報処理学会 研究報告 数理モデル化と問題解決(MPS) 2018-MPS-117 [online] ,日本,情報処理学会,2018年02月22日,pp.1-6

Also Published As

Publication number Publication date
JP2020101860A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7163168B2 (en) Medical image processing device, system and program
US10025479B2 (en) Advanced medical image processing wizard
JP5336370B2 (en) An image context-dependent application related to anatomical structures for efficient diagnosis
US11164314B2 (en) Systems and methods for lesion analysis
US20210319879A1 (en) Method and system for computer aided detection of abnormalities in image data
US20180157928A1 (en) Image analytics platform for medical data using expert knowledge models
US11229377B2 (en) System and method for next-generation MRI spine evaluation
US10188361B2 (en) System for synthetic display of multi-modality data
JP2020185374A (en) Method for aiding visualization of lesions in medical image and apparatus using the same
JP6646395B2 (en) Information processing apparatus and method, information processing system, computer program
JP2012045387A (en) System and method for analyzing and visualizing local clinical feature
WO2018097882A1 (en) System and method for rendering complex data in a virtual reality or augmented reality environment
JP6824845B2 (en) Image processing systems, equipment, methods and programs
US9361711B2 (en) Lesion-type specific reconstruction and display of digital breast tomosynthesis volumes
CN111223556A (en) Integrated medical image visualization and exploration
Moreira et al. 3D markup of radiological images in ePAD, a web-based image annotation tool
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
Tang et al. Lesion segmentation and RECIST diameter prediction via click-driven attention and dual-path connection
Alam et al. Image data augmentation for improving performance of deep learning-based model in pathological lung segmentation
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2006075216A (en) Medical image processing system, program and method
US20240087304A1 (en) System for medical data analysis
US20230334663A1 (en) Development of medical imaging ai analysis algorithms leveraging image segmentation
Lehmann et al. Strategies to configure image analysis algorithms for clinical usage
US20160004819A1 (en) Apparatus for staging of patients from medical image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150