JP2020062355A - Image processing apparatus, data generation apparatus, and program - Google Patents

Image processing apparatus, data generation apparatus, and program Download PDF

Info

Publication number
JP2020062355A
JP2020062355A JP2018197801A JP2018197801A JP2020062355A JP 2020062355 A JP2020062355 A JP 2020062355A JP 2018197801 A JP2018197801 A JP 2018197801A JP 2018197801 A JP2018197801 A JP 2018197801A JP 2020062355 A JP2020062355 A JP 2020062355A
Authority
JP
Japan
Prior art keywords
data
region
image
lesion
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018197801A
Other languages
Japanese (ja)
Other versions
JP7140630B2 (en
Inventor
山形 仁
Hitoshi Yamagata
仁 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018197801A priority Critical patent/JP7140630B2/en
Publication of JP2020062355A publication Critical patent/JP2020062355A/en
Application granted granted Critical
Publication of JP7140630B2 publication Critical patent/JP7140630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

To improve the accuracy of determining a learned model.SOLUTION: An image processing apparatus according to an embodiment includes an extraction unit and a learning unit. The extraction unit extracts, from medical data for training, first data relating to an image of a first region which is a region inside a lesion, second data relating to an image of a second region which is a region around the lesion, and third data relating to an image of a third region which is a region outside the lesion. The learning unit generates a learned model for determining input medical data by using the first data, the second data, and the third data extracted by the extraction unit as training data.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像処理装置、データ生成装置及びプログラムに関する。   Embodiments of the present invention relate to an image processing device, a data generation device, and a program.

コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習し、その特徴量に人間がラベル(記号)を与えることによって学習済モデルを生成する場合がある。   In fields such as so-called Computer Assisted Detection / Diagnostics, in which diagnosis is supported using a computer, for example, learning is performed by using a feature amount of a lesion known in advance as teacher data to generate a learned model. Moreover, in recent years, even if a human does not give the feature amount as prior knowledge by deep learning or reinforcement learning, the program self-learns the feature amount itself, and the human being labels (signs) the feature amount. A trained model may be generated by giving.

病変の特徴量を基に判定を行う学習済モデルを生成する過程の学習には、一般に訓練データが多数必要となる。例えば、深層学習(ディープラーニング)を用いて学習を行う場合、学習済モデルを生成するための医用データが訓練データとして、例えば数万個程度必要となる場合もある。しかし、これら訓練用の医用データを十分な数、入手するのが、難しい場合もある。この結果、学習された学習済モデルの判定精度が低下する場合があった。   A large amount of training data is generally required for learning in the process of generating a learned model that makes a determination based on the feature amount of a lesion. For example, when learning is performed using deep learning, medical data for generating a learned model may be required as training data, for example, about tens of thousands. However, it may be difficult to obtain a sufficient number of medical data for training. As a result, the determination accuracy of the learned model that has been learned may decrease.

特開2016−7270号公報JP, 2016-7270, A

本発明が解決しようとする課題は、学習された学習済モデルの判定精度を高めることである。   The problem to be solved by the present invention is to improve the determination accuracy of a learned model that has been learned.

実施形態に係る画像処理装置は、抽出部と、学習部とを備える。抽出部は、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する。学習部は、入力医用データについての判定を行う学習済モデルを、抽出部が抽出した第1のデータと、第2のデータと、第3のデータとを訓練データとして用いて生成する。   The image processing apparatus according to the embodiment includes an extraction unit and a learning unit. The extraction unit extracts, from the medical data for training, first data relating to the image of the first region which is the region inside the lesion, and second data relating to the image of the second region which is the region surrounding the lesion. , And third data relating to the image of the third region, which is a region outside the lesion. The learning unit generates a learned model that determines the input medical data by using the first data extracted by the extraction unit, the second data, and the third data as training data.

図1は、実施形態に係る画像処理装置を示す図である。FIG. 1 is a diagram showing an image processing apparatus according to an embodiment. 図2は、実施形態に係る画像処理装置が行う処理について説明した図である。FIG. 2 is a diagram illustrating processing performed by the image processing apparatus according to the embodiment. 図3は、実施形態に係る画像処理装置が行う画像抽出の処理の流れについて説明したフローチャートである。FIG. 3 is a flowchart illustrating a flow of image extraction processing performed by the image processing apparatus according to the embodiment. 図4は、実施形態に係る画像処理装置が行う処理について説明した図である。FIG. 4 is a diagram illustrating processing performed by the image processing apparatus according to the embodiment. 図5は、実施形態に係る画像処理装置が行う学習の処理の流れについて説明したフローチャートである。FIG. 5 is a flowchart illustrating the flow of learning processing performed by the image processing apparatus according to the embodiment. 図6は、実施形態に係る画像処理装置が行う処理について説明した図である。FIG. 6 is a diagram illustrating processing performed by the image processing apparatus according to the embodiment. 図7は、実施形態に係る画像処理装置が行う学習済モデルの実行の処理の流れについて説明したフローチャートである。FIG. 7 is a flowchart illustrating a flow of processing for executing a learned model performed by the image processing apparatus according to the embodiment.

以下、本発明の実施形態について図面を参照しながら説明する。ここで、互いに同じ構成には共通の符号を付して、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, components that are the same as each other are assigned the same reference numerals, and redundant description is omitted.

(実施形態)
図1の実施形態に係る画像処理装置100を示すブロック図である。
(Embodiment)
It is a block diagram which shows the image processing apparatus 100 which concerns on embodiment of FIG.

医用画像診断装置10は、被検体の撮影又は撮像を行い、医用データを生成する装置である。また、医用画像診断装置10は、被検体の撮像を行い生成した医用データを、画像処理装置100に送信する。ここで、医用画像診断装置10は、例えば、X線CT(Computed Tomography)装置である。かかる場合、医用画像診断装置10は、被検体に対してX線CT撮影を行い、X線CTデータまたはX線CT画像を生成する。医用画像診断装置10は、生成したX線CTデータまたはX線CT画像を、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、画像処理装置100に送信する。画像処理装置100は、後述する、第1の処理回路120が有するインタフェース機能120a又は第2の処理回路130が有するインタフェース機能130aにより、医用画像診断装置10から、X線CTデータまたはX線CT画像を取得する。   The medical image diagnostic apparatus 10 is an apparatus that captures or images a subject and generates medical data. The medical image diagnostic apparatus 10 also transmits medical data generated by imaging the subject to the image processing apparatus 100. Here, the medical image diagnostic apparatus 10 is, for example, an X-ray CT (Computed Tomography) apparatus. In such a case, the medical image diagnostic apparatus 10 performs X-ray CT imaging on the subject to generate X-ray CT data or X-ray CT images. The medical image diagnostic apparatus 10 uses the generated X-ray CT data or X-ray CT image as input medical data to be a target for determination by the learned model, or medical data for training for generating the learned model. Is transmitted to the image processing apparatus 100. The image processing apparatus 100 uses the interface function 120a of the first processing circuit 120 or the interface function 130a of the second processing circuit 130, which will be described later, to transmit X-ray CT data or X-ray CT images from the medical image diagnostic apparatus 10. To get.

なお、医用画像診断装置10が、被検体に対してX線CT撮影を行うことにより得られたX線CTデータに基づいてX線CT画像を生成してもよいし、画像処理装置100が、医用画像診断装置10から取得したX線CTデータに基づいてX線CT画像を生成してもよい。   The medical image diagnostic apparatus 10 may generate an X-ray CT image based on the X-ray CT data obtained by performing X-ray CT imaging on the subject, or the image processing apparatus 100 may An X-ray CT image may be generated based on the X-ray CT data acquired from the medical image diagnostic apparatus 10.

画像処理装置100は、医用画像診断装置10に接続され、学習済モデルの生成、学習済モデルの実行、及び様々な画像処理を実行する。画像処理装置100は、医用画像診断装置10が生成する医用データを、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、利用する。画像処理装置100は、これらの入力医用データ及び訓練用の医用データを、例えばそれぞれ入力医用画像及び訓練用の医用画像の形で、利用する。   The image processing apparatus 100 is connected to the medical image diagnostic apparatus 10 and generates a learned model, executes the learned model, and executes various image processes. The image processing apparatus 100 uses the medical data generated by the medical image diagnostic apparatus 10 as input medical data for which the learned model is to be determined, or as training medical data for generating the learned model, To use. The image processing apparatus 100 uses these input medical data and training medical data in the form of an input medical image and a training medical image, respectively.

画像処理装置100は、メモリ132、入力装置134、ディスプレイ135、第1の処理回路120、第2の処理回路130を備える。第1の処理回路120は、インタフェース機能120a、制御機能120b、生成機能120c、訓練用データ作成機能1、学習機能2を備える。訓練用データ作成機能1の中には、抽出機能4が含まれ、より詳細には、抽出機能4は、異常領域抽出機能4a、境界領域抽出機能4b、正常領域抽出機能4cが含を含む。また、学習機能2は、異常領域学習機能2a、境界領域学習機能2b、正常領域学習機能2cを含む。また、第2の処理回路130は、インタフェース機能130a、制御機能130b、生成機能130c、判定機能3を備える。   The image processing apparatus 100 includes a memory 132, an input device 134, a display 135, a first processing circuit 120, and a second processing circuit 130. The first processing circuit 120 includes an interface function 120a, a control function 120b, a generation function 120c, a training data creation function 1, and a learning function 2. The training data creation function 1 includes an extraction function 4, and more specifically, the extraction function 4 includes an abnormal area extraction function 4a, a boundary area extraction function 4b, and a normal area extraction function 4c. Further, the learning function 2 includes an abnormal area learning function 2a, a boundary area learning function 2b, and a normal area learning function 2c. The second processing circuit 130 also includes an interface function 130a, a control function 130b, a generation function 130c, and a determination function 3.

実施形態では、インタフェース機能120a、制御機能120b、生成機能120c、訓練用データ作成機能1(抽出機能4を含み、より詳細には、異常領域抽出機能4a、境界領域抽出機能4b、正常領域抽出機能4cを含む)、学習機能2(異常領域学習機能2a、境界領域学習機能2b、正常領域学習機能2cを含む)、インタフェース機能130a、制御機能130b、生成機能130c、判定機能3にて行われる各処理機能、及び学習済モデルは、コンピュータによって実行可能なプログラムの形態でメモリ132へ記憶されている。第1の処理回路120及び第2の処理回路130はプログラムをメモリ132から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の第1の処理回路120は、図1の第1の処理回路120内に示された各機能を有することになる。また、各プログラムを読み出した状態の第2の処理回路130は、図1の第2の処理回路130内に示された各機能を有することになる。また、学習済モデルに対応するプログラムを読み出した状態の第2の処理回路130が実行されると、当該学習済モデルに従った処理が行われる。なお、図1においては第1の処理回路120及び第2の処理回路1330にて、それぞれ単一の処理回路により、これらの処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせてそれぞれ第1の処理回路120及び第2の処理回路130を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよい。また、単一の処理回路により、第1の処理回路120及び第2の処理回路130の両方が実現されてもよい。別の例として、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。なお、図1において、抽出機能4、学習機能2、判定機能3、インタフェース機能120a及び130a、制御機能120b及び130b、生成機能120c及び130cは、それぞれ抽出部、学習部、判定部、受付部、制御部、画像生成部の一例である。   In the embodiment, the interface function 120a, the control function 120b, the generation function 120c, the training data creation function 1 (including the extraction function 4, more specifically, the abnormal area extraction function 4a, the boundary area extraction function 4b, and the normal area extraction function are included. 4c), learning function 2 (including abnormal area learning function 2a, boundary area learning function 2b, normal area learning function 2c), interface function 130a, control function 130b, generation function 130c, and determination function 3. The processing function and the learned model are stored in the memory 132 in the form of a program executable by a computer. The first processing circuit 120 and the second processing circuit 130 are processors that read a program from the memory 132 and execute the program to realize a function corresponding to each program. In other words, the first processing circuit 120 in the state where each program is read out has each function shown in the first processing circuit 120 of FIG. Further, the second processing circuit 130 in the state where each program is read out has the respective functions shown in the second processing circuit 130 of FIG. Further, when the second processing circuit 130 in the state where the program corresponding to the learned model is read out, the processing according to the learned model is performed. Note that, in FIG. 1, the first processing circuit 120 and the second processing circuit 1330 are described as having these processing functions realized by a single processing circuit, respectively. The first processing circuit 120 and the second processing circuit 130 may be configured in combination to realize the function by each processor executing a program. In other words, each of the above functions may be configured as a program, and one processing circuit may execute each program. Further, both the first processing circuit 120 and the second processing circuit 130 may be realized by a single processing circuit. As another example, a specific function may be implemented in a dedicated independent program execution circuit. In FIG. 1, the extraction function 4, the learning function 2, the determination function 3, the interface functions 120a and 130a, the control functions 120b and 130b, and the generation functions 120c and 130c are an extraction unit, a learning unit, a determination unit, and a reception unit, respectively. It is an example of a control unit and an image generation unit.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ132に保存されたプログラムを読み出し実行することで機能を実現する。   The word "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphical Processing Unit), or an application-specific integrated circuit (ASIC), a programmable logic device (for example, simple logic device). Programmable logic device (SPLD), complex programmable logic device (Complex Programmable Logic Device: CPLD), field programmable gate array (Field Programmable Gate Array: FPGA), and the like. Means. The processor realizes the function by reading and executing the program stored in the memory 132.

また、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。従って、例えばメモリ132に学習済モデルが保存される代わりに、プロセッサの回路内に学習済モデルに係るプログラムが直接組み込まれていてもよい。   Further, instead of storing the program in the memory 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Therefore, for example, instead of storing the learned model in the memory 132, the program related to the learned model may be directly incorporated in the circuit of the processor.

なお、第1の処理回路120は、主に訓練用データの作成および、訓練用データを用いた学習による学習済モデルの生成を主に担う処理回路であり、第2の処理回路130は、生成された学習済モデルを鑑別対象のデータに適用して鑑別を行う機能を主に担う処理回路である。   The first processing circuit 120 is a processing circuit mainly responsible for creating training data and generating a learned model by learning using the training data, and the second processing circuit 130 generates It is a processing circuit mainly having a function of applying the learned model to the data to be classified and performing the classification.

第1の処理回路120は、訓練用データ作成機能1により、医用画像診断装置10から取得したデータに基づいて、後述の学習機能2により学習を行うための訓練データを生成する。第1の処理回路120は、訓練用データ作成機能1により生成された訓練用データに対して、学習機能2を用いて学習を行い、学習済モデルを生成する。また、第2の処理仮130は、生成された学習済モデルに対して鑑別を行い、判定を行う。これら、訓練用データ作成機能1、学習機能2及び判定機能3については、後述する。   The first processing circuit 120 uses the training data creation function 1 to generate training data for performing learning by the learning function 2 described below based on the data acquired from the medical image diagnostic apparatus 10. The first processing circuit 120 performs learning using the learning function 2 on the training data generated by the training data creation function 1 to generate a learned model. In addition, the second processing tentative 130 performs discrimination on the generated learned model and makes a determination. These training data creation function 1, learning function 2 and determination function 3 will be described later.

また、第1の処理回路120は、インタフェース機能120aにより、訓練用データの取得に係る医用画像診断装置10の撮影の制御に係る情報を医用画像診断装置10へ送信し、また、医用画像診断装置10から、撮影により得られた訓練用データを取得する。また、インタフェース機能120aを有する第1の処理回路120は、受信した訓練用データをメモリ132に格納する。   Further, the first processing circuit 120 transmits, to the medical image diagnostic apparatus 10, information related to control of imaging of the medical image diagnostic apparatus 10 related to acquisition of training data by the interface function 120a, and the medical image diagnostic apparatus. From 10, the training data obtained by photographing is acquired. Further, the first processing circuit 120 having the interface function 120a stores the received training data in the memory 132.

同様に、第2の処理回路130は、インタフェース機能130aにより、鑑別対象のデータの取得に係る医用画像診断装置10の撮影の制御に係る情報を医用画像診断装置10へ送信し、また、医用画像診断装置10から、撮影により得られた鑑別対象のデータを取得する。また、第1の処理回路120は、インタフェース機能120aを有する第1の処理回路120は、受信した鑑別対象のデータをメモリ132に格納する。   Similarly, the second processing circuit 130 transmits, to the medical image diagnostic apparatus 10, information related to control of imaging of the medical image diagnostic apparatus 10 relating to acquisition of data to be distinguished by the interface function 130a, and the medical image diagnostic apparatus 10. From the diagnostic device 10, the data of the discrimination target obtained by photographing is acquired. The first processing circuit 120 has the interface function 120a. The first processing circuit 120 stores the received discrimination target data in the memory 132.

第1の処理回路120は、制御機能120bにより、また第2の処理回路130は、制御機能130bにより、医用画像診断装置10及び画像処理装置100の全般的な制御を行い、撮像や画像の生成、画像の表示等を制御する。   The first processing circuit 120 is controlled by the control function 120b, and the second processing circuit 130 is controlled by the control function 130b to perform overall control of the medical image diagnostic apparatus 10 and the image processing apparatus 100 to perform imaging and image generation. , Control the display of images, etc.

また、第1の処理回路120は、生成機能120cにより、訓練用データに基づいて、訓練用の医用画像を生成し、または生成された訓練用の医用画像に対して、種々の画像処理を行う。同様に、第2の処理回路130は、生成機能120cにより、鑑別対象のデータに基づいて、鑑別対象の医用画像を生成し、または生成された鑑別対象の医用画像に対して、種々の画像処理を行う。   Further, the first processing circuit 120 uses the generation function 120c to generate a medical image for training based on the training data, or performs various image processing on the generated medical image for training. . Similarly, the second processing circuit 130 uses the generation function 120c to generate a medical image to be classified based on the data to be classified, or to perform various image processes on the generated medical image to be classified. I do.

メモリ132は、上述の訓練用データ及び鑑別対象のデータ等、様々なデータを記憶する。メモリ132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。   The memory 132 stores various data such as the training data and the discrimination target data described above. The memory 132 is a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.

入力装置134は、操作者からの各種指示や情報入力を受け付ける。入力装置134は、例えば、マウスやトラックボール等のポインティングデバイス、モード切替スイッチ等の選択デバイス、あるいはキーボード等の入力デバイスである。ディスプレイ135は、制御機能133による制御の下、撮像条件の入力を受け付けるためのGUI(Graphical User Interface)や、生成機能120cや130cによって生成された画像等を表示する。ディスプレイ135は、例えば、液晶表示器等の表示デバイスである。ディスプレイ135は、表示部の一例である。   The input device 134 receives various instructions and information inputs from the operator. The input device 134 is, for example, a pointing device such as a mouse or a trackball, a selection device such as a mode changeover switch, or an input device such as a keyboard. Under the control of the control function 133, the display 135 displays a GUI (Graphical User Interface) for receiving the input of the imaging condition, an image generated by the generation function 120c or 130c, and the like. The display 135 is, for example, a display device such as a liquid crystal display. The display 135 is an example of a display unit.

続いて、実施形態に係る背景について簡単に説明する。   Next, the background of the embodiment will be briefly described.

コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習を行って、その特徴量にラベル(記号)を人間が与えて学習済モデルを生成する場合がある。   In fields such as so-called Computer Assisted Detection / Diagnostics, in which diagnosis is supported using a computer, for example, learning is performed by using a feature amount of a lesion known in advance as teacher data to generate a learned model. Also, in recent years, by deep learning and reinforcement learning, even if the human does not give the feature amount as prior knowledge, the program self-learns the feature amount itself and labels the feature amount with a label (symbol). It may be given by a human to generate a trained model.

病変の特徴量を基に判定を行う学習済モデルを生成する過程で行われる学習には、一般に訓練データが多数必要となる。例えば、深層学習(ディープラーニング)を用いて学習を行う場合、学習済モデルを生成するための医用データが訓練データとして、例えば数万個程度必要となる場合もある。しかし、これら訓練用の医用データを十分な数入手するのが、難しい場合もある。例えば、肺がんなどでは、商業的に利用可能な臨床データが数千個程度に留まっており、これは、深層学習を用いた学習を行う場合には、必ずしも十分な数とは言い切れない。この結果、生成された学習済モデルが、十分な判別精度を持たない場合もある。   A large amount of training data is generally required for the learning performed in the process of generating the learned model that makes a determination based on the feature amount of the lesion. For example, when learning is performed using deep learning, medical data for generating a learned model may be required as training data, for example, about tens of thousands. However, it may be difficult to obtain a sufficient number of medical data for training. For example, in lung cancer and the like, there are only about several thousand clinically available clinical data, and this is not always sufficient when performing learning using deep learning. As a result, the generated learned model may not have sufficient discrimination accuracy.

かかる背景に鑑みて、実施形態に係る画像処理装置100は、第1の処理回路120と、第2の処理回路130とを有する。第1の処理回路120は、抽出機能4により、訓練用の医用データから、病変内部の領域である第1の領域(異常領域)の画像に係る第1のデータと、病変周囲の領域である第2の領域(境界領域)の画像に係る第2のデータと、病変外部の領域である第3の領域(正常領域)の画像に係る第3のデータとを抽出する。また、第1の処理回路120は、学習機能2により、入力医用データについての判定を行う学習済モデルを、抽出機能4により抽出された第1のデータと、第2のデータと、第3のデータとを訓練データとして用いて生成する。   In view of this background, the image processing apparatus 100 according to the embodiment has the first processing circuit 120 and the second processing circuit 130. The first processing circuit 120 uses the extraction function 4 to extract, from the medical data for training, the first data relating to the image of the first area (abnormal area) that is the area inside the lesion and the area around the lesion. The second data related to the image of the second area (boundary area) and the third data related to the image of the third area (normal area) that is the area outside the lesion are extracted. In addition, the first processing circuit 120 uses the learning function 2 to calculate the learned model for determining the input medical data by using the first data extracted by the extraction function 4, the second data, and the third data. And the data as training data.

すなわち、実施形態においては、第1の処理回路120は、抽出機能4により、病変内部の領域である第1の領域(異常領域)に関するデータである第1のデータと、病変周囲の領域である第2の領域(境界領域)に関するデータである第2のデータと、病変外部の領域の領域である第3の領域(正常領域)に関するデータである第3のデータとを抽出する。かかる状況の一例が、図2に示されている。図2は、実施形態に係る画像処理装置が行う処理について説明した図である。   That is, in the embodiment, the first processing circuit 120 uses the extraction function 4 to generate the first data, which is the data regarding the first region (abnormal region) that is the region inside the lesion, and the region around the lesion. The second data, which is data regarding the second region (boundary region), and the third data, which is data regarding the third region (normal region) that is a region outside the lesion, are extracted. An example of such a situation is shown in FIG. FIG. 2 is a diagram illustrating processing performed by the image processing apparatus according to the embodiment.

図2において、異常領域11は、ある臓器内における病変部である第1の領域を表す。また、境界領域12は、病変部である異常領域11の周囲に広がる領域である第2の領域を表す。また、正常領域13a、13b、13c、13d、13e、13fは、異常領域11から十分離れているために、病変外部の正常な領域であると考えられる第3の領域を表す。なお、病変を抱えている人の病変外部の正常領域と、病変が全く無い人の正常領域との差異は、いわゆる全身性疾患ではない固形がんなどの局在性の高い病変を対象にする場合、微小であることから、少なくともかかるケースにおいては、異常領域11から十分離れている領域である第3の領域を、正常な領域として取り扱うことができる。   In FIG. 2, the abnormal area 11 represents a first area that is a lesion in a certain organ. The boundary area 12 represents a second area that is an area that spreads around the abnormal area 11 that is a lesion. Further, since the normal regions 13a, 13b, 13c, 13d, 13e, and 13f are sufficiently separated from the abnormal region 11, they represent the third region that is considered to be a normal region outside the lesion. The difference between the normal area outside the lesion of a person who has a lesion and the normal area of a person who has no lesion is targeted at highly localized lesions such as solid cancer that is not a so-called systemic disease. In this case, since it is very small, in at least such a case, the third region, which is a region sufficiently separated from the abnormal region 11, can be treated as a normal region.

図2の例では、第1の処理回路120は、抽出機能4により、異常領域11、境界領域12、及び正常領域13a〜13fを抽出する。その後、第2の処理回路130が、抽出した異常領域11、境界領域12及び正常領域13a〜13fを訓練データとして学習を行って、学習済みモデルを生成する。   In the example of FIG. 2, the first processing circuit 120 extracts the abnormal area 11, the boundary area 12, and the normal areas 13 a to 13 f by the extraction function 4. After that, the second processing circuit 130 performs learning by using the extracted abnormal region 11, boundary region 12, and normal regions 13a to 13f as training data, and generates a learned model.

図2の例では、第1に、第1の処理回路120は、一つの臨床データから、正常領域13a〜13fを複数個抽出し、これら複数個のデータを用いて学習を行う。これにより、第1の処理回路120は、少ない臨床例で、多数の有効な訓練データを生成することができ、学習の効率を向上させることができる。   In the example of FIG. 2, firstly, the first processing circuit 120 extracts a plurality of normal regions 13a to 13f from one clinical data, and performs learning using these plurality of data. As a result, the first processing circuit 120 can generate a large number of effective training data with a small number of clinical cases, and the efficiency of learning can be improved.

また、第2に、第1の処理回路120は、異常領域11だけではなく、異常領域11の周囲の広がる領域である境界領域12をも抽出し、抽出された境界領域12に係るデータを用いて学習を行う。さらに、第2の処理回路130は、異常領域11の情報のみならず、境界領域12に係る情報をも用いて病変の鑑別を行う。これにより、異常領域11のみならず境界領域12に係る特徴量が病変の鑑別に利用されることで、第2の処理回路130が行う判定の精度を向上させることができる。   Secondly, the first processing circuit 120 extracts not only the abnormal region 11 but also the boundary region 12 that is a region that spreads around the abnormal region 11, and uses the data related to the extracted boundary region 12. Learn by doing. Further, the second processing circuit 130 distinguishes the lesion by using not only the information on the abnormal region 11 but also the information on the boundary region 12. As a result, the feature amount related to the boundary region 12 as well as the abnormal region 11 is used for the discrimination of the lesion, so that the accuracy of the determination performed by the second processing circuit 130 can be improved.

以上のことを、図3〜図7を用いてより詳細に説明する。   The above will be described in more detail with reference to FIGS.

はじめに、図3及び図4を用いて、第1の処理回路120が訓練用データ作成機能1、特に抽出機能4を用いて行う、訓練用データの作成手順について説明する。   First, a procedure for creating training data, which is performed by the first processing circuit 120 using the training data creation function 1, particularly the extraction function 4, will be described with reference to FIGS. 3 and 4.

はじめに、第1の処理回路120は、抽出機能4により、医用画像診断装置10から取得した訓練用の医用データから、病変内部の領域である第1の領域(異常領域)を抽出する(ステップS100)。具体的には、第1の処理回路120は、異常領域抽出機能4aにより、医用画像診断装置10から取得した訓練用の医用データに基づいて生成機能120cにより生成された医用画像に対して、例えばLevel set法等の輪郭抽出技術を用いて、病変部位の輪郭を抽出し、異常領域11を、病変内部の領域である第1の領域として抽出する。この処理に基づき、第1の処理回路120は、異常領域抽出機能4aにより、訓練用の医用画像から、病変内部の領域である第1の領域の画像に係る第1のデータを抽出する。   First, the first processing circuit 120 extracts the first region (abnormal region), which is the region inside the lesion, from the medical data for training acquired from the medical image diagnostic apparatus 10 by the extraction function 4 (step S100). ). Specifically, the first processing circuit 120 uses, for example, the medical image generated by the generation function 120c based on the medical data for training acquired from the medical image diagnostic apparatus 10 by the abnormal area extraction function 4a, for example, The contour of the lesion site is extracted using a contour extraction technique such as the Level set method, and the abnormal region 11 is extracted as the first region that is the region inside the lesion. Based on this processing, the first processing circuit 120 uses the abnormal area extraction function 4a to extract the first data relating to the image of the first area, which is the area inside the lesion, from the medical image for training.

続いて、第1の処理回路120は、抽出機能4により、医用画像診断装置10から取得した訓練用の医用データから、病変周囲の領域である第2の領域を抽出する(ステップS110)。具体的には、第1の処理回路120は、境界領域抽出機能4bにより、医用画像診断装置10から取得した訓練用の医用データに基づいて生成機能120cにより生成された医用画像に対して、例えば morphological filteringのdilation処理を行うことにより、境界領域12を、病変周囲の領域である第2の領域として抽出する。   Then, the first processing circuit 120 uses the extraction function 4 to extract the second area, which is the area around the lesion, from the medical data for training acquired from the medical image diagnostic apparatus 10 (step S110). Specifically, the first processing circuit 120 uses, for example, the boundary area extraction function 4b for the medical image generated by the generation function 120c based on the medical data for training acquired from the medical image diagnostic apparatus 10, By performing the dilation process of morphological filtering, the boundary region 12 is extracted as the second region which is the region around the lesion.

図4に、morphological filteringのdilation処理の一例が示されている。図4は、実施形態に係る画像処理装置が行う処理について説明した図である。   FIG. 4 shows an example of dilation processing of morphological filtering. FIG. 4 is a diagram illustrating processing performed by the image processing apparatus according to the embodiment.

図4において、第1の領域20は、病変の内部の領域をあらわす領域である。第1の領域20は、図2の異常領域11に対応する領域である。第1の処理回路120は、異常領域抽出機能4aにより、第1の領域20から定められた距離の範囲にある領域、すなわち第1の領域20とdilation envelop22とで囲まれた領域を、第2の領域として抽出する。ここで、dilation envelop 22は、当該定められた距離を半径とする円21が第1の領域20と外接するように、円21を第1の領域20の周囲で動かした場合における円21の中心の描く軌跡である。ここで、当該定められた距離の範囲(dilationの拡張幅)は、病変の種類に応じた値として設定された値となる。一例として、第1の処理回路120は、病変の種類が「肝臓がん」の場合、当該定められた距離を「X mm」とし、病変の種類が「肺がん」の場合、当該定められた距離を「Y mm」と設定する。なお、第1の処理回路120は、例えば2つのがんが隣接している場合、まとめて1つの病変周辺領域として取り扱っても良い。   In FIG. 4, the first region 20 is a region that represents the region inside the lesion. The first area 20 is an area corresponding to the abnormal area 11 in FIG. The first processing circuit 120 uses the abnormal area extraction function 4a to set an area within a predetermined distance from the first area 20, that is, an area surrounded by the first area 20 and the dilation envelope 22 to the second area. As the area of. Here, the dilation envelop 22 is the center of the circle 21 when the circle 21 is moved around the first area 20 so that the circle 21 whose radius is the determined distance is circumscribed with the first area 20. It is the trajectory drawn by. Here, the range of the determined distance (expansion width of dilation) is a value set as a value according to the type of lesion. As an example, the first processing circuit 120 sets the determined distance to “X mm” when the lesion type is “liver cancer”, and sets the determined distance when the lesion type is “lung cancer”. Is set to “Y mm”. Note that, for example, when two cancers are adjacent to each other, the first processing circuit 120 may collectively treat them as one lesion peripheral region.

これらの処理に基づき、第1の処理回路120は、境界領域抽出機能4bにより、訓練用の医用画像から、病変周囲の領域である第2の領域の画像に係る第2のデータを抽出する。   Based on these processes, the first processing circuit 120 extracts the second data relating to the image of the second region which is the region around the lesion from the medical image for training by the boundary region extraction function 4b.

図3に戻り、続いて、第1の処理回路120は、正常領域抽出機能4cにより、医用画像診断装置10から取得した訓練用の医用データから、病変外部の領域である第3の領域を抽出する(ステップS120)。   Returning to FIG. 3, subsequently, the first processing circuit 120 extracts the third region, which is a region outside the lesion, from the medical data for training acquired from the medical image diagnostic apparatus 10 by the normal region extraction function 4c. (Step S120).

具体的には、第1の処理回路120は、正常領域抽出機能4cにより、判定の対象となる臓器自身の輪郭を、Level set法等の輪郭抽出技術を用いて抽出する。続いて、第1の処理回路120は、正常領域抽出機能4cにより、ステップS100で抽出した第1の領域及びステップS110で抽出した第2の領域の外側の領域を、病変外部の領域である第3の領域として抽出する。この際、第1の処理回路120は、正常領域抽出機能4cにより、第3の領域(第3の領域の画像に係る第3のデータ)の抽出の際、訓練を行う対象の組織とは異なる組織を除外して、例えば一定の大きさのVOI(Volume Of Interest)となるように抽出を行う。ここで、訓練を行う対象の組織とは異なる組織の例としては、例えば主要血管や、気管支等の主要管状組織が挙げられる。このように、第1の処理回路120は、正常領域抽出機能4cにより、がんの影響を受ける可能性のある主要血管や気管支領域そのもの、及びその周辺を取り除くことで、訓練データの質を向上させることができる。第1の処理回路120は、正常領域抽出機能4cにより、このような条件を満たす領域であって、例えば5mmの球が内接できる領域で、重なりの無い複数の球状領域を、正常領域である第3の領域として、複数個抽出する。   Specifically, the first processing circuit 120 uses the normal area extraction function 4c to extract the contour of the organ itself to be determined using a contour extraction technique such as the Level set method. Then, the first processing circuit 120 uses the normal area extraction function 4c to set the area outside the first area extracted in step S100 and the second area extracted in step S110 as the area outside the lesion. It is extracted as a region of 3. At this time, the first processing circuit 120 differs from the target tissue to be trained when the third region (third data related to the image of the third region) is extracted by the normal region extraction function 4c. Excluding the tissue, extraction is performed so as to obtain a VOI (Volume Of Interest) of a certain size, for example. Here, examples of the tissue different from the tissue to be trained include a main blood vessel and a main tubular tissue such as a bronchus. As described above, the first processing circuit 120 improves the quality of the training data by removing the main blood vessels and the bronchial region itself, which may be affected by cancer, and their surroundings by the normal region extraction function 4c. Can be made. The first processing circuit 120 uses the normal area extraction function 4c to be an area that satisfies these conditions, for example, an area where a 5 mm sphere can be inscribed, and a plurality of non-overlapping spherical areas are normal areas. A plurality of third regions are extracted.

これらの処理に基づき、第1の処理回路120は、正常領域抽出機能4cにより、訓練用の医用画像から、病変外部の領域である第3の領域の画像に係る第3のデータを抽出する。   Based on these processes, the first processing circuit 120 uses the normal region extraction function 4c to extract the third data related to the image of the third region, which is the region outside the lesion, from the medical image for training.

なお、上述の例では、抽出を行う画像が、病変を有している患者に係る画像の場合について説明した。第1の処理回路120は、抽出機能4により、病変を有していない正常人の画像を用いても良い。かかる場合、第1の処理回路120は、異常領域抽出機能4a及び境界領域抽出機能4bを用いず、正常領域抽出機能4cのみを用い、第3の領域の画像に係る第3のデータのみを抽出する。   In the above example, the case where the image to be extracted is the image of the patient having a lesion has been described. The first processing circuit 120 may use an image of a normal person having no lesion by the extraction function 4. In such a case, the first processing circuit 120 uses only the normal area extraction function 4c without using the abnormal area extraction function 4a and the boundary area extraction function 4b, and extracts only the third data related to the image of the third area. To do.

以上のステップS100〜ステップS120により、第1の処理回路120は、抽出機能4により、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出した。第1の処理回路120は、続いて、これら抽出したデータに対して、学習機能2により、学習を行い、学習済モデルを生成する。   Through the above steps S100 to S120, the first processing circuit 120 causes the extraction function 4 to generate the first data relating to the image of the first region which is the region inside the lesion and the second data which is the region surrounding the lesion. The second data relating to the image of the region of No. 3 and the third data relating to the image of the third region which is the region outside the lesion were extracted. The first processing circuit 120 subsequently performs learning on the extracted data by the learning function 2 to generate a learned model.

続いて、図5及び図6を用いて、第1の処理回路120が、抽出機能4により抽出されたデータに基づいて行う学習の手順について説明する。図5は、実施形態に係る画像処理装置100が行う学習の処理の流れについて説明したフローチャートである。   Subsequently, a learning procedure performed by the first processing circuit 120 based on the data extracted by the extraction function 4 will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart illustrating the flow of learning processing performed by the image processing apparatus 100 according to the embodiment.

ここで、学習を行う一つの例として、例えば、重み付けが未調整の学習対象のモデルの重み付けを訓練データを用いて調整し、重み付けが調整された学習済モデルを生成することが挙げられる。このような学習対象のモデルの例としては、一定の入力に対して重み付けに応じた一定の出力を返すノードが2以上集まることにより構成されるニューラルネットワークが挙げられる。このようなニューラルネットワークの例として、例えば、2層のニューラルネットワークや、3層以上の多層ニューラルネットワークがあり、また画像処理において使われる多層ニューラルネットワークの例として、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が挙げられる。また、ニューラルネットワークの学習は、例えば教師有りデータに対して逆誤差伝搬法等を用いて行われる。   Here, as one example of performing learning, for example, the weighting of a learning target model whose weighting has not been adjusted is adjusted using training data, and a learned model whose weighting has been adjusted is generated. An example of such a learning target model is a neural network configured by gathering two or more nodes that return a constant output according to a weighting with respect to a constant input. Examples of such a neural network include, for example, a two-layer neural network and a multilayer neural network of three or more layers. As an example of a multilayer neural network used in image processing, for example, a convolutional neural network (CNN: Convolutional). Neural Network). Further, the learning of the neural network is performed, for example, on the supervised data by using the inverse error propagation method or the like.

また、学習を行う別の例として、特徴量の抽出が可能であるが、取りだした特徴量に対してラベル付けまでは行わない識別手法、例えばSVM(Support Vector Machine)またはその他の分類器を用いた機械学習の手法も挙げられる。   Further, as another example of performing learning, a feature amount can be extracted, but an identification method such as SVM (Support Vector Machine) or other classifier that does not perform labeling of the extracted feature amount is used. The machine learning method that was used was also included.

以下、実施形態では、学習の例として、深層学習を用いる場合で説明するが、実施形態はこれに限られず、実施形態はSVMを使う手法等についても同様に適用できる。   Hereinafter, in the embodiment, a case of using deep learning will be described as an example of learning, but the embodiment is not limited to this, and the embodiment is similarly applicable to a method using SVM and the like.

図5において、はじめに、第1の処理回路120は、正常領域学習機能2cにより、病変外部の領域である第3の領域の画像に係る第3のデータを訓練データとして用いて学習を行って、病変外部の領域である第3の領域についての学習済モデルを生成する(ステップS200)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS120において正常領域抽出機能4cを用いて抽出した第3のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、正常領域学習機能2cにより、第3のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変外部の領域である第3の領域についての学習済モデルを生成する。   In FIG. 5, first, the first processing circuit 120 performs learning by the normal area learning function 2c using the third data relating to the image of the third area, which is an area outside the lesion, as training data, A learned model for the third region, which is a region outside the lesion, is generated (step S200). Specifically, for example, the first processing circuit 120 performs the labeling based on the third data extracted by the normal area extraction function 4c in step S120 of FIG. 3 by the training data creation function 1. Generate supervised data. The first processing circuit 120 performs learning using the supervised data generated based on the third data as the training data by the normal area learning function 2c, and in the area outside the lesion by, for example, the backward error propagation method. A trained model for a certain third region is generated.

同様に、第1の処理回路120は、境界領域学習機能2bにより、病変周囲の領域である第2の領域の画像に係る第2のデータを訓練データとして用いて学習を行って、病変周囲の領域である第2の領域についての学習済モデルを生成する(ステップS210)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS110において境界領域抽出機能4bを用いて抽出した第2のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、境界領域学習機能2bにより、第2のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変周囲の領域である第2の領域についての学習済モデルを生成する。なお、深層学習を行う場合、第1の処理回路120は、境界領域学習機能2bにより、これに加えて、第2のデータに基づいて、例えばオートエンコーダーを用いて学習を行ってもよい。   Similarly, the first processing circuit 120 uses the boundary area learning function 2b to perform learning by using the second data relating to the image of the second area, which is the area around the lesion, as the training data, and performs learning using the boundary area learning function 2b. A learned model for the second area, which is an area, is generated (step S210). Specifically, for example, the first processing circuit 120 performs the labeling based on the second data extracted using the boundary area extracting function 4b in step S110 of FIG. 3 by the training data creating function 1. Generate supervised data. The first processing circuit 120 performs learning by using the supervised data generated based on the second data as the training data by the boundary area learning function 2b, and in the area around the lesion by, for example, the backward error propagation method. A trained model for a second region is generated. In the case of performing deep learning, the first processing circuit 120 may perform learning by the boundary region learning function 2b based on the second data, in addition to this, using, for example, an automatic encoder.

また、第1の処理回路120は、異常領域学習機能2aにより、病変内部の領域である第1の領域の画像に係る第1のデータを訓練データとして用いて学習を行って、病変内部の領域である第1の領域についての学習済モデルを生成する(ステップS220)。具体的には、例えば、第1の処理回路120は、訓練用データ作成機能1により、図3のステップS100において異常領域抽出機能4aを用いて抽出した第1のデータに基づいてラベル付けを行い教師有りデータを生成する。第1の処理回路120は、異常領域学習機能2aにより、第1のデータに基づいて生成された教師有りデータを訓練データとして用いて学習を行い、例えば逆誤差伝搬法により、病変内部の領域である第1の領域についての学習済モデルを生成する。なお、深層学習を行う場合、第1の処理回路120は、異常領域学習機能2aにより、これに加えて、第1のデータに基づいて、例えばオートエンコーダーを用いて学習を行ってもよい。   Further, the first processing circuit 120 performs learning by using the abnormal region learning function 2a using the first data relating to the image of the first region, which is the region inside the lesion, as the training data, and the region inside the lesion. A trained model for the first region is generated (step S220). Specifically, for example, the first processing circuit 120 performs labeling by the training data creation function 1 based on the first data extracted using the abnormal area extraction function 4a in step S100 of FIG. Generate supervised data. The first processing circuit 120 performs learning by using the supervised data generated based on the first data as training data by the abnormal area learning function 2a, and in an area inside the lesion by, for example, the backward error propagation method. A trained model for a certain first region is generated. In addition, when performing deep learning, the first processing circuit 120 may perform learning by the abnormal region learning function 2a based on the first data in addition to this, for example, using an auto encoder.

なお、第1の処理回路120は、ステップS220における学習済モデルの生成にあたって、第2のデータ及び第3のデータに基づいて生成されたデータを訓練データとして追加的に用いて学習を行っても良い。   Note that the first processing circuit 120 may perform learning by additionally using the data generated based on the second data and the third data as the training data when generating the learned model in step S220. good.

続いて、第1の処理回路120は、学習機能2により、ステップS200で生成された学習済モデル、ステップS210で生成された学習済モデル及びステップS220で生成された学習済モデルを統合・集約して、一つの学習済モデルを生成する(ステップS230)。例えば、第1の処理回路120は、学習機能2により、ステップS200で生成された学習済モデル、ステップS210で生成された学習済モデル及びステップS220で生成された学習済モデルを線形結合して、一つの学習済モデルを生成する。   Subsequently, the first processing circuit 120 integrates and aggregates the learned model generated in step S200, the learned model generated in step S210, and the learned model generated in step S220 by the learning function 2. Then, one learned model is generated (step S230). For example, the first processing circuit 120 linearly combines the learned model generated in step S200, the learned model generated in step S210, and the learned model generated in step S220 by the learning function 2, Generate one trained model.

このように、第1の処理回路120は、抽出機能4により図3のステップS100〜S120において抽出された、第1のデータと、第2のデータと、第3のデータとを、訓練データとして用いて、学習機能2により学習を行い、鑑別の対象となる医用画像である入力医用画像についての判定を行う学習済モデルを生成する。   In this way, the first processing circuit 120 uses the first data, the second data, and the third data extracted by the extraction function 4 in steps S100 to S120 of FIG. 3 as training data. By using the learning function 2, learning is performed to generate a learned model that determines the input medical image that is the medical image to be distinguished.

図6に、このような処理の一例が示されている。図6は、実施形態に係る画像処理装置100が行う処理について説明した図である。   FIG. 6 shows an example of such processing. FIG. 6 is a diagram illustrating processing performed by the image processing apparatus 100 according to the embodiment.

図6において、データセット30は、同一症例内で抽出されるデータセットを表している。第1の処理回路120は、病変を有している患者からは、抽出機能4により、一つの臨床データから、正常領域(病変外部の領域)に係るデータである第3のデータ31a、31b、31c、31d、31e、境界領域(病変周囲の領域)に係るデータである第2のデータ33、及び異常領域(病変内部の領域)に係るデータである第1のデータ32を抽出する。一方で、第1の処理回路120は、病変を有していない患者の臨床データからは、正常領域抽出機能4cにより、正常領域(病変外部の領域)に係るデータである第3のデータ34a、34b、34c、34d、34eのみを抽出する。   In FIG. 6, the data set 30 represents a data set extracted in the same case. The first processing circuit 120 uses the extraction function 4 to extract the third clinical data 31a, 31b, which is the data related to the normal region (region outside the lesion), from the single clinical data from the patient having the lesion. 31c, 31d, 31e, the second data 33 that is the data related to the boundary area (area around the lesion), and the first data 32 that is the data related to the abnormal area (area inside the lesion) are extracted. On the other hand, the first processing circuit 120 uses the normal region extraction function 4c to extract the third data 34a, which is data relating to the normal region (region outside the lesion), from the clinical data of the patient having no lesion. Only 34b, 34c, 34d and 34e are extracted.

ステップS200において、第1の処理回路120は、正常領域学習機能2cにより、第3のデータ31a、31b、31c、31d、31e、34a、34b、34c、34d、34eに基づいて学習を行い、学習済モデル5cを生成する。また、ステップS210において、第1の処理回路120は、境界機能学習機能2bにより、第2のデータ33に基づいて学習を行い、学習済モデル5bを生成する。また、ステップS220において、第1の処理回路120は、異常機能学習機能2aにより、第1のデータ32に基づいて学習を行い、学習済モデル5b及び5cの結果と統合して、学習済モデル5aを生成する。   In step S200, the first processing circuit 120 performs learning by the normal area learning function 2c based on the third data 31a, 31b, 31c, 31d, 31e, 34a, 34b, 34c, 34d, 34e, and performs learning. The completed model 5c is generated. Further, in step S210, the first processing circuit 120 performs learning by the boundary function learning function 2b based on the second data 33, and generates the learned model 5b. In step S220, the first processing circuit 120 performs learning by the abnormal function learning function 2a based on the first data 32 and integrates the results with the learned models 5b and 5c to obtain the learned model 5a. To generate.

続いて、第1の処理回路120が学習機能2に基づいて生成した学習済モデルの実行について説明する。図7は、実施形態に係る画像処理装置が行う学習済モデルの実行の流れについて説明したフローチャートである。   Next, the execution of the learned model generated by the first processing circuit 120 based on the learning function 2 will be described. FIG. 7 is a flowchart illustrating the flow of execution of the learned model performed by the image processing apparatus according to the embodiment.

第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデルに基づいて、入力医用データについての判定(病変の鑑別)を行う(ステップS300)。例えば、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデルに基づいて、画像に対する病変の有無を判定する。すなわち、第2の処理回路130は、判定機能3により、入力医用データに係る画像が、病変の画像であるか否かを判定する。   The second processing circuit 130 uses the determination function 3 to make a determination (differentiation of lesion) for the input medical data based on the learned model generated in step S230 of FIG. 5 (step S300). For example, the second processing circuit 130 uses the determination function 3 to determine the presence / absence of a lesion in the image based on the learned model generated in step S230 of FIG. That is, the second processing circuit 130 uses the determination function 3 to determine whether the image related to the input medical data is a lesion image.

また、第2の処理回路130は、判定機能3により、入力医用データに係る画像について、その他の判定を追加的に行ってもよい。例えば、ステップS300において、入力医用データに係る画像が、病変の画像であると判定された場合、第2の処理回路130は、判定機能3により、当該病変が、良性の病変であるか、あるいは悪性の病変であるかも追加的に判定する。また、第2の処理回路130は、判定機能3により、さらに病変領域の特定を行い、または病変の尤度などを算出してもよい。   In addition, the second processing circuit 130 may additionally perform other determination on the image related to the input medical data by the determination function 3. For example, when it is determined in step S300 that the image related to the input medical data is a lesion image, the second processing circuit 130 causes the determination function 3 to determine whether the lesion is a benign lesion, or It is also determined whether the lesion is malignant. In addition, the second processing circuit 130 may further specify the lesion area or calculate the likelihood of the lesion by the determination function 3.

また、第2の処理回路130は、判定機能3により、病変鑑別に使用した画像領域の特徴量を更に算出する。例えば、学習済モデルがニューラルネットワークの場合、第2の処理回路130は、判定機能3により、当該ニューラルネットワークのうちの所定のニューロンモデルを用いて、病変鑑別に使用した画像領域の特徴量を算出する。また、SVMを用いて機械学習を行う場合、第2の処理回路130は、SVMを用いて得られた所定の固有ベクトルに基づいて、病変鑑別に使用した画像領域の特徴量を算出する。   In addition, the second processing circuit 130 further calculates the feature amount of the image region used for the lesion classification by the determination function 3. For example, when the learned model is a neural network, the second processing circuit 130 uses the determination function 3 to calculate the feature amount of the image region used for the lesion classification by using a predetermined neuron model of the neural network. To do. Further, when performing machine learning using SVM, the second processing circuit 130 calculates the feature amount of the image region used for the lesion classification based on the predetermined eigenvector obtained using SVM.

なお、算出したこれらの特徴量に関して、第2の処理回路130は、判定機能3により、算出した特徴量を、例えば病変の病理学的な性質に応じて、入力医用データについての判定を行う際の補助判定情報として用いてもよい。補助判定情報を利用することで、第2の処理回路130は、入力医用データに係る画像が、病変の画像であるか否かにかかる判定の精度を、更に向上させることができる。   Regarding the calculated feature quantities, the second processing circuit 130 uses the determination function 3 to determine the calculated feature quantities for the input medical data according to, for example, the pathological characteristics of the lesion. It may be used as the auxiliary determination information. By using the auxiliary determination information, the second processing circuit 130 can further improve the accuracy of determination regarding whether or not the image related to the input medical data is a lesion image.

補助判定情報を利用する一例として、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデル及び、第1の領域と第2の領域との位置関係に基づいて、入力医用データについての判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、図5のステップS230で生成した学習済モデル及び、第1の領域が第2の領域に囲まれるように位置しているかに基づいて、入力医用データについての判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、第1の領域が第2の領域に囲まれる度合いが大きいほど、病変が存在する可能性が高いと判定する。   As an example of using the auxiliary determination information, the second processing circuit 130 uses the determination function 3 to perform learning based on the learned model generated in step S230 of FIG. 5 and the positional relationship between the first region and the second region. Then, the input medical data may be determined. For example, the second processing circuit 130 uses the determination function 3 based on the learned model generated in step S230 of FIG. 5 and whether the first region is located so as to be surrounded by the second region. The input medical data may be determined. For example, the second processing circuit 130 uses the determination function 3 to determine that the larger the degree to which the first region is surrounded by the second region, the higher the possibility of the presence of the lesion.

また、第2の処理回路130は、病変周囲の領域の情報を加味して、入力医用データに係る画像が病変の画像であるか否かに係る判定を行ってもよい。例えば、第2の処理回路130は、判定機能3により、病変周囲の領域である第2の領域における特徴量及び学習済モデルに基づいて、入力医用データについての判定を行っても良い。また、例えば、第2の処理回路130は、病変周囲の領域に対してテキスチャ解析を行い、行ったテキスチャ解析の結果に基づいて、入力医用データについての判定を行っても良い。   Further, the second processing circuit 130 may determine whether or not the image related to the input medical data is the image of the lesion, taking into consideration the information on the region around the lesion. For example, the second processing circuit 130 may use the determination function 3 to perform determination on the input medical data based on the feature amount and the learned model in the second region that is the region around the lesion. Further, for example, the second processing circuit 130 may perform texture analysis on a region around the lesion and make a determination on the input medical data based on the result of the texture analysis performed.

続いて、第2の処理回路130は、制御機能130bにより、ステップS300において判定機能3により行われた判定結果をディスプレイ135に表示させる(ステップS310)。   Subsequently, the second processing circuit 130 causes the control function 130b to display the determination result performed by the determination function 3 in step S300 on the display 135 (step S310).

続いて、第2の処理回路130は、制御機能130bにより、ステップS300において判定機能3により算出された特徴量を、ディスプレイ135に表示させる(ステップS320)。   Subsequently, the second processing circuit 130 causes the control function 130b to display the feature amount calculated by the determination function 3 in step S300 on the display 135 (step S320).

実施形態は、上述の例に限られない。   The embodiment is not limited to the above example.

実施形態では、医用画像診断装置10が、X線CT装置である場合について説明したが、実施形態はこれに限られない。   In the embodiment, the case where the medical image diagnostic apparatus 10 is the X-ray CT apparatus has been described, but the embodiment is not limited to this.

一例として、医用画像診断装置10は、例えば、磁気共鳴イメージング装置である。かかる場合、医用画像診断装置10は、被検体に対して磁気共鳴イメージング撮像を行い、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を生成する。医用画像診断装置10は、生成した磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を、学習済モデルが判定を行う対象となる入力医用画像として、または、学習済モデルを生成するための訓練用の医用画像として、画像処理装置100に送信する。画像処理装置100は、インタフェース機能120a又はインタフェース機能130aにより、医用画像診断装置10から、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を取得する。   As an example, the medical image diagnostic apparatus 10 is, for example, a magnetic resonance imaging apparatus. In such a case, the medical image diagnostic apparatus 10 performs magnetic resonance imaging imaging on the subject to generate magnetic resonance imaging data or magnetic resonance imaging images. The medical image diagnostic apparatus 10 uses the generated magnetic resonance imaging data or magnetic resonance imaging image as an input medical image that is a target for which the learned model makes a determination, or as a training medical image for generating the learned model. Is transmitted to the image processing apparatus 100. The image processing apparatus 100 acquires the magnetic resonance imaging data or the magnetic resonance imaging image from the medical image diagnostic apparatus 10 by the interface function 120a or the interface function 130a.

なお、医用画像診断装置10が、磁気共鳴イメージング撮像を行うことにより得られた磁気共鳴イメージングデータに基づいて磁気共鳴イメージング画像を生成してもよいし、画像処理装置100が、医用画像診断装置10から取得した磁気共鳴イメージングデータに基づいて、生成機能120c又は生成機能130cにより、磁気共鳴イメージング画像を生成してもよい。   The medical image diagnostic apparatus 10 may generate the magnetic resonance imaging image based on the magnetic resonance imaging data obtained by performing the magnetic resonance imaging imaging, or the image processing apparatus 100 may cause the medical image diagnostic apparatus 10 to generate the image. A magnetic resonance imaging image may be generated by the generation function 120c or the generation function 130c based on the magnetic resonance imaging data acquired from.

また、医用画像診断装置10は、超音波診断装置、陽電子放射断層撮影装置等の核医学診断装置、デジタルX線診断装置等の、その他の種類の医用機器であってもよい。かかる場合、医用画像診断装置10は、被検体の撮影又は撮像を行って生成したデータを、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、画像処理装置100に送信する。   Further, the medical image diagnostic apparatus 10 may be other types of medical equipment such as an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus such as a positron emission tomography apparatus, a digital X-ray diagnostic apparatus, or the like. In such a case, the medical image diagnostic apparatus 10 uses the data generated by imaging or imaging the subject as the input medical data to be the target of the learning model determination, or the training for generating the learned model. It is transmitted to the image processing apparatus 100 as medical data for medical use.

また、入力医用データや、訓練用の医用データ等に代表される医用データの形式は、ボリュームデータを基に再構成された画像データ、生データを基に再構成された画像データ、画像データに対してさらに加工が行われた画像データ、例えば画像データのエッジを強調したデータ等の加工済み画像データなど、様々な形式の画像データを含む。   In addition, the format of medical data represented by input medical data and medical data for training includes image data reconstructed based on volume data, image data reconstructed based on raw data, and image data. On the other hand, it includes image data in various formats such as image data further processed, for example, processed image data such as data in which edges of image data are emphasized.

また、画像処理装置100が、医用画像診断装置10から、訓練用の医用データまたは入力医用データを取得する場合について説明したが、実施形態は、画像処理装置100が、医用画像診断装置10から、直接、訓練用の医用データまたは入力医用データを取得する場合に限られない。例えば、医用画像診断装置10が、別途存在する画像保存サーバなどの記憶装置に医用データを訓練用の医用データまたは入力医用データとして送信し、当該記憶装置に保存された医用データを、画像処理装置100が取得してもよい。この場合、当該記憶装置に保存された医用データは、単一の医用画像診断装置10により生成されたものに限られず、複数の医用画像診断装置10により生成されてもよい。   Further, the case where the image processing apparatus 100 acquires the medical data for training or the input medical data from the medical image diagnostic apparatus 10 has been described, but in the embodiment, the image processing apparatus 100 transmits the medical image diagnostic apparatus 10 from the medical image diagnostic apparatus 10. It is not limited to the case of directly acquiring the medical data for training or the input medical data. For example, the medical image diagnostic apparatus 10 transmits medical data to a storage device such as an image storage server that exists separately as training medical data or input medical data, and the medical data stored in the storage device is used as an image processing device. 100 may acquire. In this case, the medical data stored in the storage device is not limited to the one generated by the single medical image diagnostic device 10 and may be generated by a plurality of medical image diagnostic devices 10.

また、鑑別対象となる入力医用データは、医用画像診断装置10により撮影された画像に限られず、例えば被検体細胞を採取して顕微鏡で撮影した病理画像などのデータであってもよい。   Further, the input medical data to be distinguished is not limited to the image captured by the medical image diagnostic apparatus 10, and may be data such as a pathological image captured by a microscope by collecting cells of the subject.

また、図3のステップS120で、第1の処理回路120が、第3の領域又は第3の領域の画像に係る第3のデータの抽出の際、血管や気管支など、訓練を行う対象の組織とは異なる組織を除外して抽出を行う場合について説明したが、実施形態はこれに限られない。例えば、第1の処理回路120は、抽出機能4により、第1のデータ(第1の領域)や第2のデータ(第2の領域)の抽出の際においても、血管や気管支など、訓練を行う対象の組織とは異なる組織を除外して抽出を行ってもよい。   Further, in step S120 of FIG. 3, when the first processing circuit 120 extracts the third data of the third region or the image of the third region, the target tissue to be trained, such as blood vessels and bronchi. The case where the extraction is performed by excluding the tissue different from the above has been described, but the embodiment is not limited to this. For example, the first processing circuit 120 uses the extraction function 4 to perform training such as blood vessels and bronchus even when extracting the first data (first region) or the second data (second region). The extraction may be performed by excluding the tissue different from the target tissue.

また、病変周辺領域は、病変領域に隣接する領域に限られない。第1の処理回路120は、境界領域抽出機能4bにより、病変周囲の領域である第2の領域として、病変内部の領域である第1の領域に接続する血管や気管支に対して周辺に位置する細胞の領域を含めても良い。   The lesion peripheral area is not limited to the area adjacent to the lesion area. The boundary region extraction function 4b causes the first processing circuit 120 to be located around the blood vessel or bronchus connected to the first region, which is the region inside the lesion, as the second region, which is the region surrounding the lesion. Areas of cells may be included.

また、第2の処理回路130が判定機能3により行った判定に対して、ユーザがフィードバックを与え、第1の処理回路120が、学習機能2により、ユーザから与えられたフィードバックを基に、学習済モデルの内部アルゴリズムを更新してもよい。すなわち、第1の処理回路120は、学習機能2により、ユーザからのフィードバックを基に学習済モデルを更新し続けることにより、自己学習を行っても良い。   In addition, the user gives feedback to the determination made by the second processing circuit 130 by the determination function 3, and the first processing circuit 120 performs learning by the learning function 2 based on the feedback given by the user. The internal algorithm of the completed model may be updated. That is, the first processing circuit 120 may perform self-learning by continuing to update the learned model based on the feedback from the user by the learning function 2.

また、実施形態の画像処理装置100のうち、学習機能2を除いた部分が、独立したデータ生成装置として構成されていてもよい。かかるデータ生成装置は、学習機能2を除き、実施形態の画像処理装置100と同様な機能を有する。例えば、当該データ生成装置は、抽出部と、出力部とを備える。抽出部は、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する。出力部は、抽出部が抽出した第1のデータと、第2のデータと、第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する。ここで、抽出部、出力部は、それぞれ、例えば図1における抽出機能4及び制御機能120bと同様の構成を有する。   Further, in the image processing apparatus 100 of the embodiment, the part excluding the learning function 2 may be configured as an independent data generation device. The data generating apparatus has the same function as the image processing apparatus 100 of the embodiment except for the learning function 2. For example, the data generation device includes an extraction unit and an output unit. The extraction unit extracts, from the medical data for training, first data relating to the image of the first region which is the region inside the lesion, and second data relating to the image of the second region which is the region surrounding the lesion. , And third data relating to the image of the third region, which is a region outside the lesion. The output unit outputs the first data, the second data, and the third data extracted by the extraction unit for use as training data of a learned model that makes a determination on the input medical data. Here, the extraction unit and the output unit respectively have the same configurations as the extraction function 4 and the control function 120b in FIG. 1, for example.

また、かかるデータ生成装置に組み込まれるプログラムは、訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出し、抽出した第1のデータと、第2のデータと、第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する各処理をコンピュータに実行させる。   In addition, the program installed in the data generation device includes, from the medical data for training, the first data relating to the image of the first region which is the region inside the lesion and the second region which is the region surrounding the lesion. The second data relating to the image and the third data relating to the image of the third region, which is the region outside the lesion, are extracted, and the extracted first data, second data, and third data are extracted. The computer is caused to execute the respective processes for outputting and to be used as the training data of the trained model for making a judgment on the input medical data.

以上述べた少なくとも一つの実施形態の画像処理装置によれば、学習に用いる訓練データを多くの数生成することができ、これにより学習の判定精度を高めることができる。   According to the image processing device of at least one embodiment described above, it is possible to generate a large number of training data to be used for learning, and thus it is possible to improve learning determination accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.

1 訓練用データ作成機能
2 学習機能
2a 異常領域学習機能
2b 境界領域学習機能
2c 正常領域学習機能
3 判定機能
4 抽出機能
4a 異常領域抽出機能
4b 境界領域抽出機能
4c 正常領域抽出機能
100 画像処理装置
120 第1の処理回路
130 第2の処理回路
1 training data creation function 2 learning function 2a abnormal area learning function 2b boundary area learning function 2c normal area learning function 3 determination function 4 extraction function 4a abnormal area extraction function 4b boundary area extraction function 4c normal area extraction function 100 image processing device 120 First processing circuit 130 Second processing circuit

Claims (11)

訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する抽出部と、
入力医用データについての判定を行う学習済モデルを、前記抽出部が抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを訓練データとして用いて生成する学習部と、
を備える、
画像処理装置。
From the medical data for training, the first data relating to the image of the first region which is the region inside the lesion, the second data relating to the image of the second region which is the region surrounding the lesion, and the external data of the lesion An extraction unit that extracts the third data relating to the image of the third region, which is the region,
A learning unit that generates a learned model that makes a determination regarding input medical data by using the first data extracted by the extraction unit, the second data, and the third data as training data. ,
With
Image processing device.
前記学習済モデルに基づいて、前記入力医用データについての前記判定を行う判定部を更に備える、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a determination unit that performs the determination on the input medical data based on the learned model. 前記判定部は、前記第2の領域における特徴量に基づいて、前記判定を行う、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit makes the determination based on a feature amount in the second area. 前記判定部は、前記第1の領域と前記第2の領域との位置関係に基づいて、前記判定を行う、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit makes the determination based on a positional relationship between the first area and the second area. 前記判定部は、前記第1の領域が前記第2の領域に囲まれるように位置しているかに基づいて、前記判定を行う、請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the determination unit makes the determination based on whether the first region is located so as to be surrounded by the second region. 前記抽出部は、前記第3のデータの抽出の際、訓練を行う対象の組織とは異なる組織を除外して抽出を行う、請求項2に記載の画像処理装置。   The image processing device according to claim 2, wherein the extraction unit excludes a tissue different from a tissue to be trained when extracting the third data. 前記異なる組織は、血管又は気管支である、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the different tissue is a blood vessel or a bronchus. 前記抽出部は、前記第1の領域から定められた距離の範囲にある領域を、前記第2の領域として抽出する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit extracts, as the second area, an area within a range of a predetermined distance from the first area. 前記距離の範囲は、病変の種類に応じた値として設定された値である、請求項8に記載の画像処理装置。   The image processing device according to claim 8, wherein the range of the distance is a value set as a value according to the type of lesion. 訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出する抽出部と、
前記抽出部が抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する出力部とを備える、
データ生成装置。
From the medical data for training, the first data relating to the image of the first region which is the region inside the lesion, the second data relating to the image of the second region which is the region surrounding the lesion, and the external data of the lesion An extraction unit that extracts the third data relating to the image of the third region, which is the region,
An output that outputs the first data, the second data, and the third data extracted by the extraction unit for use as training data of a learned model that makes a determination on input medical data. And a section,
Data generator.
訓練用の医用データから、病変内部の領域である第1の領域の画像に係る第1のデータと、病変周囲の領域である第2の領域の画像に係る第2のデータと、病変外部の領域である第3の領域の画像に係る第3のデータとを抽出し、
抽出した前記第1のデータと、前記第2のデータと、前記第3のデータとを、入力医用データについての判定を行う学習済モデルの訓練データとして使用するために出力する
各処理をコンピュータに実行させる、プログラム。
From the medical data for training, the first data relating to the image of the first region which is the region inside the lesion, the second data relating to the image of the second region which is the region surrounding the lesion, and the external data of the lesion Extracting the third data relating to the image of the third region, which is a region,
Each process for outputting the extracted first data, the second data, and the third data for use as training data of a trained model that makes a determination on input medical data is output to a computer. The program to run.
JP2018197801A 2018-10-19 2018-10-19 Image processing device, data generation device and program Active JP7140630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018197801A JP7140630B2 (en) 2018-10-19 2018-10-19 Image processing device, data generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197801A JP7140630B2 (en) 2018-10-19 2018-10-19 Image processing device, data generation device and program

Publications (2)

Publication Number Publication Date
JP2020062355A true JP2020062355A (en) 2020-04-23
JP7140630B2 JP7140630B2 (en) 2022-09-21

Family

ID=70387986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197801A Active JP7140630B2 (en) 2018-10-19 2018-10-19 Image processing device, data generation device and program

Country Status (1)

Country Link
JP (1) JP7140630B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059799A1 (en) * 2020-09-18 2022-03-24 国立大学法人群馬大学 Information processing device and program
WO2022201992A1 (en) * 2021-03-24 2022-09-29 ソニーグループ株式会社 Medical image analysis device, medical image analysis method, and medical image analysis system
DE112021004926T5 (en) 2020-09-15 2023-07-13 Fujifilm Corporation PICTURE CODING DEVICE, PICTURE CODING METHOD, PICTURE CODING PROGRAM, PICTURE DECODING DEVICE, PICTURE DECODING METHOD, PICTURE DECODING PROGRAM, PICTURE PROCESSING DEVICE, LEARNING DEVICE, LEARNING METHOD, TEACHING PROGRAM, SIMILAR PICTURE SEARCH DEVICE, SIMILAR PICTURE SEARCH METHOD, AND SIMILAR PICTURE SEARCH PROGRAM LIGHT PICTURES
JP7483502B2 (en) 2020-05-29 2024-05-15 富士フイルムヘルスケア株式会社 Image diagnosis support device and image diagnosis support method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325640A (en) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc Method of displaying abnormal shadow candidate and medical image processing system
JP2010504129A (en) * 2006-09-22 2010-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Advanced computer-aided diagnosis of pulmonary nodules
JP2016007270A (en) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 Medical image processor
US20160148376A1 (en) * 2014-11-26 2016-05-26 Samsung Electronics Co., Ltd. Computer aided diagnosis (cad) apparatus and method
JP2018072240A (en) * 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ Image diagnosis support device, system, and image diagnosis support method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325640A (en) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc Method of displaying abnormal shadow candidate and medical image processing system
JP2010504129A (en) * 2006-09-22 2010-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Advanced computer-aided diagnosis of pulmonary nodules
JP2016007270A (en) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 Medical image processor
US20160148376A1 (en) * 2014-11-26 2016-05-26 Samsung Electronics Co., Ltd. Computer aided diagnosis (cad) apparatus and method
JP2018072240A (en) * 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ Image diagnosis support device, system, and image diagnosis support method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
理化学研究所, 国立がん研究センター: "AIで早期胃がん領域の高精度検出に成功 −早期発見・領域検出で早期治療に大きく貢献−", 国立がん研究センタープレスリリース, JPN6022032706, 20 July 2018 (2018-07-20), ISSN: 0004844996 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7483502B2 (en) 2020-05-29 2024-05-15 富士フイルムヘルスケア株式会社 Image diagnosis support device and image diagnosis support method
DE112021004926T5 (en) 2020-09-15 2023-07-13 Fujifilm Corporation PICTURE CODING DEVICE, PICTURE CODING METHOD, PICTURE CODING PROGRAM, PICTURE DECODING DEVICE, PICTURE DECODING METHOD, PICTURE DECODING PROGRAM, PICTURE PROCESSING DEVICE, LEARNING DEVICE, LEARNING METHOD, TEACHING PROGRAM, SIMILAR PICTURE SEARCH DEVICE, SIMILAR PICTURE SEARCH METHOD, AND SIMILAR PICTURE SEARCH PROGRAM LIGHT PICTURES
WO2022059799A1 (en) * 2020-09-18 2022-03-24 国立大学法人群馬大学 Information processing device and program
WO2022201992A1 (en) * 2021-03-24 2022-09-29 ソニーグループ株式会社 Medical image analysis device, medical image analysis method, and medical image analysis system

Also Published As

Publication number Publication date
JP7140630B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
Deniz et al. Segmentation of the proximal femur from MR images using deep convolutional neural networks
Zhang et al. ME‐Net: multi‐encoder net framework for brain tumor segmentation
Monkam et al. Detection and classification of pulmonary nodules using convolutional neural networks: a survey
Parvaiz et al. Vision transformers in medical computer vision—A contemplative retrospection
JP6657132B2 (en) Image classification device, method and program
JP7140630B2 (en) Image processing device, data generation device and program
US20220254023A1 (en) System and Method for Interpretation of Multiple Medical Images Using Deep Learning
Gillmann et al. Uncertainty‐aware Visualization in Medical Imaging‐A Survey
Girum et al. A deep learning method for real-time intraoperative US image segmentation in prostate brachytherapy
Jung et al. Deep learning for medical image analysis: Applications to computed tomography and magnetic resonance imaging
Rubin et al. Biomedical imaging informatics
Maity et al. Automatic lung parenchyma segmentation using a deep convolutional neural network from chest X-rays
CN116848588A (en) Automatic labeling of health features in medical images
Gayathri Devi et al. Automatic segmentation of colon in 3D CT images and removal of opacified fluid using cascade feed forward neural network
Pujitha et al. Solution to overcome the sparsity issue of annotated data in medical domain
Zhang et al. Progressive deep segmentation of coronary artery via hierarchical topology learning
Brutti et al. Deep learning to automatically segment and analyze abdominal aortic aneurysm from computed tomography angiography
Nizamani et al. Advance Brain Tumor segmentation using feature fusion methods with deep U-Net model with CNN for MRI data
Akram et al. Segmentation and classification of skin lesions using hybrid deep learning method in the Internet of Medical Things
Midya et al. Computerized diagnosis of liver tumors from CT scans using a deep neural network approach
Park et al. Selective ensemble methods for deep learning segmentation of major vessels in invasive coronary angiography
Fontanella et al. Diffusion models for counterfactual generation and anomaly detection in brain images
JP7007469B2 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
Velichko et al. A Comprehensive Review of Deep Learning Approaches for Magnetic Resonance Imaging Liver Tumor Analysis
Wang et al. AVDNet: Joint coronary artery and vein segmentation with topological consistency

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150