JP2020062340A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2020062340A
JP2020062340A JP2018197742A JP2018197742A JP2020062340A JP 2020062340 A JP2020062340 A JP 2020062340A JP 2018197742 A JP2018197742 A JP 2018197742A JP 2018197742 A JP2018197742 A JP 2018197742A JP 2020062340 A JP2020062340 A JP 2020062340A
Authority
JP
Japan
Prior art keywords
data
region
image
processing circuit
lesion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018197742A
Other languages
Japanese (ja)
Other versions
JP7325942B2 (en
Inventor
山形 仁
Hitoshi Yamagata
仁 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018197742A priority Critical patent/JP7325942B2/en
Publication of JP2020062340A publication Critical patent/JP2020062340A/en
Application granted granted Critical
Publication of JP7325942B2 publication Critical patent/JP7325942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To improve the accuracy of determining a deeply learned model.SOLUTION: An image processing apparatus according to an embodiment includes a learning unit and a correction unit. The learning unit generates a first learned model composed of a neural network by using first data relating to a first region which is a region inside a lesion and second data relating to a second region which is a region influenced by the first region, as training data. The correction unit corrects weighting of an intermediate layer of the first learned model on the basis of information indicating correlation between the first data and the second data, to generate a second learned model for performing determination relating to input medical data.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像処理装置、及びプログラムに関する。   Embodiments of the present invention relate to an image processing device and a program.

コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習し、その特徴量に人間がラベル(記号)を与えることによって学習済モデルを生成する場合がある。   In fields such as so-called Computer Assisted Detection / Diagnostics, in which diagnosis is supported using a computer, for example, learning is performed by using a feature amount of a lesion known in advance as teacher data to generate a learned model. Moreover, in recent years, even if a human does not give the feature amount as prior knowledge by deep learning or reinforcement learning, the program self-learns the feature amount itself, and the human being labels (signs) the feature amount. A trained model may be generated by giving.

しかし、例えば深層学習(ディープラーニング)を用いて学習を行う場合、中間層の重み付けが適切でないと、学習された学習済モデルの判定精度が低下する場合がある。   However, for example, when learning is performed using deep learning, if the weighting of the intermediate layer is not appropriate, the accuracy of determination of the learned model that has been learned may decrease.

特開2016−7270号公報JP, 2016-7270, A

本発明が解決しようとする課題は、深層学習された学習済モデルの判定精度を高めることである。   The problem to be solved by the present invention is to improve the determination accuracy of a deep-learned learned model.

実施形態に係る画像処理装置は、学習部と、修正部とを備える。学習部は、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとを訓練データとして用いて、ニューラルネットワークで構成される第1の学習済モデルを生成する。修正部は、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて第1の学習済モデルの中間層の重み付けを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する。   The image processing apparatus according to the embodiment includes a learning unit and a correction unit. The learning unit uses, as training data, first data relating to a first region which is a region inside the lesion and second data relating to a second region which is a region affected by the first region. Then, a first trained model composed of a neural network is generated. The correction unit corrects the weighting of the intermediate layer of the first learned model based on the information indicating the correlation between the first data and the second data, and determines the input medical data. Generate a second trained model.

図1は、実施形態に係る画像処理装置を示す図である。FIG. 1 is a diagram showing an image processing apparatus according to an embodiment. 図2は、実施形態に係る画像処理装置が行う学習の処理の流れについて説明したフローチャートである。FIG. 2 is a flowchart illustrating the flow of learning processing performed by the image processing apparatus according to the embodiment. 図3は、実施形態に係る画像処理装置が行う処理について説明した図である。FIG. 3 is a diagram illustrating a process performed by the image processing apparatus according to the embodiment. 図4は、実施形態に係る画像処理装置が用いるニューラルネットワークの一例について説明した図である。FIG. 4 is a diagram illustrating an example of a neural network used by the image processing apparatus according to the embodiment. 図5は、実施形態に係る画像処理装置が行う学習済モデルの実行の処理の流れについて説明したフローチャートである。FIG. 5 is a flowchart illustrating the flow of processing for executing a learned model performed by the image processing apparatus according to the embodiment.

以下、本発明の実施形態について図面を参照しながら説明する。ここで、互いに同じ構成には共通の符号を付して、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, components that are the same as each other are assigned the same reference numerals, and redundant description is omitted.

(実施形態)
図1は、実施形態に係る画像処理装置100を示すブロック図である。
(Embodiment)
FIG. 1 is a block diagram showing an image processing apparatus 100 according to the embodiment.

医用画像診断装置50は、被検体の撮影又は撮像を行い、医用データを生成する装置である。医用画像診断装置50は、例えば、X線CT(Computed Tomography)装置である。かかる場合、医用画像診断装置50は、被検体に対してX線CT撮影を行い、X線CTデータまたはX線CT画像を生成する。医用画像診断装置50は、生成したX線CTデータまたはX線CT画像を、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして、画像処理装置100に送信する。画像処理装置100は、後述する、第1の処理回路120が有するインタフェース機能120x又は第2の処理回路130が有するインタフェース機能130xにより、医用画像診断装置50から、X線CTデータまたはX線CT画像を取得する。   The medical image diagnostic apparatus 50 is an apparatus that captures or images a subject and generates medical data. The medical image diagnostic apparatus 50 is, for example, an X-ray CT (Computed Tomography) apparatus. In such a case, the medical image diagnostic apparatus 50 performs X-ray CT imaging on the subject to generate X-ray CT data or X-ray CT images. The medical image diagnostic apparatus 50 uses the generated X-ray CT data or X-ray CT image as input medical data to be a target for the learned model to make a determination, or for training medical data for generating the learned model. Is transmitted to the image processing apparatus 100. The image processing apparatus 100 uses the interface function 120x included in the first processing circuit 120 or the interface function 130x included in the second processing circuit 130, which will be described later, to transmit X-ray CT data or X-ray CT images from the medical image diagnostic apparatus 50. To get.

なお、医用画像診断装置50が、被検体に対してX線CT撮影を行うことにより得られたX線CTデータに基づいてX線CT画像を生成してもよいし、画像処理装置100が、医用画像診断装置50から取得したX線CTデータに基づいてX線CT画像を生成してもよい。   The medical image diagnostic apparatus 50 may generate an X-ray CT image based on the X-ray CT data obtained by performing X-ray CT imaging on the subject, or the image processing apparatus 100 may An X-ray CT image may be generated based on the X-ray CT data acquired from the medical image diagnostic apparatus 50.

また、別の例として、医用画像診断装置50は、例えば、磁気共鳴イメージング装置である。かかる場合、医用画像診断装置50は、被検体に対して磁気共鳴イメージング撮像を行い、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を生成する。   Further, as another example, the medical image diagnostic apparatus 50 is, for example, a magnetic resonance imaging apparatus. In such a case, the medical image diagnostic apparatus 50 performs magnetic resonance imaging on the subject to generate magnetic resonance imaging data or magnetic resonance imaging images.

また、医用画像診断装置50は、超音波診断装置、陽電子放射断層撮影装置等の核医学診断装置、デジタルX線診断装置等の、その他の種類の医用機器であってもよい。   The medical image diagnostic apparatus 50 may be other types of medical equipment such as an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus such as a positron emission tomography apparatus, a digital X-ray diagnostic apparatus, or the like.

画像処理装置100は、医用画像診断装置50に接続され、学習済モデルの生成、学習済モデルの実行、及び様々な画像処理を実行する。画像処理装置100は、医用画像診断装置50が生成する医用データを、学習済モデルが判定を行う対象となる入力医用データとして、または、学習済モデルを生成するための訓練用の医用データとして使用する。画像処理装置100は、これらの入力医用データ及び訓練用の医用データを、例えばそれぞれ入力医用画像及び訓練用の医用画像の形で使用する。   The image processing apparatus 100 is connected to the medical image diagnostic apparatus 50, and generates a learned model, executes the learned model, and executes various image processes. The image processing apparatus 100 uses the medical data generated by the medical image diagnostic apparatus 50 as input medical data which is a target for which the learned model makes a determination, or as medical data for training for generating the learned model. To do. The image processing apparatus 100 uses the input medical data and the medical data for training in the form of an input medical image and a medical image for training, respectively.

画像処理装置100は、メモリ132、入力装置134、ディスプレイ135、第1の処理回路120、第2の処理回路130を備える。第1の処理回路120は、訓練データ作成機能120a、学習機能120b、修正機能120c、インタフェース機能120x、制御機能120y、生成機能120zを備える。また、第2の処理回路130は、インタフェース機能130x、制御機能130y、生成機能130zを備える。   The image processing apparatus 100 includes a memory 132, an input device 134, a display 135, a first processing circuit 120, and a second processing circuit 130. The first processing circuit 120 includes a training data creation function 120a, a learning function 120b, a modification function 120c, an interface function 120x, a control function 120y, and a generation function 120z. The second processing circuit 130 also includes an interface function 130x, a control function 130y, and a generation function 130z.

実施形態では、訓練データ作成機能120a、学習機能120b、修正機能120c、インタフェース機能120x、制御機能120y、生成機能120zにて行われる各処理機能、及び学習済モデルは、コンピュータによって実行可能なプログラムの形態でメモリ132へ記憶されている。第1の処理回路120及び第2の処理回路130はプログラムをメモリ132から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の第1の処理回路120は、図1の第1の処理回路120内に示された各機能を有することになる。また、各プログラムを読み出した状態の第2の処理回路130は、図1の第2の処理回路130内に示された各機能を有することになる。また、学習済モデルに対応するプログラムを読み出した状態の第2の処理回路130が実行されると、当該学習済モデルに従った処理が行われる。なお、図1においては第1の処理回路120及び第2の処理回路130にて、それぞれ単一の処理回路により、これらの処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせてそれぞれ第1の処理回路120及び第2の処理回路130を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよい。また、単一の処理回路により、第1の処理回路120及び第2の処理回路130の両方が実現されてもよい。別の例として、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。なお、図1において、訓練データ作成機能120a、学習機能120b、修正機能120c、判定機能130a、インタフェース機能120x及び130x、制御機能120y及び130y、生成機能120z及び130zは、それぞれ作成部、学習部、修正部、判定部、受付部、制御部、画像生成部の一例である。   In the embodiment, the training data creation function 120a, the learning function 120b, the modification function 120c, the interface function 120x, the control function 120y, the processing functions performed by the generation function 120z, and the learned model are stored in a computer-executable program. It is stored in the memory 132 in the form. The first processing circuit 120 and the second processing circuit 130 are processors that read a program from the memory 132 and execute the program to realize a function corresponding to each program. In other words, the first processing circuit 120 in the state where each program is read out has each function shown in the first processing circuit 120 of FIG. Further, the second processing circuit 130 in the state where each program is read out has the respective functions shown in the second processing circuit 130 of FIG. Further, when the second processing circuit 130 in the state where the program corresponding to the learned model is read out, the processing according to the learned model is performed. Note that in FIG. 1, the first processing circuit 120 and the second processing circuit 130 are described as having these processing functions realized by a single processing circuit, respectively. The first processing circuit 120 and the second processing circuit 130 may be configured in combination to realize the function by each processor executing a program. In other words, each of the above functions may be configured as a program, and one processing circuit may execute each program. Further, both the first processing circuit 120 and the second processing circuit 130 may be realized by a single processing circuit. As another example, a specific function may be implemented in a dedicated independent program execution circuit. In FIG. 1, the training data creation function 120a, the learning function 120b, the modification function 120c, the determination function 130a, the interface functions 120x and 130x, the control functions 120y and 130y, and the generation functions 120z and 130z are the creation unit, the learning unit, and the learning unit, respectively. It is an example of a correction unit, a determination unit, a reception unit, a control unit, an image generation unit.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ132に保存されたプログラムを読み出し実行することで機能を実現する。   The word "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphical Processing Unit), or an application-specific integrated circuit (ASIC), a programmable logic device (for example, simple logic device). Programmable logic device (SPLD), complex programmable logic device (Complex Programmable Logic Device: CPLD), field programmable gate array (Field Programmable Gate Array: FPGA), and the like. Means. The processor realizes the function by reading and executing the program stored in the memory 132.

また、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。従って、例えばメモリ132に学習済モデルが保存される代わりに、プロセッサの回路内に学習済モデルに係るプログラムが直接組み込まれていてもよい。   Further, instead of storing the program in the memory 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Therefore, for example, instead of storing the learned model in the memory 132, the program related to the learned model may be directly incorporated in the circuit of the processor.

なお、第1の処理回路120は、主に訓練データの作成および、訓練データを用いた学習による学習済モデルの生成を主に担う処理回路であり、第2の処理回路130は、生成された学習済モデルを判別対象/鑑別対象のデータに適用して判別/鑑別を行う機能を主に担う処理回路である。   The first processing circuit 120 is a processing circuit mainly responsible for creation of training data and generation of a learned model by learning using the training data, and the second processing circuit 130 is generated. It is a processing circuit mainly responsible for the function of performing discrimination / discrimination by applying the learned model to the discrimination / discrimination target data.

第1の処理回路120は、訓練データ作成機能120aにより、医用画像診断装置50から取得した画像データに基づいて、後述の学習機能120bにより学習を行うための訓練データを生成する。訓練データは、例えば画像データである訓練画像データである。第1の処理回路120は、訓練データ作成機能120aにより生成された訓練データに対して、学習機能120bを用いて学習を行い、学習済モデルを生成する。また、第2の処理回路130は、生成された学習済モデルに対して鑑別を行い、判定を行う。これら、訓練データ作成機能120a、学習機能120b、修正機能120c及び判定機能130aについては、後述する。   The first processing circuit 120 causes the training data creation function 120a to generate training data for performing learning by the learning function 120b, which will be described later, based on the image data acquired from the medical image diagnostic apparatus 50. The training data is training image data, which is image data, for example. The first processing circuit 120 performs learning using the learning function 120b on the training data generated by the training data creation function 120a and generates a learned model. In addition, the second processing circuit 130 makes a distinction on the generated learned model and makes a determination. The training data creation function 120a, the learning function 120b, the correction function 120c, and the determination function 130a will be described later.

また、第1の処理回路120は、インタフェース機能120xにより、訓練用の画像データの取得に係る医用画像診断装置50の撮影の制御に係る情報を医用画像診断装置50へ送信し、また、医用画像診断装置50から、撮影により得られた訓練用の画像データを取得する。また、インタフェース機能120xを有する第1の処理回路120は、受信した訓練用の画像データをメモリ132に格納する。   Further, the first processing circuit 120 transmits, to the medical image diagnostic apparatus 50, information related to control of imaging of the medical image diagnostic apparatus 50 related to acquisition of image data for training by the interface function 120x, and the medical image diagnostic apparatus 50. Image data for training obtained by photographing is acquired from the diagnostic device 50. In addition, the first processing circuit 120 having the interface function 120x stores the received training image data in the memory 132.

同様に、第2の処理回路130は、インタフェース機能130xにより、鑑別対象の画像データの取得に係る医用画像診断装置50の撮影の制御に係る情報を医用画像診断装置50へ送信し、また、医用画像診断装置50から、撮影により得られた鑑別対象の画像データを取得する。また、インタフェース機能120xを有する第1の処理回路120は、受信した鑑別対象の画像データをメモリ132に格納する。   Similarly, the second processing circuit 130 uses the interface function 130x to transmit to the medical image diagnostic apparatus 50 information related to the control of imaging of the medical image diagnostic apparatus 50 related to the acquisition of image data to be distinguished, and the medical image diagnostic apparatus 50. From the image diagnostic apparatus 50, the image data of the discrimination target obtained by photographing is acquired. Further, the first processing circuit 120 having the interface function 120x stores the received image data of the discrimination target in the memory 132.

第1の処理回路120は、制御機能120yにより、また第2の処理回路130は、制御機能130yにより、医用画像診断装置50及び画像処理装置100の全般的な制御を行い、撮像や画像の生成、画像の表示等を制御する。   The first processing circuit 120 and the second processing circuit 130 perform overall control of the medical image diagnostic apparatus 50 and the image processing apparatus 100 by the control function 120y and the control function 130y, respectively, and perform imaging and image generation. , Control the display of images, etc.

また、第1の処理回路120は、生成機能120zにより、訓練用の画像データに基づいて、訓練用の画像データを生成し、または生成された訓練用の医用データに対して、種々の画像処理を行う。同様に、第2の処理回路130は、生成機能120zにより、鑑別対象の画像データに基づいて、鑑別対象の医用データを生成し、または生成された鑑別対象の医用データに対して、種々の画像処理を行う。   Further, the first processing circuit 120 uses the generation function 120z to generate image data for training based on the image data for training, or performs various image processing on the generated medical data for training. I do. Similarly, the second processing circuit 130 uses the generation function 120z to generate medical data to be discriminated based on the image data to be discriminated, or to generate various images for the generated medical data to be discriminated. Perform processing.

メモリ132は、上述の訓練用の画像データ、訓練データ、鑑別対象の画像データ等、様々なデータを記憶する。メモリ132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。   The memory 132 stores various data such as the above-mentioned training image data, training data, and image data to be classified. The memory 132 is a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.

入力装置134は、操作者からの各種指示や情報入力を受け付ける。入力装置134は、例えば、マウスやトラックボール等のポインティングデバイス、モード切替スイッチ等の選択デバイス、あるいはキーボード等の入力デバイスである。ディスプレイ135は、制御機能130yによる制御の下、撮像条件の入力を受け付けるためのGUI(Graphical User Interface)や、生成機能120zや130zによって生成された画像等を表示する。ディスプレイ135は、例えば、液晶表示器等の表示デバイスである。ディスプレイ135は、表示部の一例である。   The input device 134 receives various instructions and information inputs from the operator. The input device 134 is, for example, a pointing device such as a mouse or a trackball, a selection device such as a mode changeover switch, or an input device such as a keyboard. Under the control of the control function 130y, the display 135 displays a GUI (Graphical User Interface) for receiving the input of the imaging condition, an image generated by the generation function 120z or 130z, and the like. The display 135 is, for example, a display device such as a liquid crystal display. The display 135 is an example of a display unit.

続いて、実施形態に係る背景について簡単に説明する。   Next, the background of the embodiment will be briefly described.

コンピュータを用いて診断支援を行う、いわゆるComputer Assisted Detection/Diagnosisなどの分野では、例えば、予めわかっている病変の特徴量を教師データとして、学習を行って、学習済モデルを生成する。また、近年では、深層学習(ディープラーニング)や強化学習によって、特徴量を人間が事前知識として与えなくとも、プログラムが自ら特徴量そのものを自己学習して、その特徴量にラベル(記号)を人間が与えて、学習済モデルを生成する場合がある。   In fields such as so-called Computer Assisted Detection / Diagnostics, in which diagnosis is supported using a computer, for example, learning is performed by using a feature amount of a lesion known in advance as teacher data to generate a learned model. Moreover, in recent years, even if a human does not give the feature amount as prior knowledge by deep learning or reinforcement learning, the program self-learns the feature amount itself and labels the feature amount with a label (symbol). May be given to generate a trained model.

しかし、例えば、深層学習を行う場合など、十分な数の訓練データを用意できないことがある。この場合、例えば中間層の重み付けが適切でないと、深層学習された学習済モデルの判定精度が低下する場合がある。   However, for example, when performing deep learning, it may not be possible to prepare a sufficient number of training data. In this case, for example, if the weighting of the intermediate layer is not appropriate, the determination accuracy of the deep-learned learned model may decrease.

かかる背景に鑑みて、実施形態に係る画像処理装置100は、第1の処理回路120を備える。第1の処理回路120は、学習機能120bにより、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとを訓練データとして用いて、ニューラルネットワークで構成される第1の学習済モデルを生成する。ここで、訓練データは、例えば画像データである訓練画像データであり、第1のデータ及び第2のデータは、例えば画像データである。第1の処理回路120は、修正機能120cにより、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて第1の学習済モデルの中間層の重み付けを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する。   In view of this background, the image processing apparatus 100 according to the embodiment includes the first processing circuit 120. The first processing circuit 120 uses the learning function 120b to generate the first data related to the first area, which is an area inside the lesion, and the first data related to the second area, which is an area affected by the first area. The second trained data is used as training data to generate a first trained model composed of a neural network. Here, the training data is, for example, training image data that is image data, and the first data and the second data are, for example, image data. The first processing circuit 120 corrects the weighting of the intermediate layer of the first trained model based on the information indicating the correlation between the first data and the second data by the correction function 120c. , A second learned model for making a determination on the input medical data is generated.

このように、第1の処理回路120は、生成した第1の学習済モデルの中間層の重み付けを、事前知識に基づいて修正することで、判定精度の高い第2の学習済モデルを生成することができる。   As described above, the first processing circuit 120 corrects the weighting of the intermediate layer of the generated first learned model based on the prior knowledge, thereby generating the second learned model with high determination accuracy. be able to.

以上のことを、図2〜図5を用いてより詳細に説明する。   The above will be described in more detail with reference to FIGS.

はじめに、図2を用いて、第1の処理回路120が学習機能120b及び修正機能120cにより行う、学習済モデルの生成手順について説明する。   First, a procedure for generating a learned model, which is performed by the first processing circuit 120 by the learning function 120b and the correction function 120c, will be described with reference to FIG.

はじめに、第1の処理回路120は、インタフェース機能120xにより、訓練用の医用データを、医用画像診断装置50から取得する(ステップS100)。例えば、医用画像診断装置50がX線CT装置である場合、第1の処理回路120は、インタフェース機能120xにより、X線CTデータまたはX線CT画像を、医用画像診断装置50から取得する。なお、医用画像診断装置50が、被検体に対してX線CT撮影を行うことにより得られたX線CTデータに基づいてX線CT画像を生成してもよいし、画像処理装置100が、医用画像診断装置50から取得したX線CTデータに基づいてX線CT画像を生成してもよい。   First, the first processing circuit 120 acquires medical data for training from the medical image diagnostic apparatus 50 by the interface function 120x (step S100). For example, when the medical image diagnostic apparatus 50 is an X-ray CT apparatus, the first processing circuit 120 acquires X-ray CT data or X-ray CT image from the medical image diagnostic apparatus 50 by the interface function 120x. The medical image diagnostic apparatus 50 may generate an X-ray CT image based on the X-ray CT data obtained by performing X-ray CT imaging on the subject, or the image processing apparatus 100 may An X-ray CT image may be generated based on the X-ray CT data acquired from the medical image diagnostic apparatus 50.

また、別の例として、医用画像診断装置50は、例えば、磁気共鳴イメージング装置である。かかる場合、画像処理装置100は、インタフェース機能120xにより、医用画像診断装置50から、磁気共鳴イメージングデータまたは磁気共鳴イメージング画像を取得する。かかる場合、医用画像診断装置50が、磁気共鳴イメージング撮像を行うことにより得られた磁気共鳴イメージングデータに基づいて磁気共鳴イメージング画像を生成してもよいし、画像処理装置100が、医用画像診断装置50から取得した磁気共鳴イメージングデータに基づいて、生成機能120zにより、磁気共鳴イメージング画像を生成してもよい。   Further, as another example, the medical image diagnostic apparatus 50 is, for example, a magnetic resonance imaging apparatus. In such a case, the image processing apparatus 100 acquires the magnetic resonance imaging data or the magnetic resonance imaging image from the medical image diagnostic apparatus 50 by the interface function 120x. In such a case, the medical image diagnostic apparatus 50 may generate the magnetic resonance imaging image based on the magnetic resonance imaging data obtained by performing the magnetic resonance imaging imaging, or the image processing apparatus 100 may cause the medical image diagnostic apparatus 100 to generate the magnetic resonance imaging image. A magnetic resonance imaging image may be generated by the generation function 120z based on the magnetic resonance imaging data acquired from 50.

また、医用画像診断装置50が、超音波診断装置、陽電子放射断層撮影装置等の核医学診断装置、デジタルX線診断装置等の、その他の種類の医用機器である場合、画像処理装置100は、インタフェース機能120xにより、医用画像診断装置50から、被検体の撮影又は撮像を行って生成したデータを、学習済モデルを生成するための訓練用の医用データとして、取得する。   When the medical image diagnostic apparatus 50 is another type of medical equipment such as an ultrasonic diagnostic apparatus, a nuclear medicine diagnostic apparatus such as a positron emission tomography apparatus, a digital X-ray diagnostic apparatus, the image processing apparatus 100 is The interface function 120x acquires data generated by performing imaging or imaging of the subject from the medical image diagnostic apparatus 50 as medical data for training for generating a learned model.

また、訓練用の医用データ等に代表される医用データの形式は、ボリュームデータを基に再構成された画像データ、生データを基に再構成された画像データ、画像データに対してさらに加工が行われた画像データ、例えば画像データのエッジを強調したデータ等の加工済み画像データなど、様々な形式の画像データを含む。   In addition, the format of medical data represented by medical data for training is image data reconstructed based on volume data, image data reconstructed based on raw data, and image data can be further processed. It includes image data in various formats such as processed image data, processed image data such as data in which edges of image data are emphasized.

また、実施形態は、画像処理装置100が、医用画像診断装置50から、直接、訓練用の医用データを取得する場合に限られない。例えば、医用画像診断装置50が、別途存在する画像保存サーバなどの記憶装置に医用データを訓練用の医用データとして送信し、当該記憶装置に保存された医用データを、画像処理装置100が取得してもよい。この場合、当該記憶装置に保存された医用データは、単一の医用画像診断装置50により生成されたものに限られず、複数の医用画像診断装置50により生成されてもよい。   Further, the embodiment is not limited to the case where the image processing apparatus 100 acquires the medical data for training directly from the medical image diagnostic apparatus 50. For example, the medical image diagnostic apparatus 50 transmits medical data to a storage device such as an image storage server that exists separately as training medical data, and the image processing apparatus 100 acquires the medical data stored in the storage device. May be. In this case, the medical data stored in the storage device is not limited to the one generated by a single medical image diagnostic device 50, and may be generated by a plurality of medical image diagnostic devices 50.

続いて、第1の処理回路120は、訓練データ作成機能120aにより、ステップS100において取得した訓練用の医用データに基づいて、訓練データを生成する(ステップS110)。   Subsequently, the first processing circuit 120 causes the training data creation function 120a to generate training data based on the training medical data acquired in step S100 (step S110).

ここで、第1の処理回路120は、訓練データ作成機能120aにより、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域(影響領域)である第2の領域に係る第2のデータとを、訓練データとして生成する。   Here, the first processing circuit 120 uses the training data creation function 120a to generate the first data relating to the first region, which is the region inside the lesion, and the region affected by the first region (influence region). And the second data relating to the second region, which is, is generated as training data.

すなわち、第1の処理回路120は、訓練データ作成機能120aにより、病変の有無等について直接的に判定を行う対象である第1の領域に係る第1のデータと、第1の領域と関連性を有し、病変の有無等について判定を行うに当たって補助的に利用できる領域である第2の領域に係る第2のデータとを、訓練データとして生成する。   That is, the first processing circuit 120 uses the training data creation function 120a to directly relate the first data relating to the first region, which is a target for determining the presence or absence of a lesion, to the first region. And the second data relating to the second region, which is a region that can be supplementarily used in determining the presence or absence of a lesion and the like, are generated as training data.

ここで、「第1の領域から影響を受ける領域である第2の領域(影響領域)」とは、例えば以下のような例が挙げられる。   Here, examples of the “second region (influenced region) which is a region affected by the first region” include the following examples.

例えば、病理画像の判定を行う場合、第1の領域の病変の細胞外の微小環境領域が、第2の領域の一例となる。すなわち、第1の処理回路120は、訓練データ作成機能120aにより、病変の内部の領域である第1の領域に係る第1のデータと、当該病変の細胞外の微小環境領域に係る第2の領域に係る第2のデータとを、訓練データとして生成する。   For example, when a pathological image is determined, the extracellular microenvironmental area of the lesion in the first area is an example of the second area. That is, the first processing circuit 120 uses the training data creation function 120a to generate the first data relating to the first region, which is the region inside the lesion, and the second data relating to the extracellular microenvironment region of the lesion. Second data relating to the region is generated as training data.

ここで、微小環境領域とは、腫瘍等の周囲に存在して、腫瘍等に栄養を送っている正常な細胞、分子、血管などのことである。腫瘍の存在によって腫瘍の増殖、拡大の速度が影響を受けることから、第1の処理回路120は、これらの領域に係るデータを、訓練データとして生成する。   Here, the microenvironmental region refers to normal cells, molecules, blood vessels and the like that are present around tumors and the like and feed nutrients to the tumors and the like. Since the growth and spread rates of the tumor are affected by the presence of the tumor, the first processing circuit 120 generates data related to these areas as training data.

また、がん関連画像の判定を行う場合、すなわち、第1の領域が、がんの内部の領域である場合、がんの組織外の間質細胞領域や、当該がんの転移性が高い組織が、当該第2の領域の一例となる。すなわち、第1の処理回路120は、訓練データ作成機能120aにより、がんの内部の領域である第1の領域に係る第1のデータと、当該がんの組織外の間質細胞領域、又は当該がんの転移性が高い組織のうち少なくとも一方の領域に係る第2のデータを、訓練データとして生成する。   Further, when a cancer-related image is determined, that is, when the first region is a region inside the cancer, the stromal cell region outside the tissue of the cancer or the metastatic property of the cancer is high. The tissue is an example of the second area. That is, the first processing circuit 120 uses the training data creation function 120a to generate the first data relating to the first region, which is the region inside the cancer, and the stromal cell region outside the tissue of the cancer, or Second data relating to at least one region of the tissue with high metastaticity of the cancer is generated as training data.

このように、例えばがん細胞組織外の情報をも活用して補助的な判断材料とするために、第1の処理回路120は、訓練データ作成機能120aにより、これらの領域に係るデータを、訓練データとして生成する。   In this way, for example, in order to utilize the information outside the cancer cell tissue as a supplementary decision material, the first processing circuit 120 uses the training data creation function 120a to convert the data related to these areas into Generate as training data.

また、図3を用いて、第1の領域が脳の機能領域である場合における第2の領域について説明する。図3は、実施形態に係る画像処理装置が行う処理について説明した図である。   Further, the second region in the case where the first region is the functional region of the brain will be described with reference to FIG. FIG. 3 is a diagram illustrating a process performed by the image processing apparatus according to the embodiment.

図3は、脳の画像を示した一例であり、病変領域10は、第1の領域を示している。第1の領域は、脳の機能領域に含まれる。また、神経機能関連領域11は、病変領域10となっている脳回単位やその機能集合領域と、神経機能連関のある領域を表している。神経機能関連領域11は、第2の領域の一例となる。すなわち、第1の処理回路120は、訓練データ作成機能120aにより、脳の機能領域における病変内部の領域である病変領域10に係る第1のデータと、病変領域10と神経機能連関がある領域である神経機能関連領域11に係る第2のデータを、訓練データとして生成する。   FIG. 3 is an example showing an image of the brain, and the lesion area 10 shows the first area. The first region is included in the functional region of the brain. In addition, the nerve function-related region 11 represents a gyrus unit that is the lesion region 10 or a function aggregation region thereof, and a region having a nerve function connection. The nerve function related area 11 is an example of a second area. That is, the first processing circuit 120 uses the training data creation function 120a to generate the first data relating to the lesion area 10, which is an area inside the lesion in the functional area of the brain, and the area having the neural function connection with the lesion area 10. Second data relating to a certain nerve function-related area 11 is generated as training data.

また、神経支配領域12は、脳以外の領域であって、病変領域10に関連する神経支配領域、すなわち病変領域10からの神経支配が及ぶ領域を示している。神経支配領域12は、第2の領域の一例となる。すなわち、第1の処理回路120は、訓練データ作成機能120aにより、脳の機能領域における病変内部の領域である病変領域10に係る第1のデータと、脳以外の領域であって、病変領域10に関連する神経支配領域12に係る第2のデータを、訓練データとして生成する。   Further, the innervation area 12 is an area other than the brain, and indicates an innervation area associated with the lesion area 10, that is, an area to which innervation from the lesion area 10 extends. The innervation area 12 is an example of a second area. That is, the first processing circuit 120 uses the training data creation function 120a to generate the first data relating to the lesion area 10, which is an area inside the lesion in the functional area of the brain, and the area other than the brain, which is the lesion area 10. The second data related to the innervation area 12 related to is generated as training data.

このように、例えば脳において病変領域と関連する領域の情報を活用して補助的な判断材料とするために、第1の処理回路120は、訓練データ作成機能120aにより、これらの領域に係るデータを、訓練データとして生成する。   In this way, for example, in order to utilize the information of the area related to the lesion area in the brain as a supplementary judgment material, the first processing circuit 120 causes the training data creation function 120a to perform data related to these areas. Are generated as training data.

なお、第1の処理回路120は、訓練データ作成機能120aにより、例えばLevelset法等の輪郭抽出技術等を用いて、ステップS100において取得した訓練用の医用データから、第1の領域や第2の領域を抽出し、抽出した第1の領域や第2に領域に基づいて、訓練データを生成する。   The first processing circuit 120 uses the training data creation function 120a to extract the first region and the second region from the training medical data acquired in step S100 using, for example, a contour extraction technique such as the Levelset method. A region is extracted, and training data is generated based on the extracted first region and second region.

ここで、第1の処理回路120が訓練データ作成機能120aにより生成する訓練データは、例えば第1の領域や第2の領域に係る画像と、判定結果の正解データとが紐付けられた教師データである。ここで、判定結果の正解データの一例としては、例えば画像が病変に係る画像であれば「1」を与え、画像が病変に係る画像でなければ「0」を与えるデータが挙げられる。また、判定結果の正解データの一例としては、例えば画像が、良性腫瘍に係る画像であれば値「良性腫瘍」を与え、画像が悪性腫瘍に係る画像であれば値「悪性腫瘍」を与え、画像が腫瘍に係る画像でなければ値「腫瘍なし」を与えるデータが挙げられる。また、判定結果の正解データの一例としては、画像に係る特徴量の値を実数値として与えるデータが挙げられる。   Here, the training data generated by the training data creation function 120a by the first processing circuit 120 is, for example, teacher data in which images related to the first region and the second region and the correct answer data of the determination result are associated with each other. Is. Here, as an example of the correct answer data of the determination result, for example, there is data which gives "1" if the image is an image relating to a lesion and "0" if the image is not an image relating to a lesion. Further, as an example of correct data of the determination result, for example, if the image is an image related to a benign tumor, the value “benign tumor” is given, and if the image is an image related to a malignant tumor, the value “malignant tumor” is given, If the image is not an image relating to a tumor, data that gives the value "no tumor" can be mentioned. Moreover, as an example of the correct answer data of the determination result, there is data that gives the value of the feature amount related to the image as a real value.

なお、深層学習(ディープラーニング)においては、いわゆる自己符号化(オートエンコーダ)を用いた学習を、教師データを用いた学習の前に行うこともある。かかる学習においては、第1の領域や第2の領域に係る画像と、判定結果の正解データとが紐付けられた教師データは必ずしも必要にならない場合がある。かかる場合、第1の処理回路120は、例えば第1の領域や第2の領域に係る画像のデータそのものを訓練データとして用いて、自己符号化により学習を行う。かかる場合、例えば第1の領域や第2の領域に係る画像のデータそのものも、第1の処理回路120が訓練データ作成機能120aにより生成する訓練データの一例として位置付けられる。   In deep learning, learning using so-called self-encoding (auto encoder) may be performed before learning using teacher data. In such learning, the teacher data in which the images related to the first region and the second region and the correct answer data of the determination result are associated with each other may not always be necessary. In such a case, the first processing circuit 120 uses, for example, the image data itself of the first region or the second region as training data to perform learning by self-coding. In such a case, for example, the image data itself of the first region or the second region is also positioned as an example of the training data generated by the training data creation function 120a by the first processing circuit 120.

図2に戻り、続いて、第1の処理回路120は、学習機能120bにより、第1の領域(異常領域)と第2の領域(影響領域)について、ステップS110で生成した訓練データを用いて学習を行い、第1の学習済モデルを生成する(ステップS120)。   Returning to FIG. 2, subsequently, the first processing circuit 120 uses the training data generated in step S110 for the first area (abnormal area) and the second area (influenced area) by the learning function 120b. Learning is performed to generate a first learned model (step S120).

一例として、第1の処理回路120は、学習機能120bにより、第1の領域(異常領域)と第2の領域(影響領域)について、ステップS110で生成した訓練データを用いて学習を行い、ニューラルネットワークにより構成された、第1の学習済モデルを生成する。ここで、ニューラルネットワークの例としては、例えば、畳み込みニューラルネットワーク(CNN:Convlutional Neural Network)やRNN
(Recurrent NeuralNetwork)等が挙げられる。ニューラルネットワークのうち、層が多層にわたるものは、DNN(Deep NeuralNetwork)とも呼ばれる。
As an example, the first processing circuit 120 uses the learning function 120b to perform learning on the first area (abnormal area) and the second area (influence area) using the training data generated in step S110, A first trained model composed of a network is generated. Here, examples of the neural network include, for example, a convolutional neural network (CNN) or a RNN.
(Recurrent Natural Network) and the like. Among the neural networks, one having a multi-layer structure is also called a DNN (Deep Neural Network).

第1の処理回路120は、学習機能120bにより、第1の領域(異常領域)と第2の領域(影響領域)について、ステップS110で生成した教師ありデータである訓練データに対して逆誤差伝搬法等などの方法により学習を行い、ニューラルネットワークにより構成された、第1の学習済モデルを生成する。ここで、学習を行う、あるいは学習済モデルを生成する、とは、より具体的には、当該ニューラルネットワークを構成するノード間の重み付けを決定することを言う。   The first processing circuit 120 causes the learning function 120b to perform inverse error propagation on the training data, which is the supervised data generated in step S110, for the first area (abnormal area) and the second area (influence area). Learning is performed by a method such as a method, and a first learned model configured by a neural network is generated. Here, to perform learning or to generate a learned model means, more specifically, to determine the weighting between the nodes forming the neural network.

なお、いわゆる深層学習を行う場合、第1の処理回路120は、学習機能120bにより、ステップS110で生成された訓練データを用いて、オートエンコーダにより、学習を行ってもよい。この場合、第1の処理回路120は、学習機能120bにより、オートエンコーダにより行われた学習の結果に基づいて、第1の学習済モデルを生成する。   When so-called deep learning is performed, the first processing circuit 120 may perform learning by an automatic encoder using the learning function 120b and the training data generated in step S110. In this case, the first processing circuit 120 causes the learning function 120b to generate the first learned model based on the result of the learning performed by the auto encoder.

以下、図4を用いて、第1の処理回路120が、畳み込みニューラルネットワーク(CNN)を用いて学習を行う場合について説明する。図4はCNNの概略をあらわした図である。   Hereinafter, a case where the first processing circuit 120 performs learning using a convolutional neural network (CNN) will be described with reference to FIG. FIG. 4 is a diagram showing an outline of CNN.

図4において、入力層1は、データが入力される層を表す。CNNの場合、入力層1に入力されるデータは、例えば各要素が実数の値を取り、例えばサイズが32×32の2次元配列で表されるデータである。畳み込み層2a、2b、2c、3d及びプーリング層3a、3b、3c、3dは、それぞれ前層のデータに対してそれぞれ畳み込み及びプーリングと呼ばれる所定の演算を行い、演算の結果を出力する層である。ここで、通常、入力層1に入力される一つのデータに対して、例えば畳み込みのやり方を少しずつ異ならせて、複数のデータが、入力装置1の次の層である畳み込み層2aで生成される。例えば、畳み込み層2aで生成されるデータは、入力層に入力されるデータのサイズが32×32の場合、データのサイズが28×28のデータが20個生成される。続いて、畳み込み層2aで生成されるデータに対してプーリング演算が行われて、例えばデータのサイズが14×14のデータが20個、プーリング層3aで生成される。続いて、プーリング層3aで生成されルデータに対して畳み込み演算が行われて、例えばデータのサイズが10×10のデータが20個、畳み込み層3bで生成される。以下同様に、畳み込み層2c、プーリング層3c、畳み込み層2d、プーリング層3dで生成されるデータは、例えばデータのサイズが縮小される。例えば、プーリング層3cで生成されるデータは、データのサイズが5×5であり、データ数が20個となる。また、プーリング層3dで生成されるデータは、データのサイズが3×3であり、データ数が20個となる。   In FIG. 4, an input layer 1 represents a layer to which data is input. In the case of CNN, the data input to the input layer 1 is, for example, data in which each element takes a real value and is represented by a two-dimensional array having a size of 32 × 32. The convolutional layers 2a, 2b, 2c and 3d and the pooling layers 3a, 3b, 3c and 3d are layers that perform predetermined operations called convolution and pooling on the data of the previous layer and output the results of the operations. . Here, usually, for one data input to the input layer 1, a plurality of data are generated in the convolutional layer 2a, which is the next layer of the input device 1, by slightly changing the convolution method, for example. It For example, regarding the data generated in the convolutional layer 2a, when the size of the data input to the input layer is 32 × 32, 20 pieces of data having a data size of 28 × 28 are generated. Subsequently, a pooling operation is performed on the data generated in the convolutional layer 2a, and, for example, 20 pieces of data having a size of 14 × 14 are generated in the pooling layer 3a. Then, a convolution operation is performed on the rule data generated in the pooling layer 3a, and 20 pieces of data having a size of 10 × 10, for example, are generated in the convolution layer 3b. Similarly, the data size of the data generated by the convolutional layer 2c, the pooling layer 3c, the convolutional layer 2d, and the pooling layer 3d is reduced, for example. For example, the data generated by the pooling layer 3c has a data size of 5 × 5 and the number of data is 20. Further, the data generated by the pooling layer 3d has a data size of 3 × 3 and the number of data is 20.

全結合層4a及び4bは、層の一つ前の全データを入力として、データを出力する層である。すなわち、全結合層の前のデータの全てが結合されて、データが出力される。例えば、全結合層4aにおいては、例えばデータのサイズが1×1のデータが20個生成されるが、各々の20個の1×1のデータの出力は、プーリング層3dで生成される20個のデータすべてのデータの値に依存する。同様に、全結合層4bにおいては、例えばデータのサイズが1×1のデータが20個生成されるが、各々の20個の1×1のデータの出力は、全結合層4aで生成される20個のデータすべてのデータの値に依存する。   The all-coupling layers 4a and 4b are layers that receive all the data immediately preceding the layer as input and output the data. That is, all the data before the fully connected layer are combined and the data is output. For example, in the fully connected layer 4a, for example, 20 pieces of data having a size of 1 × 1 are generated, and the output of each 20 pieces of 1 × 1 data is 20 pieces generated in the pooling layer 3d. Data depends on the value of all data. Similarly, in the fully-coupled layer 4b, for example, 20 pieces of data having a size of 1 × 1 are generated, and the output of each 20 pieces of 1 × 1 data is generated in the fully-joined layer 4a. It depends on the value of all 20 data.

また、出力層5は、直前の層の出力結果に基づいて、最終的な出力結果が表示される層である。例えば、出力層5では、データのサイズが1×1のデータが6個生成される。これらのデータのそれぞれは、例えば、画像が病変であるか否かを0か1かで表したデータ、病変が良性が悪性であるかを0か1かで表したデータ、病変の悪性度を実数値で表したデータ等である。   The output layer 5 is a layer in which the final output result is displayed based on the output result of the immediately previous layer. For example, in the output layer 5, six pieces of data having a size of 1 × 1 are generated. Each of these data is, for example, data indicating whether the image is a lesion by 0 or 1, data indicating whether the lesion is benign or malignant by 0 or 1, and malignancy of the lesion. The data is represented by real numbers.

なお、入力層1と出力層5以外の層である中間層6は、隠れ層とも呼ばれる。   The intermediate layer 6, which is a layer other than the input layer 1 and the output layer 5, is also called a hidden layer.

なお、説明の簡単のため、中間層6で行う演算として、畳み込み演算を行う畳み込み層2a、2b、2c、3dとプーリング層3a、3b、3c、3dとを交互に配置した場合について説明したが、実施形態はこれに限られず、例えば畳み込み演算及びプーリング演算以外の演算を行う層が含まれていても良い。入力層1に入力されるデータは、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとからなるため、例えば第1のデータ部分と第2のデータ部分とを混合するための全結合層が、プーリング層と畳み込み層との間に、必要に応じて適宜配置されてもよい。   For simplicity of description, as the calculation performed in the intermediate layer 6, the case where the convolutional layers 2a, 2b, 2c, 3d for performing the convolutional operation and the pooling layers 3a, 3b, 3c, 3d are alternately arranged has been described. However, the embodiment is not limited to this, and for example, a layer that performs operations other than the convolution operation and the pooling operation may be included. The data input to the input layer 1 is the first data relating to the first region, which is the region inside the lesion, and the second data relating to the second region, which is the region affected by the first region. Thus, for example, the full connection layer for mixing the first data portion and the second data portion may be appropriately arranged as needed between the pooling layer and the convolutional layer.

第1の処理回路120は、ステップS110で生成された、入力層1に入力されるデータと出力層5に出力されるデータとから構成される教師ありデータである訓練データを基に、学習機能120bにより、例えば逆誤差伝播法などにより、学習を行う。ここで、学習を行うという意味は、入力層1、中間層6及び出力層5からなるニューラルネットワークにおける重み付けを決定することを意味する。ここで、入力層1、中間層6及び出力層5からニューラルネットワークにおける重み付けを決定するとは、具体的には、入力層1と畳み込み層2aとの間の結合を特徴付ける係数の組、畳み込み層2aとプーリング層3aとの間の結合を特徴付ける係数の組、プーリング層3aと畳み込み層2bとの間の結合を特徴付ける係数の組等、各層の間の結合度合いを表す係数の組を決定することを意味する。第1の処理回路120は、このように、ステップS110で生成された、入力層1に入力されるデータと出力層5に出力されるデータとから構成される教師ありデータである訓練データを基に、学習機能120bにより、学習を行って、各層間の重み付けを決定し、ニューラルネットワークで構成され、その重み付けが決定された第1の学習済みモデルを生成する。ここで、かかる訓練データは、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとからなる。   The first processing circuit 120 uses the learning function based on the training data generated in step S110, which is the supervised data composed of the data input to the input layer 1 and the data output to the output layer 5. Learning is performed by 120b, for example, by the back error propagation method. Here, the meaning of learning means determining the weighting in the neural network including the input layer 1, the intermediate layer 6, and the output layer 5. Here, to determine the weighting in the neural network from the input layer 1, the intermediate layer 6 and the output layer 5 means, specifically, a set of coefficients characterizing the coupling between the input layer 1 and the convolutional layer 2a, the convolutional layer 2a. To determine the set of coefficients representing the degree of coupling between each layer, such as the set of coefficients characterizing the coupling between the pooling layer 3a and the pooling layer 3a, and the set of coefficients characterizing the coupling between the pooling layer 3a and the convolutional layer 2b. means. As described above, the first processing circuit 120 is based on the training data, which is the supervised data composed of the data input to the input layer 1 and the data output to the output layer 5, generated in step S110. Then, the learning function 120b performs learning to determine the weighting between the layers, and generates a first learned model which is configured by a neural network and whose weighting is determined. Here, the training data includes first data relating to a first region which is a region inside a lesion and second data relating to a second region which is a region affected by the first region. Become.

なお、深層学習においては、自己符号化(オートエンコーダ)を用いることができる。第1の処理回路120は、学習機能120bにより、ステップS110で生成された、病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとに基づいて、自己符号化を行ってもよい。なお、この学習において必要なデータは、教師有りデータである必要はなく、すなわちラベル付けされていないデータであってもよい。   In deep learning, self-coding (auto encoder) can be used. The first processing circuit 120 is the first data related to the first region, which is the region inside the lesion, generated by the learning function 120b in step S110, and the region affected by the first region. Self-encoding may be performed based on the second data related to the second region. The data required for this learning does not have to be supervised data, that is, it may be unlabeled data.

なお、CNNの特徴として、重み付けが決定された学習済モデルの中間層のデータを切り出すことにより、当該中間層のノードに対応する特徴量の抽出が可能となることが挙げられる。すなわち、第1の処理回路120は、学習機能120bにより、ステップS120で生成された第1の学習済モデルの中間層のデータを抽出しラベル付けを行うことで、当該中間層における特徴量を抽出する(ステップS130)。例えば、第1の処理回路120は、学習機能120bにより、ステップS120で生成された第1の学習済モデルにおけるプーリング層3aのデータを切りだすことで、プーリング層3aにおける特徴量を抽出する。また、例えば、第1の処理回路120は、学習機能120bにより、ステップS120で生成された第1の学習済モデルにおけるプーリング層3cのデータを抽出しラベル付けを行うこととで、プーリング層3cにおける特徴量を抽出する。   Note that, as a feature of CNN, it is possible to extract the feature amount corresponding to the node of the intermediate layer by cutting out the data of the intermediate layer of the learned model whose weighting is determined. That is, the first processing circuit 120 extracts the feature amount of the intermediate layer by extracting and labeling the data of the intermediate layer of the first learned model generated in step S120 by the learning function 120b. (Step S130). For example, the first processing circuit 120 extracts the feature amount in the pooling layer 3a by cutting out the data of the pooling layer 3a in the first learned model generated in step S120 by the learning function 120b. In addition, for example, the first processing circuit 120 causes the learning function 120b to extract the data of the pooling layer 3c in the first trained model generated in step S120 and label the data, so that the pooling layer 3c can be labeled. Extract feature quantities.

なお、例えばプーリング層3a及びプーリング層3c等を比較すると、プーリング層3aは比較的入力層に近いことから、プーリング層3aで得られる特徴量は、現画像に表れる繰り返し構造など、低次のレベルの特徴量となる。これに対して、プーリング層3cはプーリング層3aと比較して出力に近いことから、プーリング層3cで得られる特徴量は、病変の構造に係る、高次のレベルの特徴量となる。   When comparing the pooling layer 3a and the pooling layer 3c, for example, the pooling layer 3a is relatively close to the input layer. Therefore, the feature amount obtained by the pooling layer 3a is a low-order level such as a repeating structure appearing in the current image. It becomes the feature quantity of. On the other hand, since the pooling layer 3c is closer to the output than the pooling layer 3a, the feature amount obtained in the pooling layer 3c is a feature amount of a higher level related to the lesion structure.

なお、各中間層におけるデータは、一般に複数存在するので、第1の処理回路120は、当該中間層におけるデータの個数に対応して、複数の個数の特徴量を抽出することができる。例えば、上述の例では、プーリング層3cに係るデータは、データサイズが5×5のデータが20個存在するので、第1の処理回路120は、これら20個のデータに対応して、複数個の特徴量を抽出することができる。   Since there is generally a plurality of data in each intermediate layer, the first processing circuit 120 can extract a plurality of feature quantities corresponding to the number of data in the intermediate layer. For example, in the above-mentioned example, since there are 20 pieces of data having a data size of 5 × 5 in the data relating to the pooling layer 3c, the first processing circuit 120 corresponds to these 20 pieces of data, The feature amount of can be extracted.

続いて、第1の処理回路120は、修正機能120cにより、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて第1の学習済モデルの中間層の重み付けを変更し、入力医用データについての判定を行う第2の学習済モデルを生成する(ステップS140)。   Then, the first processing circuit 120 causes the correction function 120c to weight the intermediate layer of the first learned model based on the information indicating the correlation between the first data and the second data. A second learned model that is changed and is used to determine the input medical data is generated (step S140).

まず、第1のデータと第2のデータとの間にある相関関係を示す情報について説明する。   First, the information indicating the correlation between the first data and the second data will be described.

病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとの間にある相関関係を示す情報とは、例えば、第1の領域(異常領域)に病変があった場合に、第2の領域(影響領域)に異常が表れる確率を示す情報や、逆に、第2の領域(影響領域)に異常が表れた場合に、第1の領域(異常領域)に病変が表れる確率を示す情報である。すなわち、第1のデータと第2のデータとの間にある相関関係を示す情報としては、第2の領域(影響領域)が第1の領域(異常領域)から影響を受ける度合いに関する特徴量と、第2の領域(影響領域)が第1の領域(異常領域)に影響を与える度合いに関する特徴量との両方を含む。   Information indicating the correlation between the first data relating to the first region, which is the region inside the lesion, and the second data relating to the second region, which is the region affected by the first region For example, when there is a lesion in the first area (abnormal area), information indicating the probability that an abnormality appears in the second area (influence area), or conversely, the second area (influence area) This is information indicating the probability that a lesion will appear in the first area (abnormal area) when an abnormality appears in. That is, as the information indicating the correlation between the first data and the second data, the feature amount regarding the degree to which the second region (influence region) is influenced by the first region (abnormal region) is included. , And the second region (influenced region) and the feature amount relating to the degree of affecting the first region (abnormal region).

続いて、第1の処理回路120は、修正機能120cにより、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて、第1の学習済モデルの中間層の重み付けを変更する。すなわち、第1の処理回路120は、第1の学習済モデルを生成する学習過程においてラベル付けすべき特徴量が生成される時点で、第1のデータと第2のデータとの間にある相関関係の大きさを表す指標に基づいて、特徴量が生成された中間層の下流又は上流の層の重み付けを修正する。   Then, the first processing circuit 120 causes the correction function 120c to weight the intermediate layer of the first learned model based on the information indicating the correlation between the first data and the second data. To change. That is, the first processing circuit 120 determines the correlation between the first data and the second data when the feature amount to be labeled is generated in the learning process of generating the first learned model. Based on the index representing the magnitude of the relationship, the weighting of the layer downstream or upstream of the intermediate layer in which the feature amount is generated is corrected.

かかる点について、以下、説明する。   This point will be described below.

例えば、図3のように、脳の事例を考える。この場合、病変領域10で病変候補が見つかった場合、機能的に関連する脳の機能領域である神経機能関連領域11や、反対側の脳にも影響が生じることが、臨床的に知られている。例えば、認知症の場合等において、特定の病変領域10で病変候補が見つかった場合、海馬において、影響が生じる。すなわち、第1の領域の病変がある場合に、第2の領域にも異常が表れており、このような場合、第1の領域の病変と、第2の領域の異常との間に正の相関関係がある。   For example, consider the case of the brain, as shown in FIG. In this case, when a lesion candidate is found in the lesion area 10, it is clinically known that the nerve function-related area 11, which is a functional area of the brain functionally related to the brain, and the brain on the opposite side are also affected. There is. For example, in the case of dementia or the like, when a lesion candidate is found in a specific lesion area 10, the hippocampus is affected. That is, when there is a lesion in the first region, an abnormality also appears in the second region. In such a case, a positive difference is found between the lesion in the first region and the abnormality in the second region. There is a correlation.

ここで、ステップS130で抽出された特徴量が、第1の領域の病変と第2の領域の異常との間に正の相関関係がある場合に対応する特徴量である場合を考える。   Here, consider a case where the feature amount extracted in step S130 is a feature amount corresponding to a case where there is a positive correlation between the lesion in the first region and the abnormality in the second region.

この場合、第1の処理回路120は、修正機能120cにより、当該特徴量が抽出されたノードに関係する重みつけは、第1のデータと第2のデータとの間にある相関関係を示す情報と整合的であるとして、当該重みつけの強度を強くする。すなわち、第1の処理回路120は、修正機能120cにより、当該特徴量が抽出されたノードに係る前段の層からの重み、又は後段の層への重みを大きくする。   In this case, the first processing circuit 120 uses the correction function 120c to determine that the weighting related to the node from which the feature amount is extracted is information indicating the correlation between the first data and the second data. And the strength of the weighting is strengthened. That is, the first processing circuit 120 uses the correction function 120c to increase the weight from the preceding layer or the subsequent layer regarding the node from which the feature amount is extracted.

一方、ステップS130で抽出された特徴量が、第1の領域の病変と第2の領域の異常との間に負の相関関係がある場合に対応する特徴量である場合を考える。   On the other hand, consider a case where the feature amount extracted in step S130 is a feature amount corresponding to a case where there is a negative correlation between the lesion in the first region and the abnormality in the second region.

この場合、第1の処理回路120は、修正機能120cにより、当該特徴量が抽出されたノードに関する重み付けは、第1のデータと第2のデータとの間にある相関関係を示す情報と整合的でないとして、当該重み付けの強度を弱くする。すなわち、第1の処理回路120は、修正機能120cにより、当該特徴量が抽出されたノードに係る前段の層からの重み、又は後段の層への重みを小さくし、またはノードを切断する。   In this case, the first processing circuit 120 causes the correction function 120c to weight the weight of the node from which the feature amount is extracted, consistent with the information indicating the correlation between the first data and the second data. If not, the weighting strength is weakened. That is, the first processing circuit 120 reduces the weight from the preceding layer or the subsequent layer related to the node from which the feature amount is extracted, or cuts the node, by the correction function 120c.

このように、第1の処理回路120は、修正機能120cにより、第1の学習済モデルの中間層の重み付けを変更し、第2の学習済モデルを生成する。   In this way, the first processing circuit 120 changes the weighting of the intermediate layer of the first learned model by the correction function 120c and generates the second learned model.

なお、第1の処理回路120は、第1のデータと第2のデータとの間にある相関関係として、既存の臨床知識を用い、例えば検証済みの病理学情報による知見から、臨床的に影響が示されている情報を、事前情報として用いる。また、別の例として、第1の処理回路120は、第1のデータと第2のデータとの間にある相関関係として、別途行われた学習の結果を用いて得られた情報を用いる。すなわち、第1の処理回路120は、第1のデータと第2のデータとの間にある相関関係として、第3の学習済モデルから得られた情報を用いる。なお、ここで第3の学習済モデルは、ニューラルネットワークに係るモデルに限られず、特徴量の抽出が可能であるが、取りだした特徴量に対してラベル付けまでは行わない識別手法、例えばSupport vector machineなどの機械学習を使って生成されたモデルであってもよい。   Note that the first processing circuit 120 uses existing clinical knowledge as the correlation between the first data and the second data, and clinically influences it based on, for example, knowledge based on verified pathological information. The information indicated by is used as prior information. Further, as another example, the first processing circuit 120 uses information obtained by using the result of the learning performed separately as the correlation between the first data and the second data. That is, the first processing circuit 120 uses the information obtained from the third learned model as the correlation between the first data and the second data. Note that the third learned model is not limited to the model related to the neural network, and the feature amount can be extracted, but an identification method that does not label the extracted feature amount, for example, Support vector It may be a model generated using machine learning such as machine.

以上のように、第1の処理回路120は、深層学習により第1の学習済モデルを生成し、その後、例えば臨床学的知見から得られた知識等を利用して第1の学習済モデルの中間層の重み付けを修正して第2の学習積みモデルを生成する。このように、深層学習と事前知識を組み合わせることで、両者の長所を取り入れ、深層学習された学習済モデルの判定精度を高めることができる。例えば、訓練データの症例が少ない場合でも、病変の判定精度を上げることが可能となる。また、例えば、互いに関連している複合疾患などの場合において、複数の病変の判別能が向上する。   As described above, the first processing circuit 120 generates the first learned model by deep learning, and then uses, for example, the knowledge obtained from clinical knowledge to generate the first learned model. The weighting of the hidden layer is modified to generate a second learning product model. In this way, by combining deep learning and prior knowledge, the advantages of both can be taken in and the determination accuracy of the deep learned learned model can be improved. For example, even when there are few cases of training data, it is possible to improve the accuracy of lesion determination. Further, for example, in the case of a complex disease related to each other, the ability to discriminate a plurality of lesions is improved.

続いて、第1の処理回路120が学習機能120bに基づいて生成した第2の学習済モデルの実行について説明する。図7は、実施形態に係る画像処理装置が行う第2の学習済モデルの実行の流れについて説明したフローチャートである。   Subsequently, the execution of the second learned model generated by the first processing circuit 120 based on the learning function 120b will be described. FIG. 7 is a flowchart illustrating the flow of execution of the second learned model performed by the image processing apparatus according to the embodiment.

第2の処理回路130は、判定機能130aにより、図3のステップS140で生成した第2の学習済モデルに基づいて、入力医用データについての判定(病変の鑑別)を行う(ステップS200)。例えば、第2の処理回路130は、判定機能130aにより、図3のステップS140で生成した第2の学習済モデルに基づいて、画像に対する病変の有無や、病変が良性か悪性かどうかの判定、病変領域の特定病変の尤度の算出を行う。   The second processing circuit 130 uses the determination function 130a to perform determination (identification of lesion) on the input medical data based on the second learned model generated in step S140 of FIG. 3 (step S200). For example, the second processing circuit 130 uses the determination function 130a to determine the presence / absence of a lesion in the image, whether the lesion is benign or malignant, based on the second learned model generated in step S140 of FIG. The likelihood of a specific lesion in the lesion area is calculated.

続いて、第2の処理回路130は、制御機能130yにより、ステップS200において判定機能130aにより行われた判定結果をディスプレイ135に表示させる(ステップS210)。   Subsequently, the second processing circuit 130 causes the control function 130y to display the determination result performed by the determination function 130a in step S200 on the display 135 (step S210).

なお、ステップS200において、入力医用データや、訓練用の医用データ等に代表される医用データの形式は、ボリュームデータを基に再構成された画像データ、生データを基に再構成された画像データ、画像データに対してさらに加工が行われた画像データ、例えば画像データのエッジを強調したデータ等の加工済み画像データなど、様々な形式の画像データを含む。   In step S200, the format of the input medical data, the medical data represented by the medical data for training, and the like is the image data reconstructed based on the volume data or the image data reconstructed based on the raw data. The image data includes various types of image data such as image data obtained by further processing the image data, for example, processed image data such as data in which the edges of the image data are emphasized.

また、入力医用データの取得について、例えば、画像処理装置100は、医用画像診断装置50から入力医用データを取得する。しかしながら、医用画像診断装置50が、別途存在する画像保存サーバなどの記憶装置に医用データを訓練用の医用データまたは入力医用データとして送信し、当該記憶装置に保存された医用データを、画像処理装置100が取得してもよい。この場合、当該記憶装置に保存された医用データは、単一の医用画像診断装置50により生成されたものに限られず、複数の医用画像診断装置50により生成されてもよい。   Regarding acquisition of input medical data, for example, the image processing apparatus 100 acquires input medical data from the medical image diagnostic apparatus 50. However, the medical image diagnostic apparatus 50 transmits the medical data to a storage device such as an image storage server that is separately present as medical data for training or input medical data, and the medical data stored in the storage device is used as an image processing apparatus. 100 may acquire. In this case, the medical data stored in the storage device is not limited to the one generated by a single medical image diagnostic device 50, and may be generated by a plurality of medical image diagnostic devices 50.

また、判定対象や鑑別対象となる入力医用データは、医用画像診断装置50により撮影された画像に限られず、例えば被検体細胞を採取して顕微鏡で撮影した病理画像などのデータであってもよい。   Further, the input medical data to be the determination target or the discrimination target is not limited to the image captured by the medical image diagnostic apparatus 50, and may be data such as a pathological image captured by a microscope by collecting a subject cell. .

(その他の実施形態)
実施形態は、上述の例に限られない。
(Other embodiments)
The embodiment is not limited to the above example.

実施形態では、第2のデータが、第1の領域から影響を受ける領域である第2の領域に係るデータである場合について説明したが、実施形態はこれに限られない。例えば、第2のデータが、特定の領域に係る情報に限られず、第1の領域と関連性を有する情報であってもよい。   In the embodiment, the case where the second data is data related to the second area that is an area affected by the first area has been described, but the embodiment is not limited to this. For example, the second data is not limited to the information related to the specific area, and may be information having a relationship with the first area.

かかる場合、第1の処理回路120は、学習機能120bにより、病変内部の領域である第1の領域に係る第1のデータと、第1の領域と関連性を有する情報である第2のデータとを訓練データとして用いて、第1の学習済モデルを生成する。第1の処理回路120は、修正機能120cにより、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて第1の学習済モデルを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する。   In such a case, the first processing circuit 120 uses the learning function 120b to generate the first data relating to the first region, which is the region inside the lesion, and the second data, which is information related to the first region. Generate a first trained model using and as training data. The first processing circuit 120 corrects the first learned model on the basis of the information indicating the correlation between the first data and the second data by the correction function 120c, so as to correct the input medical data. A second learned model for making the determination is generated.

例えば、第2のデータが、例えば被検体の遺伝子情報である場合を考える。   For example, consider a case where the second data is, for example, genetic information of the subject.

かかる場合、第1の処理回路120は、学習機能120bにより、病変内部の領域である第1の領域に係る第1のデータと、被検体の遺伝子情報とを訓練データとして用いて、第1の学習済モデルを生成する。第1の処理回路120は、修正機能120cにより、第1のデータと被検体の遺伝子情報との間にある相関関係を示す情報に基づいて第1の学習済モデルを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する。   In such a case, the first processing circuit 120 uses the learning function 120b to use the first data relating to the first region, which is the region inside the lesion, and the genetic information of the subject as training data, Generate a trained model. The first processing circuit 120 corrects the first trained model based on the information indicating the correlation between the first data and the gene information of the subject by the correction function 120c to input the input medical data. Generate a second trained model that makes the determination of

なお、第1のデータと被検体の遺伝子情報との間にある相関関係を示す情報とは、例えば、特定の遺伝子を持った被検体が第1の領域に特定の病変を有する確率について示した情報である。   The information indicating the correlation between the first data and the gene information of the subject is, for example, the probability that the subject having the specific gene has the specific lesion in the first region. Information.

また、実施形態で、第1の処理回路120が修正機能120cにより第1の学習済モデルを修正するのは、中間の畳み込み層やプーリング層等に限られず、第1の学習済モデルの出力層や全結合層を修正して第2の学習済モデルを生成してもよい。   Further, in the embodiment, the first processing circuit 120 corrects the first learned model by the correction function 120c is not limited to the intermediate convolutional layer, the pooling layer, or the like, and the output layer of the first learned model is used. Alternatively, the fully connected layer may be modified to generate the second trained model.

また、第1の領域の学習と第2の領域の学習とを別々の処理回路が担当し、それらの処理回路を統合する処理回路が、それら複数の処理回路の出力結果に対して重み付け調整をして最終的な出力結果を出力してもよい。かかる重み付け調整の段階で、第1のデータと第2のデータとの相関を示す情報が用いられても良い。   Further, separate processing circuits are in charge of learning of the first area and learning of the second area, and a processing circuit that integrates the processing circuits performs weighting adjustment on the output results of the plurality of processing circuits. Then, the final output result may be output. Information indicating the correlation between the first data and the second data may be used at the stage of such weight adjustment.

また、第2の処理回路130が判定機能130aにより行った判定に対して、ユーザがフィードバックを与え、第1の処理回路120が、学習機能120bにより、ユーザから与えられたフィードバックを基に、学習済モデルの内部アルゴリズムを更新してもよい。すなわち、第1の処理回路120は、学習機能120bにより、ユーザからのフィードバックを基に学習済モデルを更新し続けることにより、自己学習を行っても良い。   In addition, the user gives feedback to the determination made by the determination function 130a by the second processing circuit 130, and the first processing circuit 120 performs learning by the learning function 120b based on the feedback given by the user. The internal algorithm of the completed model may be updated. That is, the first processing circuit 120 may perform self-learning by continuing to update the learned model based on the feedback from the user by the learning function 120b.

なお、画像処理装置100に組み込まれるプログラムは病変の内部の領域である第1の領域に係る第1のデータと、第1の領域から影響を受ける領域である第2の領域に係る第2のデータとを訓練データとして用いて、ニューラルネットワークで構成される第1の学習済モデルを生成し、第1のデータと第2のデータとの間にある相関関係を示す情報に基づいて第1の学習済モデルの中間層の重み付けを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する各処理をコンピュータである画像処理装置100に実行させる。   The program installed in the image processing apparatus 100 includes the first data related to the first area which is the area inside the lesion and the second data related to the second area which is the area affected by the first area. Using the data as training data, a first trained model composed of a neural network is generated, and the first trained model is generated based on the information indicating the correlation between the first data and the second data. The image processing apparatus 100, which is a computer, is caused to execute each process of correcting the weighting of the intermediate layer of the learned model and generating the second learned model for making a determination on the input medical data.

以上述べた少なくとも一つの実施形態の画像処理装置によれば、学習の判定精度を高めることができる。   According to the image processing device of at least one of the above-described embodiments, the learning determination accuracy can be increased.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.

120a 訓練データ作成機能
120b 学習機能
130a 判定機能
100 画像処理装置
120 第1の処理回路
130 第2の処理回路
120a Training data creation function 120b Learning function 130a Judgment function 100 Image processing device 120 First processing circuit 130 Second processing circuit

Claims (10)

病変の内部の領域である第1の領域に係る第1のデータと、前記第1の領域から影響を受ける領域である第2の領域に係る第2のデータとを訓練データとして用いて、ニューラルネットワークで構成される第1の学習済モデルを生成する学習部と、
前記第1のデータと前記第2のデータとの間にある相関関係を示す情報に基づいて前記第1の学習済モデルの中間層の重み付けを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する修正部と
を備える、
画像処理装置。
Using the first data relating to the first region, which is the region inside the lesion, and the second data relating to the second region, which is the region affected by the first region, as training data, a neural network A learning unit for generating a first trained model composed of a network;
A method of correcting the weighting of the intermediate layer of the first trained model based on information indicating a correlation between the first data and the second data to make a determination on input medical data; And a correction unit for generating a trained model of 2,
Image processing device.
前記第2の学習済モデルに基づいて、前記入力医用データについての判定を行う判定部を更に備える、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a determination unit that determines the input medical data based on the second learned model. 前記学習部は、第3の学習済モデルから得られた前記情報に基づいて、前記第2の学習済モデルを生成する、請求項1に記載の画像処理装置。   The image processing device according to claim 1, wherein the learning unit generates the second learned model based on the information obtained from the third learned model. 前記第2の領域は、前記病変の細胞外の微小環境領域である、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second region is an extracellular microenvironment region of the lesion. 前記病変は、がんであり、前記第2の領域は、前記がんの組織外の間質細胞領域、又は前記がんの転移性が高い組織のうち少なくとも一方である、請求項1に記載の画像処理装置。   The lesion is a cancer, and the second region is at least one of a stromal cell region outside the tissue of the cancer and a highly metastatic tissue of the cancer. Image processing device. 前記第1の領域は、脳の機能領域であり、前記第2の領域は、前記第1の領域と神経機能連関がある領域である、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first region is a functional region of the brain, and the second region is a region having a neural function connection with the first region. 前記第1の領域は、脳の機能領域であり、前記第2の領域は、脳以外の領域であって、前記第1の領域に関連する神経支配領域である、請求項1に記載の画像処理装置。   The image according to claim 1, wherein the first region is a functional region of the brain, and the second region is a region other than the brain, which is a innervation region related to the first region. Processing equipment. 病変内部の領域である第1の領域に係る第1のデータと、前記第1の領域から影響を受ける領域である第2の領域に係る第2のデータとを訓練データとして用いて、第1の学習済モデルを生成し、
前記第1のデータと前記第2のデータとの間にある相関関係を示す情報に基づいて前記第1の学習済モデルの中間層の重み付けを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する各処理をコンピュータに実行させる、プログラム。
Using the first data relating to the first region, which is the region inside the lesion, and the second data relating to the second region, which is the region affected by the first region, as training data, the first data Generate a trained model of
A method of correcting the weighting of the intermediate layer of the first trained model based on information indicating a correlation between the first data and the second data to make a determination on input medical data; A program that causes a computer to execute each process for generating the learned model of No. 2.
病変内部の領域である第1の領域に係る第1のデータと、前記第1の領域と関連性を有する情報である第2のデータとを訓練データとして用いて、第1の学習済モデルを生成する学習部と、
前記第1のデータと前記第2のデータとの間にある相関関係を示す情報に基づいて前記第1の学習済モデルを修正して、入力医用データについての判定を行う第2の学習済モデルを生成する修正部と
を備える、
画像処理装置。
Using the first data relating to the first region, which is the region inside the lesion, and the second data, which is information having a relationship with the first region, as training data, the first learned model is obtained. A learning unit to generate,
A second trained model that corrects the first trained model based on information indicating a correlation between the first data and the second data to make a determination on input medical data. And a correction unit for generating
Image processing device.
前記第2のデータは、被検体の遺伝子情報である、請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the second data is gene information of a subject.
JP2018197742A 2018-10-19 2018-10-19 Image processing device and program Active JP7325942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018197742A JP7325942B2 (en) 2018-10-19 2018-10-19 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197742A JP7325942B2 (en) 2018-10-19 2018-10-19 Image processing device and program

Publications (2)

Publication Number Publication Date
JP2020062340A true JP2020062340A (en) 2020-04-23
JP7325942B2 JP7325942B2 (en) 2023-08-15

Family

ID=70387951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197742A Active JP7325942B2 (en) 2018-10-19 2018-10-19 Image processing device and program

Country Status (1)

Country Link
JP (1) JP7325942B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002506666A (en) * 1998-03-20 2002-03-05 バーバラ・アン・カーマノス・キャンサー・インスティテュート Multidimensional detection and characterization of pathological tissues
JP2006043007A (en) * 2004-08-02 2006-02-16 Fujitsu Ltd Diagnosis support program and diagnosis support apparatus
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2008194456A (en) * 2007-01-16 2008-08-28 Kobe Univ Medical image processing apparatus, and medical image processing method
JP2012235796A (en) * 2009-09-17 2012-12-06 Sharp Corp Diagnosis processing device, system, method and program, and recording medium readable by computer and classification processing device
WO2016111014A1 (en) * 2015-01-09 2016-07-14 株式会社島津製作所 X-ray imaging apparatus
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program
JP2017076193A (en) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method and brain activity analysis program
WO2017183527A1 (en) * 2016-04-19 2017-10-26 コニカミノルタ株式会社 Subject monitoring device and method, and subject monitoring system
WO2018070285A1 (en) * 2016-10-14 2018-04-19 株式会社日立製作所 Image processing device and image processing method
JP2018113042A (en) * 2017-01-12 2018-07-19 株式会社AncientTree Device for predicting, recording and comparing inspection data
JP2018117883A (en) * 2017-01-25 2018-08-02 国立大学法人大阪大学 Learning device, identification device, identification method and program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002506666A (en) * 1998-03-20 2002-03-05 バーバラ・アン・カーマノス・キャンサー・インスティテュート Multidimensional detection and characterization of pathological tissues
JP2010029679A (en) * 1998-03-20 2010-02-12 Barbara Ann Karmanos Cancer Inst Apparatus and method for multidimensional detection of pathologic tissue
JP2006043007A (en) * 2004-08-02 2006-02-16 Fujitsu Ltd Diagnosis support program and diagnosis support apparatus
JP2008157640A (en) * 2006-12-20 2008-07-10 Fujifilm Ri Pharma Co Ltd Analytical method for time-serial data as to brain image data, program, and recording medium
JP2008194456A (en) * 2007-01-16 2008-08-28 Kobe Univ Medical image processing apparatus, and medical image processing method
JP2012235796A (en) * 2009-09-17 2012-12-06 Sharp Corp Diagnosis processing device, system, method and program, and recording medium readable by computer and classification processing device
WO2016111014A1 (en) * 2015-01-09 2016-07-14 株式会社島津製作所 X-ray imaging apparatus
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program
JP2017076193A (en) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method and brain activity analysis program
WO2017183527A1 (en) * 2016-04-19 2017-10-26 コニカミノルタ株式会社 Subject monitoring device and method, and subject monitoring system
WO2018070285A1 (en) * 2016-10-14 2018-04-19 株式会社日立製作所 Image processing device and image processing method
JP2018113042A (en) * 2017-01-12 2018-07-19 株式会社AncientTree Device for predicting, recording and comparing inspection data
JP2018117883A (en) * 2017-01-25 2018-08-02 国立大学法人大阪大学 Learning device, identification device, identification method and program

Also Published As

Publication number Publication date
JP7325942B2 (en) 2023-08-15

Similar Documents

Publication Publication Date Title
Afshar et al. From handcrafted to deep-learning-based cancer radiomics: challenges and opportunities
Monkam et al. Detection and classification of pulmonary nodules using convolutional neural networks: a survey
CN112292691B (en) Methods and systems for improving cancer detection using deep learning
Streba et al. Contrast-enhanced ultrasonography parameters in neural network diagnosis of liver tumors
US20220254023A1 (en) System and Method for Interpretation of Multiple Medical Images Using Deep Learning
US7529394B2 (en) CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
CN111563523B (en) COPD classification using machine-trained anomaly detection
US11308611B2 (en) Reducing false positive detections of malignant lesions using multi-parametric magnetic resonance imaging
Ye et al. Robust weakly supervised learning for COVID-19 recognition using multi-center CT images
Odeh et al. Diabetic retinopathy detection using ensemble machine learning
Liu et al. Identifying the histologic subtypes of non-small cell lung cancer with computed tomography imaging: a comparative study of capsule net, convolutional neural network, and radiomics
Xu et al. A regional-attentive multi-task learning framework for breast ultrasound image segmentation and classification
JP2020062355A (en) Image processing apparatus, data generation apparatus, and program
Sun et al. A novel gastric ulcer differentiation system using convolutional neural networks
Gayathri Devi et al. Automatic segmentation of colon in 3D CT images and removal of opacified fluid using cascade feed forward neural network
Pujitha et al. Solution to overcome the sparsity issue of annotated data in medical domain
Wang et al. An intelligent system of pelvic lymph node detection
Li et al. Lesion-aware convolutional neural network for chest radiograph classification
US11995834B2 (en) Method and system for the automated determination of examination results in an image sequence
Velichko et al. A comprehensive review of deep learning approaches for magnetic resonance imaging liver tumor analysis
Park et al. Comparison between single and serial computed tomography images in classification of acute appendicitis, acute right-sided diverticulitis, and normal appendix using EfficientNet
Pan et al. Automatic pulmonary artery-vein separation in CT images using a twin-pipe network and topology reconstruction
JP2020062340A (en) Image processing apparatus and program
CN113379770B (en) Construction method of nasopharyngeal carcinoma MR image segmentation network, image segmentation method and device
JP2022117177A (en) Device, method, and program for processing information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7325942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150