JP2020075063A - Image interpolation/organ extraction device and program thereof - Google Patents
Image interpolation/organ extraction device and program thereof Download PDFInfo
- Publication number
- JP2020075063A JP2020075063A JP2018211847A JP2018211847A JP2020075063A JP 2020075063 A JP2020075063 A JP 2020075063A JP 2018211847 A JP2018211847 A JP 2018211847A JP 2018211847 A JP2018211847 A JP 2018211847A JP 2020075063 A JP2020075063 A JP 2020075063A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- tomographic
- prediction
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000056 organ Anatomy 0.000 title claims abstract description 71
- 238000000605 extraction Methods 0.000 title claims abstract description 40
- 238000012545 processing Methods 0.000 claims description 80
- 238000010801 machine learning Methods 0.000 claims description 68
- 238000004364 calculation method Methods 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 33
- 238000003672 processing method Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 2
- 230000006870 function Effects 0.000 abstract description 2
- 238000013136 deep learning model Methods 0.000 abstract 1
- 230000006872 improvement Effects 0.000 description 6
- 230000005855 radiation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000004185 liver Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、機械学習を用い3次元医用ボリューム画像より指定した領域を自動的に補間・抽出する医用画像3D領域自動補間・抽出方法とそのプログラムに関する。 The present invention relates to a medical image 3D area automatic interpolation / extraction method and program for automatically interpolating / extracting a specified area from a three-dimensional medical volume image using machine learning.
近年、適切な放射線治療を行うために、X線CT画像やMRI画像上で臓器領域を詳細に定義した上で、腫瘍に対する放射線量を正確に照射する装置が活用されている。従来の放射線照射支援装置は、例えば、X線CT画像やMRI画像(核磁気共鳴画像)撮像装置、によって撮影された画像の断層画像情報を蓄積する断層画像情報取得部と、断層画像情報取得部に接続されたメモリと、メモリに接続された断層画像・3Dボリューム画像演算表示部と、演算表示部演算結果を表示するディスプレイと、ディスプレイに表示された表示対象物に対して臓器領域を定義し放射線治療計画のシミュレーションを行う入力部とを備えていた。なお3Dボリューム画像は、CTなどの診断装置により得られる断層画像の集合である3次元画像を意味する。 In recent years, in order to perform appropriate radiation treatment, an apparatus that precisely irradiates a tumor with a radiation dose after defining an organ region in detail on an X-ray CT image or an MRI image has been utilized. A conventional radiation irradiation support apparatus includes, for example, a tomographic image information acquisition unit that accumulates tomographic image information of an image captured by an X-ray CT image or an MRI image (nuclear magnetic resonance image) imaging apparatus, and a tomographic image information acquisition unit. The memory connected to the memory, the tomographic image / 3D volume image calculation display section connected to the memory, the calculation display section, the display for displaying the calculation results, and the organ area for the display target displayed on the display are defined. It was equipped with an input unit for simulating a radiation treatment plan. The 3D volume image means a three-dimensional image that is a set of tomographic images obtained by a diagnostic device such as CT.
また、臓器の領域定義を行うために、一般的には各断層画像に対して臓器輪郭をマウスでポインティングして入力する手法が提供されている以外、自動で臓器領域を抽出する技術が用いられている。 In addition, in order to define the area of an organ, generally, a technique of automatically extracting the organ area is used, except for the method of pointing and inputting the contour of the organ on each tomographic image with a mouse. ing.
たとえば特許文献1には、各断層画像から対象臓器輪郭を自動抽出した後、3D再構成することで臓器の3D領域を抽出する方法が開示されている。 For example, Patent Document 1 discloses a method of automatically extracting a target organ contour from each tomographic image and then performing 3D reconstruction to extract a 3D region of the organ.
上記従来の臓器画像を抽出する装置においては、CT,MRIなどの画像診断機の出力から生成される断層画像の画素の輝度レベルを撮影された機器ごとに調整していた。その後、処理対象画像の低解像度画像を別途生成し、グラフカット法により低解像度画像から特定領域を抽出し、特定領域の抽出結果に基づいて、処理対象画像における特定領域の輪郭を含む輪郭領域を、処理対象画像に設定する輪郭領域設定手段と、グラフカット法により、輪郭領域から特定領域に対応する領域を抽出する第2の抽出手段とを用い、輪郭を抽出していた。ここで低解像度の画像を用いる理由は、グラフカット法においては、逐次演算で処理対象画像の解像度に依存して処理時間が多くかかるためである。そして最終的に抽出した各断層画像の領域を線形補間することで3D領域を構成していた。しかしながら従来の線形補間方法は、新たに補間生成される断層画像の各ピクセルが元断層画像の隣接ピクセルの範囲を1乃至2程度で参照し補間していたため、疎な断層画像で構成される3Dボリューム画像に対しては臓器曲線を十分に表現できない。さらに前記グラフカット法を含む従来の臓器抽出手法では、断層画像間の各断層に対してそれぞれ領域抽出を実施してから線形結合して3D領域を再構成していたため、断層画像間の連続性情報が領域抽出実施時に利用できないことから、抽出結果を用いて3D再構成される臓器の表面はジャギと呼ばれるギザギザの模様が発生し、精度を高くできなかった。望ましくは高精度の断層画像で構成された3Dボリューム画像に対して、臓器の領域抽出精度も高めたうえ、臓器抽出を実施することである。 In the above-mentioned conventional apparatus for extracting an organ image, the brightness level of the pixel of the tomographic image generated from the output of the image diagnostic apparatus such as CT or MRI is adjusted for each device. After that, a low-resolution image of the processing target image is separately generated, a specific area is extracted from the low-resolution image by the graph cut method, and a contour area including the contour of the specific area in the processing target image is extracted based on the extraction result of the specific area. The contour is extracted by using the contour area setting means for setting the processing target image and the second extracting means for extracting the area corresponding to the specific area from the contour area by the graph cut method. The reason for using the low-resolution image is that the graph cut method requires a long processing time depending on the resolution of the processing target image in the sequential calculation. Then, the 3D area is constructed by linearly interpolating the areas of the finally extracted tomographic images. However, in the conventional linear interpolation method, each pixel of the tomographic image newly generated is interpolated by referring to the range of the adjacent pixels of the original tomographic image by about 1 to 2, so that a 3D image composed of a sparse tomographic image is formed. The organ curve cannot be sufficiently expressed for the volume image. Further, in the conventional organ extraction method including the graph cut method, the 3D regions are reconstructed by linearly combining the regions after performing the region extraction for each tomographic image between the tomographic images. Since the information is not available at the time of area extraction, the surface of the organ that is 3D reconstructed using the extraction result has a jagged pattern called jaggies, and the accuracy cannot be improved. Desirably, the region extraction accuracy of the organ is enhanced and the organ extraction is performed on the 3D volume image composed of high-accuracy tomographic images.
本発明第1の画像処理装置は、連続するm枚(mは3以上の整数)の断層画像集合を読み込む学習用画像読み込み部と、連続する断層画像から任意の(m-n)枚(nは1以上、(m-2)以下の整数)を学習用入力データとし、残りのn枚を教師データとする画像補間の機械学習を行う機械学習部と、学習した結果であるルールを格納する学習済みルール格納部と、連続する(m-n)枚の予測用断層画像を読み込む予測用画像読み込み部と、学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、 (m-n)枚の予測用断層画像および学習済みルールに基づき、n枚の断層画像新たに生成し出力する予測演算出力部とを備える、第1の画像処理装置である。 The first image processing apparatus of the present invention includes a learning image reading unit that reads a continuous m (m is an integer of 3 or more) tomographic image set, and an arbitrary (mn) number (n is 1) from continuous tomographic images. Above, an integer less than or equal to (m-2)) is used as learning input data, and the remaining n sheets are used as teacher data.A machine learning unit that performs machine learning for image interpolation and a learning result that stores rules that are learned A rule storage unit, a prediction image reading unit that reads continuous (mn) prediction tomographic images, a learned rule reading unit that calls a learned rule from the learned rule storage unit, and (mn) prediction images The first image processing apparatus includes a prediction calculation output unit that newly generates and outputs n tomographic images based on the tomographic image and the learned rule.
かかる構成により、深層学習に用いられる畳み込み演算等の機械学習によって補間ルールを学習することで、新たに補間生成される断層画像の各ピクセルは近傍断層画像の一部または全ピクセルを参照して補間を行うため、元の断層画像と前記中間断層画像を含むすべての断層画像で構成されるジャギの少ない高精細な3Dボリューム画像を再構成することができる。 With such a configuration, by learning the interpolation rule by machine learning such as convolution calculation used for deep learning, each pixel of the newly generated tomographic image is interpolated by referring to a part or all pixels of the neighboring tomographic image. Therefore, it is possible to reconstruct a high-definition 3D volume image with less jaggies, which is composed of all the tomographic images including the original tomographic image and the intermediate tomographic image.
本発明第2の画像処理装置は、対象臓器の領域情報付きな3Dボリューム画像から、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込む学習用画像読み込み部と、前記断層画像を学習用入力データとし、前記ラベル画像を教師データとする領域抽出の機械学習を行う機械学習部と、学習した結果であるルールを格納する学習済みルール格納部と、x枚の予測用断層画像を読み込む予測用画像読み込み部と、前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、前記x枚の予測用断層画像および学習済みルールに基づき、臓器領域を示すy枚のラベル画像を新たに生成し出力する予測演算出力部とを備える画像処理装置である。 The second image processing apparatus of the present invention is configured such that x (x is an integer of 1 or more) learning tomographic images and y (y is an integer of x or less) targets from a 3D volume image with region information of a target organ. A learning image reading unit that reads a label image indicating organ region information, a machine learning unit that performs machine learning for region extraction using the tomographic image as learning input data, and the label image as teacher data, and a learning result. A learned rule storage unit that stores rules, a prediction image reading unit that reads x prediction tomographic images, a learned rule reading unit that calls a learned rule from the learned rule storage unit, and the x The image processing apparatus includes a prediction calculation output unit that newly generates and outputs y label images indicating an organ region based on the prediction tomographic images and the learned rule.
かかる構成により、一度に3Dボリューム画像の全体に対する画像補間の機械学習演算を行わなくても、3Dボリューム画像を断層の集合群に分割し、演算リソースを抑制しながらも、逐次予測演算することで、臓器全体の3D領域を抽出することができる。 With such a configuration, it is possible to divide the 3D volume image into a set of tomographic groups without performing the machine learning calculation of the image interpolation for the entire 3D volume image at a time, and perform the sequential prediction calculation while suppressing the calculation resources. , 3D area of the whole organ can be extracted.
また、本発明第3の画像処理装置は、第2の発明に対して、学習用画像読み込み部は、第1の発明の画像処理装置を用いて3Dボリューム画像Aを補間処理して新たに生成した3Dボリューム画像Bから、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込むことを特徴とする、画像処理装置である。 Further, the third image processing apparatus of the present invention is different from the second invention in that the learning image reading unit newly generates the 3D volume image A by interpolation processing using the image processing apparatus of the first invention. From the 3D volume image B, it is characterized by reading x (where x is an integer of 1 or more) learning tomographic images and y (y is an integer of x or less) label images showing the region information of the target organ. , An image processing device.
かかる構成により、本第1の画像処理装置から補間出力される高精細な3Dボリューム画像に対し、本第2の画像処理装置を用いて臓器3D領域抽出を実施することにより、従来手法よりも、体積・輪郭を高精度に表現した臓器形状を抽出可能にすることができる。 With such a configuration, by performing the organ 3D region extraction using the second image processing device on the high-definition 3D volume image interpolated and output from the first image processing device, a It is possible to extract the organ shape that expresses the volume and contour with high accuracy.
また、本発明第4の画像処理装置は、第1の発明に対して、学習用画像読み込み部は、3Dボリューム画像を構成する断層画像群から任意のm枚の連続する断層画像集合を繰り返し学習用画像として読み込むことを特徴とする、画像処理装置である。 Further, in the fourth image processing apparatus of the present invention, the learning image reading unit is different from the first invention in that the learning image reading unit repeatedly learns an arbitrary m continuous tomographic image sets from a tomographic image group forming a 3D volume image. The image processing apparatus is characterized in that it is read as an image for use.
かかる構成により、3Dボリューム画像の断層画像の連続する一部または全部を繰り返し学習データとして取得し機械学習を実施することで、一度に3Dボリューム画像の全体に対する画像補間の機械学習演算を行わなくても、演算リソースを抑制しながらも、断層画像間の連続性情報を参照し、3Dボリューム画像の断層画像の任意の部分集合に対する補間画像を生成できる。 With such a configuration, a continuous part or all of the tomographic image of the 3D volume image is repeatedly acquired as learning data and machine learning is performed, so that the machine learning calculation of the image interpolation for the entire 3D volume image is not performed at one time. Also, it is possible to generate an interpolation image for an arbitrary subset of the 3D volume image tomographic image by referring to the continuity information between the tomographic images while suppressing the calculation resources.
また、本発明第5の画像処理装置は、第2の発明に対して、学習用画像読み込み部は、3Dボリューム画像を構成する断層画像群から任意のx枚の連続する断層画像集合と、それに対応するy枚のラベル画像集合を繰り返し学習用画像として読み込むことを特徴とする、画像処理装置である。 Further, the fifth image processing apparatus of the present invention is different from the second invention in that the learning image reading unit includes an arbitrary x continuous tomographic image sets from a tomographic image group forming a 3D volume image, and The image processing device is characterized in that a corresponding y label image set is repeatedly read as an image for learning.
かかる構成により、3Dボリューム画像の断層画像およびの一部または全部を繰り返し学習データとして取得し機械学習を実施することで、一度に3Dボリューム画像の全体に対する領域抽出の機械学習演算を行わなくても、演算リソースを抑制しながらも、断層画像間の連続性情報を参照し、3Dボリューム画像の断層画像の任意の部分集合に対する領域抽出処理ができる。 With such a configuration, the tomographic image of the 3D volume image and a part or all of the tomographic image are repeatedly acquired as learning data and machine learning is performed, so that it is not necessary to perform the machine learning calculation of the area extraction for the entire 3D volume image at one time. By controlling the continuity information between the tomographic images while suppressing the calculation resources, it is possible to perform the region extraction processing for an arbitrary subset of the tomographic images of the 3D volume image.
また、本発明第6の画像処理方法は、第1または第2の発明に対し、学習用画像読み込み部および予測層画像読み込み部は、学習用または予測用断層画像を読み込むにあたり、断層画像の画素値を加工せず、またはX線CTやMRIなどの画像種別や臓器の画素値分布に応じて、コントラストと濃度を正規化した上で、第1または第2の発明の機械学習部および予測演算出力部の入力とすることを特徴とする画像処理方法である。 The sixth image processing method of the present invention is different from the first or second invention in that the learning image reading unit and the prediction layer image reading unit read pixels of the tomographic image when reading the learning or prediction tomographic image. The values are not processed, or the contrast and density are normalized according to the image type such as X-ray CT or MRI or the pixel value distribution of the organ, and then the machine learning unit and the prediction calculation of the first or second invention. The image processing method is characterized in that the image is input to an output unit.
一般的に医用画像の多くは、ピクセル情報は2バイト以上で構成されているため、そのまま加工せずにニューラルネットワークに入力するには濃淡値のばらつきが大きく、深層学習結果の精度低下につながる。かかる方法により、学習用または予測用断層画像の分布のバラツキを少なくした後、機械学習部または予測演算出力部の入力とすることで、機械学習の演算精度および学習速度の向上に繋がる。 In general, most medical images have pixel information of 2 bytes or more, and therefore, if they are directly input to a neural network without being processed, variations in gray value are large, leading to deterioration in accuracy of deep learning results. By using this method, the variation in the distribution of the tomographic images for learning or prediction is reduced, and then input to the machine learning unit or the prediction calculation output unit, which leads to improvement in calculation accuracy and learning speed of machine learning.
また、本発明第7の画像処理装置は、第2の発明に対し、学習用画像読み込み部は、3Dボリューム画像内における抽出対象臓器の体積の範囲を事前に算出し、抽出対象臓器を含む断層画像を任意の確率で繰り返し学習画像として読み込むことを特徴とする、画像処理装置である。 Further, the seventh image processing apparatus of the present invention is different from the second invention in that the learning image reading unit calculates in advance the volume range of the extraction target organ in the 3D volume image, and the slice including the extraction target organ is calculated. An image processing apparatus characterized in that an image is repeatedly read as a learning image with an arbitrary probability.
かかる構成により、臓器の体積の大小または存在範囲によらず、効率よく学習データを取得でき、機械学習の演算精度および学習速度の向上に繋がる。 With such a configuration, the learning data can be efficiently acquired regardless of the size of the organ or the range of existence of the organ, which leads to improvement in the calculation accuracy and learning speed of machine learning.
また、本発明第8の画像処理方法は、第1の発明または第2の発明に対し、学習用画像読み込み部は、3Dボリューム画像Aから、3Dボリューム画像Bへ形状位置合わせ技術を実施し、前記画像Aを3次元変形することで学習パターンを変更した上で、第1の発明または第2の発明の機械学習部の入力とすることを特徴とする画像処理方法である。 Further, the eighth image processing method of the present invention is different from the first invention or the second invention in that the learning image reading unit performs a shape registration technique from the 3D volume image A to the 3D volume image B, The image processing method is characterized in that the learning pattern is changed by three-dimensionally deforming the image A, and then is input to the machine learning unit of the first invention or the second invention.
かかる方法により、臓器変形の合理性を保ちながら、少数の学習データから多くの品質の良い学習データへ拡張でき、機械学習の演算精度向上に繋がる。 With such a method, it is possible to expand a small number of learning data to a large number of high-quality learning data while maintaining the rationality of organ deformation, which leads to an improvement in calculation accuracy of machine learning.
また、本発明第9の画像処理装置は、3Dボリューム画像の断面軸をX,Y,Zの3方向としたとき、第2の発明に対し、予測画像読み込み部は、各軸における断層画像集合をそれぞれ請求項2記載の予測演算出力部の入力とし、出力された各方向における予測結果を線形結合し、最終出力とすることを特徴とする画像処理装置である。 Further, in the ninth image processing apparatus of the present invention, when the cross-sectional axis of the 3D volume image is set to three directions of X, Y, and Z, the predicted image reading unit is different from the second invention in that the tomographic image set in each axis is set. Are input to the prediction calculation output unit according to claim 2, and the output prediction results in each direction are linearly combined to obtain a final output.
かかる構成により、複数の機械学習ルールによる予測結果による投票形式で最終決定される予測結果は、単一の断層方向による機械学習ルールの不得手を緩和することにより、領域抽出の精度向上に繋がる。 With such a configuration, the prediction result that is finally determined in a voting format based on the prediction results of a plurality of machine learning rules reduces the weakness of the machine learning rule based on a single tomographic direction, which leads to improvement in area extraction accuracy.
また、本発明第10の画像処理装置は、第2の発明に対し、予測画像読み込み部は、X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、複数の画素値範囲において断層画像の画素値を正規化した上で、それぞれ請求項2記載の予測演算出力部の入力とし、出力された各画素値範囲における予測結果を線形結合し、最終出力とすることを特徴とする画像処理装置である。 Further, the tenth image processing device of the present invention is different from the second invention in that the predictive image reading unit has a plurality of pixel value ranges in a plurality of pixel value ranges according to an image type such as X-ray CT and MRI and a pixel value distribution of an organ. The pixel values of the tomographic image are normalized and then input to the prediction calculation output unit according to claim 2, and the prediction results in the respective pixel value ranges that have been output are linearly combined to obtain the final output. It is an image processing device.
かかる構成により、複数の機械学習ルールによる予測結果による投票形式で最終決定される予測結果は、単一の画素値範囲による機械学習ルールの不得手を緩和することにより、輪郭が不明瞭な臓器に対しても領域抽出の精度向上に繋がる。 With such a configuration, the prediction result that is finally decided in a voting format based on the prediction results of a plurality of machine learning rules is an organ with an unclear contour by relaxing the weak points of the machine learning rule based on a single pixel value range. On the other hand, it also leads to an improvement in the accuracy of region extraction.
また、本発明第11の画像処理方法は、第1の発明または第2の発明に対し、学習用画像読み込み部は、繰り返し学習用画像を読み込むにあたり、学習用3Dボリューム画像群から、3Dボリューム画像A全体を読み込む処理と、3Dボリューム画像Aから任意の断層画像の部分集合を学習用画像として読み込み処理と、を非同期で実施することを特徴とする画像処理方法である。 In addition, the eleventh image processing method of the present invention is different from the first or second invention in that the learning image reading unit reads the learning images repeatedly, from the learning 3D volume image group to the 3D volume image. The image processing method is characterized in that the process of reading the entire A and the process of reading a partial set of tomographic images from the 3D volume image A as learning images are performed asynchronously.
かかる構成により、容量の大きな3Dボリューム画像を読み込み時間に関わらず、第1の発明または第2の発明の機械学習部に学習用画像を供給することができ、機械学習の速度低下を抑制することができる。 With this configuration, the learning image can be supplied to the machine learning unit of the first invention or the second invention regardless of the reading time of a large-capacity 3D volume image, and a decrease in the speed of machine learning can be suppressed. You can
また、本発明第12の画像処理方法は、機械学習おいて、繰り返し学習用画像を読み込むにあたり、特定の入力画像と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせを任意の確率で与えることで、学習済みルールに従い、前記組み合わせを固定することにより、学習済みルールを特徴付けて識別可能であることを特徴とする画像処理方法である。 In addition, the twelfth image processing method of the present invention provides a combination of a specific input image and a specific teacher feature image or a teacher feature vector with an arbitrary probability when reading an iterative learning image in machine learning. Thus, the image processing method is characterized in that the learned rule can be characterized and identified by fixing the combination according to the learned rule.
かかる方法により、学習に用いた入力画像を用いることで、学習ルールの識別が行え、学習ルールの流出や無断盗用等を抑止することができる。 With this method, the learning rule can be identified by using the input image used for learning, and it is possible to prevent the learning rule from leaking or being stolen without permission.
本発明による画像処理装置によれば、機械学習したルールを利用した高精度な臓器領域抽出が行える。 According to the image processing device of the present invention, highly accurate organ region extraction can be performed using machine-learned rules.
従来、放射線治療計画データを作成する時に、臓器輪郭を手書きにより作成していたため、多大な時間を要していたが、手書きにて作成した臓器データも含めて、学習モデルとすることにより、学習精度を向上させることが可能となり、高精度の臓器形状を得ることができ、精度の高い治療計画を立案することができる。さらに、臓器領域を容易に抽出可能になれば、手術立案や手術シミュレーション・ナビゲーションなど外科手術領域でも本発明を活用可能である。 Conventionally, when creating radiation treatment plan data, it took a lot of time because the organ contour was created by handwriting, but learning by including the organ data created by handwriting as a learning model The accuracy can be improved, a highly accurate organ shape can be obtained, and a highly accurate treatment plan can be planned. Furthermore, if the organ region can be easily extracted, the present invention can be utilized in the surgical operation region such as surgery planning, surgery simulation and navigation.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1は、本実施の形態における画像処理装置1のブロック図である。画像処理装置1は、学習用画像読み込み部101、機械学習部102、学習済みルール格納部103、予測用画像読み込み部104、学習済みルール読み込み部105、予測演算出力部106を備える。また、画像処理装置1は、3Dボリューム画像用記憶装置100と接続されている。画像処理装置1と3Dボリューム画像用記憶装置100とは有線・無線等の接続形態は問わない。
FIG. 1 is a block diagram of an image processing apparatus 1 according to this embodiment. The image processing apparatus 1 includes a learning
図2は、補間処理の学習および予測出力する場合において、画像処理装置1が実装する処理のフローチャートである。 FIG. 2 is a flowchart of processing implemented by the image processing apparatus 1 when learning interpolation processing and performing prediction output.
(ステップS201):
ステップS201において、学習用画像読み込み部101は、3Dボリューム画像用記憶装置100に格納された、学習用画像群から1つの学習用3Dボリューム画像を任意に取得する。
(Step S201):
In step S201, the learning
(ステップS202):
ステップS202において、学習用画像読み込み部101は前記学習用3Dボリューム画像の連続するm枚の断層画像集合から、断層画像の部分集合(サブ集合と称す)を、任意に選択して取得する。mは3以上の整数である。
(Step S202):
In step S202, the learning
(ステップS203〜ステップS204):
機械学習部102は、前記m枚の断層画像集合に対し、(m−n)枚の入力画像(入力データ)とn枚の教師画像(教師データ)に分割し、前記入力画像から前記教師画像を補間出力するための機械学習を実施する。
(Step S203 to Step S204):
The
(ステップS205〜ステップS206):
機械学習部102は、ユーザが指定したルールまたは繰り返し数を参照し、学習が未終了の場合、ステップS201に戻り、繰り返し機械学習を実施する。学習が終了した場合は、学習済みルール格納部103に学習済みルールを出力する。
(Steps S205 to S206):
The
(ステップS207):
ステップS207において、予測用画像読み込み部104は、3Dボリューム画像用記憶装置100に格納された、予測用画像群から、ユーザが指定した1つの予測用3Dボリューム画像を取得する。
(Step S207):
In step S207, the prediction
(ステップS208):
ステップS208において、予測用画像読み込み部104は、前記予測用3Dボリューム画像を構成する断層画像群を(m−n)枚ずつの複数の断層画像サブ集合に分割し、順に予測演算出力部106に供与する。
(Step S208):
In step S208, the prediction
(ステップS209):
ステップS209において、学習済みルール読み込み部105は学習済みルール格納部103で格納された学習済みルールを取得し、予測演算出力部106に供与する。
(Step S209):
In step S209, the learned
(ステップS210〜S212):
予測演算出力部106は、供与された(m−n)枚の断層画像に対し、学習済みルールに基づき画像補間演算を実施する。未処理な断層画像サブ集合が残っている場合、ステップS208に戻り、追加で画像補間演算を実施する。すべての断層画像サブ集合に対する画像補間演算が終了すると、前記予測用3Dボリューム画像の元の断層画像群と補間演算によって新たに生成した断層画像群を併合し、補間済み3Dボリューム画像として出力する。
(Steps S210 to S212):
The prediction
図3に、一例として、1つの3Dボリューム画像に対し、従来の線形補間法を実施した後に生成した3D立体画像(a)と、画像処理装置1に対し、(b)で示すようにm=5、n=1と設定して画像補間の機械学習を行った後、前記3Dボリューム画像に対して画像補間を実施した後に生成した3D立体画像(c)の比較画像を示す。従来の線形補間法と比べ、画像処理装置1によって補間出力された画像は不自然なジャギが軽減され、滑らかな表面を生成することができている。 In FIG. 3, as an example, a 3D stereoscopic image (a) generated after the conventional linear interpolation method is performed on one 3D volume image, and m = 5 shows a comparative image of a 3D stereoscopic image (c) generated after performing image interpolation on the 3D volume image after performing machine learning for image interpolation by setting 5, n = 1. Compared with the conventional linear interpolation method, the image interpolated and output by the image processing device 1 has less unnatural jaggies and can generate a smooth surface.
図4は、本実施の形態における画像処理装置2のブロック図である。画像処理装置2は、学習用画像読み込み部201、機械学習部202、学習済みルール格納部203、予測用画像読み込み部204、学習済みルール読み込み部205、予測演算出力部206を備える。また、画像処理装置2は、3Dボリューム画像用記憶装置100、または第1の実施形態における画像処理装置1の予測演算出力部106と接続されている。画像処理装置2と3Dボリューム画像用記憶装置100、または画像処理装置1の予測演算出力部106との有線・無線等の接続形態は問わない。
FIG. 4 is a block diagram of the image processing device 2 according to the present embodiment. The image processing apparatus 2 includes a learning
図5は、臓器の領域抽出の学習および予測出力する場合において、画像処理装置2が実装する処理のフローチャートである。 FIG. 5 is a flowchart of processing implemented by the image processing apparatus 2 when learning and predictive output of region extraction of an organ.
(ステップS501):
ステップS501において、学習用画像読み込み部201は、対象臓器の領域情報付き3Dボリューム画像用記憶装置100に格納された、学習用画像群から1つの学習用3Dボリューム画像を任意に取得する。
(Step S501):
In step S501, the learning
(ステップS502):
ステップS502において、学習用画像読み込み部201は前記学習用3Dボリューム画像の連続するx枚の断層画像集合を任意の選択して取得する。更に、学習用画像読み込み部201は、前記断層画像集合上の対象臓器の領域情報を示すy枚ラベル画像を取得する。xは1以上の整数であり、yは1以上、x以下の整数である。
(Step S502):
In step S502, the learning
(ステップS503〜ステップS504):
機械学習部202は、前記x枚の断層画像集合を入力画像、y枚のラベル画像を教師画像として、領域抽出するための機械学習を実施する。
(Steps S503 to S504):
The
(ステップS505〜ステップS506):
機械学習部202は、ユーザが指定したルールまたは繰り返し数を参照し、学習が未終了の場合、ステップS501に戻り、繰り返し機械学習を実施する。学習が終了した場合は、学習済みルール格納部203に学習済みルールを出力する。
(Steps S505 to S506):
The
(ステップS507):
ステップS507において、予測用画像読み込み部204は、3Dボリューム画像用記憶装置100に格納された、予測用画像群から、ユーザが指定した1つの3Dボリューム画像または第1の実施形態における画像処理装置1の予測演算出力部によって補間出力された3Dボリューム画像を、予測用3Dボリューム画像として取得し読み込む。
(Step S507):
In step S507, the prediction
(ステップS508):
ステップS508において、予測用画像読み込み部204は、前記予測用3Dボリューム画像を構成する断層画像群をx枚ずつの複数の断層画像サブ集合に分割し、順に予測演算出力部206に与える。
(Step S508):
In step S508, the prediction
(ステップS509):
ステップS509において、学習済みルール読み込み部205は学習済みルール格納部203で格納された学習済みルールを取得し、予測演算出力部206に与える。
(Step S509):
In step S <b> 509, the learned
(ステップS510〜S512):
予測演算出力部206は、供与されたx枚の断層画像に対し、学習済みルールに基づき領域抽出演算を実施する。未処理の断層画像サブ集合が残っている場合、ステップS508に戻り、追加で領域抽出演算を実施する。すべての断層画像サブ集合に対する領域抽出演算が終了すると、新たに生成した領域ラベル画像を併合し、3Dラベル画像として出力する。
(Steps S510 to S512):
The prediction
図6に、臓器の領域情報付きの3Dボリューム画像として、DICOM−RT形式画像の一断層画像例を示す。DICOM−RT画像ではCTやMRIの各断層画像601に、各臓器の領域情報602が付加されている。このような臓器の領域情報付きの3Dボリューム画像に対し、画像処理装置2を用いれば、CT断層画像を入力データとし、領域情報を教師データとして、領域抽出ルールの機械学習を実施可能である。また、図7に、一例として、1つの3Dボリュームの連続する断層画像のサブ集合701に対し、画像処理装置2によって右肺部分の領域を機械学習したルールに基づき断層画像ごとに領域702を抽出した結果、出力された3Dラベル画像から再構成された右肺の表面3D画像703を示す。
FIG. 6 shows an example of one tomographic image of a DICOM-RT format image as a 3D volume image with organ region information. In the DICOM-RT image, region information 602 of each organ is added to each
以上のように、本実施例によれば、対象とする抽出臓器の輪郭が断層画像の一部として表示できるように構成した場合、機械学習を用いて容易に区別され精度高く臓器の抽出が実施できる。 As described above, according to the present embodiment, when the contour of the target extracted organ can be displayed as a part of the tomographic image, the organ can be extracted easily and accurately by using machine learning. it can.
また、これまで手書きにより輪郭を描くことにより抽出してきた臓器画像の輪郭を、学習モデル画像として、再利用できることはもちろんであり、すでに臓器画像として蓄積された断層画像を機械学習に用いることで、精度よく臓器抽出が実施できる。 In addition, the contour of the organ image that has been extracted by drawing the contour by handwriting can be reused as a learning model image, as a matter of course, and by using a tomographic image already accumulated as an organ image for machine learning, Organ extraction can be performed accurately.
次に図8を用いて第4および第5の本発明実施形態について説明する。第4および第5の実施形態において、画像処理装置1または画像処理装置2の学習用画像読み込み部101、201は、学習実施の度に3Dボリューム画像801を選択し、当該画像を構成する部分集合画像802を学習データとして読み込むが、これを十分に多くの回数分繰り返し前記3Dボリューム画像701からランダムに取得し、機械学習部102,202に供与することで、3Dボリューム画像内の任意な部分集合に対して予測演算が可能なルールを構築できる。
Next, the fourth and fifth embodiments of the present invention will be described with reference to FIG. In the fourth and fifth embodiments, the learning
近年よく用いられる深層学習等の技術において、一度に処理する画像数に比例して、学習時および予測時に必要となるハードウェアリソースが増加するため、3Dボリューム画像を一度に機械学習で処理するための実施環境が限られる。 In techniques such as deep learning that are often used in recent years, the hardware resources required for learning and prediction increase in proportion to the number of images to be processed at once, so that 3D volume images are processed by machine learning at once. Implementation environment is limited.
本実施例によれば、任意の部分集合画像に対して繰り返し機械学習を実施することにより、従来よりも限定的なリソースを用いた場合でも、断層画像間の情報の連続性を失わせることなく、3Dボリューム画像全体に対する高精度な機械学習および予測演算を実施できる。 According to the present embodiment, the machine learning is repeatedly performed on an arbitrary subset image, so that the continuity of information between tomographic images is not lost even when a resource more limited than the conventional one is used. Highly accurate machine learning and prediction calculation can be performed on the entire 3D volume image.
次に第6の実施形態について説明する。 Next, a sixth embodiment will be described.
3Dボリューム画像の大部分においては、各ピクセルが2バイト以上で構成されることが多いが、実際に記録される画像は画素値の取りうる全範囲に渡って分布しているわけではない。例えば、各ピクセルが2バイトで構成されるCT画像では各画素値の取りうる全範囲は−32768乃至32767であるが、実際に撮像される臓器や骨等のCT値は−500乃至500程度である。また、肝臓や腎臓等の特定臓器に限定すると、対象臓器が取りうるCT値の範囲は更に狭まる。 In most of the 3D volume image, each pixel is composed of 2 bytes or more, but the image actually recorded is not distributed over the entire range of pixel values. For example, in a CT image in which each pixel is composed of 2 bytes, the total range of each pixel value is -32768 to 32767, but the CT value of an organ or bone actually imaged is about -500 to 500. is there. Further, when limited to specific organs such as the liver and kidneys, the range of CT values that can be taken by the target organ is further narrowed.
深層学習等の機械学習は画像内のピクセル間の輝度値の差を元に特徴量抽出を行うアルゴリズムになっているため、不要な画素域を除外した画像に変換し、解析に用いたほうが精度向上する場合が多い。 Machine learning such as deep learning is an algorithm that extracts the feature amount based on the difference in brightness value between pixels in the image, so it is better to convert it to an image that excludes unnecessary pixel areas and use it for analysis. Often improves.
そこで、本実施形態において、画像処理装置1の機械学習部102および予測演算出力部は106,画像処理装置2の機械学習部202および予測演算出力部206は、供与された断層画像の種別や抽出対象臓器に応じて、画素値範囲を限定し、画素値を正規化した上で機械学習及び予測演算に用いることで、補間演算および領域抽出の精度を向上させることができる。
Therefore, in the present embodiment, the
図9に、一例として、正規化前の断層画像(a)と肝臓の画素値の存在範囲に近い−150乃至150程度に画素値範囲を限定して正規化を実施した断層画像(b)を示す。正規化を実施したことで、肝臓領域の輪郭が際立つことから、抽出精度が向上したことが推定される。 As an example, FIG. 9 shows a tomographic image (a) before normalization and a tomographic image (b) that is normalized by limiting the pixel value range to about −150 to 150, which is close to the existence range of the pixel value of the liver. Show. Since the contour of the liver region is outstanding due to the normalization, it is estimated that the extraction accuracy is improved.
次に図10を用いて第7の実施形態について説明する。 Next, a seventh embodiment will be described with reference to FIG.
第2の実施形態における、学習用画像読み込み部201は、3Dボリューム画像から、任意の連続する断層画像集合、および対象臓器の領域情報を示すラベル画像を読み込み、学習用画像として機械学習部202に供与する。
In the second embodiment, the learning
体積の小さい臓器の場合、3Dボリューム画像内の僅かな断層画像にのみ臓器領域が存在するため、一様分布に従って任意の連続する断層画像を取得することは、学習精度に影響しない断層を取得することが多く、学習効率の低下に繋がる。 In the case of an organ having a small volume, since the organ region exists only in a few tomographic images in the 3D volume image, acquiring any continuous tomographic image according to the uniform distribution acquires a tomographic image that does not affect the learning accuracy. This often leads to a reduction in learning efficiency.
そこで、本実施形態において、図10に示すように、学習用画像読み込み部201は3Dボリューム画像内における抽出対象臓器1001の体積の存在範囲を事前に算出しておき、繰り返し学習画像として取得する際に、抽出対象臓器を含む断層画像部1002から任意の確率で断層画像集合を選択するように制御を行うことで、短時間で効率の良い機械学習の実施を実現できる。なお、任意の確率はユーザによる指定確率でも良いし、正規分布等に従って自動決定しても良い。
Therefore, in the present embodiment, as shown in FIG. 10, when the learning
次に、第8の実施形態について説明する。機械学習において、学習精度および判定性能の向上には、より多くの学習データを用いることが不可欠である。学習データ数が限定されている場合、元の学習データに対しコントラスト変換や伸縮変形等の手段を用いて、学習データを拡張することが行われている。3Dボリューム画像に対しても、同様な手法を応用することが可能であるが、不自然な臓器変形を行うことは学習精度の低下を招く。 Next, an eighth embodiment will be described. In machine learning, it is indispensable to use more learning data in order to improve learning accuracy and judgment performance. When the number of learning data is limited, the learning data is expanded by using means such as contrast conversion and expansion / contraction deformation with respect to the original learning data. Although a similar method can be applied to a 3D volume image, unnatural organ deformation leads to a reduction in learning accuracy.
そこで、本実施形態において、第1の実施形態または第2の実施形態における学習用画像読み込み部101、201は、図11に示すように、3Dボリュームの元画像1101から、3Dボリュームの参照画像1102へ3次元形状位置合わせ技術を実施し、3Dボリュームの元画像1101から軟体変形して生成された新たな3Dボリュームの変形画像1103を学習画像群に加えることで、合理的な臓器変形を維持しながら品質の良い学習データとして拡張し、機械学習の精度向上を実現することが可能となる。
Therefore, in the present embodiment, the learning
次に、第9の実施形態について説明する。機械学習において、同等性能のモデルを複数学習し、これらの予測結果を線形結合することで、判定精度を向上させる技術が知られており、本技術はアンサンブル処理技術と呼ばれている。本実施形態においては、前記アンサンブル処理技術を応用し、画像処理装置1または画像処理装置2の予測画像読み込み部104または204は、3Dボリューム画像の断面軸をX、Y、Zの3方向としてしたとき、各軸における断層画像集合をそれぞれの予測演算出力部106または206の入力とし、得られた各断層方向における予測結果を線形結合することで、最終予測結果の精度を向上させることができる。
Next, a ninth embodiment will be described. In machine learning, a technique is known in which a plurality of models having equivalent performance are learned and the prediction results are linearly combined to improve the determination accuracy. This technique is called an ensemble processing technique. In the present embodiment, by applying the ensemble processing technique, the prediction
図12に、一例として、1つの3Dボリューム画像に対し、画像処理装置2の予測画像読み込み部204は、3Dボリューム画像のX、Y、Z各軸の断層画像1201を予測演算部206の入力として与え、得られた各軸における領域抽出結果1202を線形結合することで、最終予測結果1203として出力することで、領域抽出精度の向上を実現することを可能とする。
In FIG. 12, as an example, for one 3D volume image, the prediction
次に、第10の実施形態について説明する。本実施形態は前記アンサンブル技術を応用し、画像処理装置2の予測画像読み込み部204は、X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、複数の画素値範囲において断層画像の画素値を第6の実施形態による画素値の正規化手法を適用し、得られた複数の予測結果を線形結合することで、最終予測結果の精度を向上させる。
Next, a tenth embodiment will be described. In the present embodiment, the ensemble technique is applied, and the predictive
図13に、一例として、読み込まれたCT断層画像群の元画像1301に対し、−1000乃至1000、−400乃至400、−100乃至100の3種類の画素値範囲の正規化処理をして得られた正規化済み断層画像群1302を、それぞれ予測演算部206の入力として供与し、得られた各画素値範囲における領域抽出結果1303を線形結合することで、最終予測結果1304として出力することで、領域抽出精度の向上を実現する。
In FIG. 13, as an example, the original image 1301 of the read CT tomographic image group is obtained by normalizing the three types of pixel value ranges of −1000 to 1000, −400 to 400, and −100 to 100. The normalized normalized tomographic image group 1302 is supplied as an input to the
また、前記複数の画素値範囲はユーザが指定しても良いし、対象臓器の分布に応じて自動で決定しても良い。 The plurality of pixel value ranges may be designated by the user or may be automatically determined according to the distribution of the target organ.
次に図14を用いて第11の実施形態について説明する。画像処理装置1または画像処理装置2の学習用画像読み込み部101または201は、学習実施の度に3Dボリューム画像を読み込み、当該画像を構成する部分集合画像を学習データとして選択するが、3Dボリューム画像のサイズが大きい場合、機械学習部に学習データを供与するまでに必要となる時間が多く、学習時間の遅延や学習効率の低下を招いていた。
Next, an eleventh embodiment will be described with reference to FIG. The learning
そこで、本実施形態では、図14に示すように、学習用3Dボリューム画像群から、3Dボリューム画像1401を読み込む処理1402と、3Dボリューム画像から任意の断層画像の部分集合1403を学習用画像として選択する処理1404と、を非同期で実施することで、機械学習部に対し遅延せずに学習データを供与し、効率的な学習実施ができる。
Therefore, in the present embodiment, as shown in FIG. 14, a
汎用的な機械学習用ソフトウェアは機械学習に利用しやすい反面、学習済みルールは共通的な形式で保存されるため、前記学習済みルールは制作者に無断で二次利用されやすい。 General-purpose machine learning software is easy to use for machine learning, but since learned rules are stored in a common format, the learned rules are easily secondarily used without permission of the creator.
そこで、本実施例では、図15に示すように、機械学習を実施する際に、繰り返し学習用画像を読み込むにあたり、学習用入力画像群1501および学習用教師画像群1502に対し、特定の入力画像と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせ1503を任意の確率で機械学習部に与える。そして学習済みルールに前記組み合わせを学習し、前記入力に対する出力を固定することにより、学習済みルールを特徴付けて識別できるように構成できるため、得られた画像から利用したことが判断でき、無断な二次利用に対する抑止力となる。なお、前記組み合わせ1503は前記入力画像群1501および教師画像群1502と無関連な画像であっても良い。なお、前記任意の確率はユーザによる指定確率でも良いし、正規分布等に従って自動決定しても良い。例えば、入力画像群1501と教師画像群1502を機械学習部に与える回数と、前記組み合わせ1503を機械学習部に与える回数を100:1という確率に指定しても、これを多数回繰り返すことで機械学習部は組み合わせ1503における入力画像に対して、必ず組み合わせ1503における教師用特徴画像を出力するように学習する。また、本実施例は特定の組み合わせを画像として説明しているが、入力および教師用特徴はそれぞれ数値の羅列であるベクトル形式であっても良い。 Therefore, in the present embodiment, as shown in FIG. 15, when machine learning is carried out, when a learning image is read, a specific input image is input to learning input image group 1501 and learning teacher image group 1502. And a specific teacher feature image or a teacher feature vector combination 1503 is given to the machine learning unit at an arbitrary probability. Then, by learning the combination in the learned rule and fixing the output for the input, the learned rule can be characterized and identified, so that it can be determined from the obtained image that it has been used, It becomes a deterrent to secondary use. The combination 1503 may be an image unrelated to the input image group 1501 and the teacher image group 1502. The arbitrary probability may be a probability designated by the user or may be automatically determined according to a normal distribution or the like. For example, even if the number of times the input image group 1501 and the teacher image group 1502 are given to the machine learning unit and the number of times the combination 1503 is given to the machine learning unit are specified to have a probability of 100: 1, by repeating this many times, The learning unit always learns the input image in the combination 1503 so as to output the teacher feature image in the combination 1503. Further, although the present embodiment describes a specific combination as an image, the input and teacher features may be in vector format, which is a list of numerical values.
また、上記実施形態で説明した画像処理装置、画像処理方法において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。 Further, in the image processing apparatus and the image processing method described in the above embodiments, each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or all of the blocks. May be.
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(FieldProgrammableGateArray)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。 Also, the method of circuit integration is not limited to LSI, and it may be realized by a dedicated circuit or a general-purpose processor. A programmable FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connection and setting of circuit cells inside the LSI may be used.
また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Further, a part or all of the processing of each functional block of each of the above embodiments may be realized by a program. Then, a part or all of the processing of each functional block of each of the above-described embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above-described embodiments may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.
例えば、上記実施形態(変形例を含む)の各機能部を、ソフトウェアにより実現する場合、図16に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when each functional unit of the above-described embodiment (including modified examples) is implemented by software, the hardware configuration shown in FIG. 16 (for example, CPU, ROM, RAM, input unit, output unit, etc., is implemented by a bus Bus). Each functional unit may be realized by software processing using the connected hardware configuration).
また、上記実施形態の各機能部をソフトウェアにより実現する場合、当該ソフトウェアは、図16に示したハードウェア構成を有する単独のコンピュータを用いて実現されるものであってもよいし、複数のコンピュータを用いて分散処理により実現されるものであってもよい。 When each functional unit of the above-described embodiment is realized by software, the software may be realized by using a single computer having the hardware configuration shown in FIG. 16, or may be realized by a plurality of computers. It may be realized by distributed processing using.
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Further, the execution order of the processing methods in the above embodiments is not necessarily limited to the description of the above embodiments, and the execution order can be changed without departing from the gist of the invention.
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、Blue-ray、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a large capacity DVD, a Blue-ray, and a semiconductor memory. ..
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to the one recorded in the recording medium, but may be transmitted via an electric communication line, a wireless or wired communication line, a network typified by the Internet, or the like.
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。 The specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the spirit of the invention.
100 3Dボリューム画像用記憶装置
101、201 学習用画像読み込み部
102、202 機械学習部
103、203 学習済みルール格納部
104、204 予測用画像読み込み部
105、205 学習済みルール読み込み部
106、206 予測演算出力部
100 3D volume
Claims (12)
3Dボリューム画像から、連続するm枚(mは3以上の整数)の断層画像集合を読み込む学習用画像読み込み部と、
前記連続する断層画像から任意の(m-n)枚(nは1以上、(m-2)以下の整数)を学習用入力データとし、残りのn枚を教師データとする画像補間の機械学習を行う機械学習部と、
学習した結果であるルールを格納する学習済みルール格納部と、
連続する(m-n)枚の予測用断層画像を読み込む予測用画像読み込み部と、
前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、
前記(m-n)枚の予測用断層画像および学習済みルールに基づき、n枚の断層画像を新たに生成し出力する予測演算出力部とを備える画像処理装置。 An interpolation device for generating an interpolation image between a plurality of tomographic images by machine learning,
From the 3D volume image, a learning image reading unit that reads continuous m tomographic image sets (m is an integer of 3 or more),
From any of the continuous tomographic images, arbitrary (mn) sheets (n is an integer of 1 or more and (m-2) or less) is used as learning input data, and the remaining n sheets are used as teacher data for machine learning of image interpolation. Machine learning department,
A learned rule storage unit that stores rules that are the results of learning,
A prediction image reading unit that reads continuous (mn) prediction tomographic images,
A learned rule reading unit that calls a learned rule from the learned rule storage unit;
An image processing apparatus comprising: a prediction calculation output unit that newly generates and outputs n tomographic images based on the (mn) prediction tomographic images and learned rules.
対象臓器の領域情報付き3Dボリューム画像から、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込む学習用画像読み込み部と、
前記断層画像を学習用入力データとし、前記ラベル画像を教師データとする領域抽出の機械学習を行う機械学習部と、
学習した結果であるルールを格納する学習済みルール格納部と、
x枚の予測用断層画像を読み込む予測用画像読み込み部と、
前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、
前記x枚の予測用断層画像および学習済みルールに基づき、臓器領域を示すy枚のラベル画像を新たに生成し出力する予測演算出力部とを備える画像処理装置。 A region extraction device for automatically extracting an organ region between single or multiple tomographic images by machine learning,
Learning to read x (where x is an integer of 1 or more) learning tomographic images and y (where y is an integer of x or less) label images showing the region information of the target organ from the 3D volume image of the target organ Image reading section,
A machine learning unit that performs machine learning for area extraction using the tomographic image as learning input data and the label image as teacher data,
A learned rule storage unit that stores rules that are learning results,
A prediction image reading unit that reads x prediction tomographic images,
A learned rule reading unit that calls a learned rule from the learned rule storage unit;
An image processing apparatus comprising: a prediction calculation output unit that newly generates and outputs y label images indicating an organ region based on the x prediction tomographic images and the learned rule.
請求項1記載の画像処理装置を用いて3Dボリューム画像Aを補間処理して新たに生成した3Dボリューム画像Bから、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込むことを特徴とする、
請求項2記載の画像処理装置。 The learning image reading unit according to claim 2,
From the 3D volume image B newly generated by interpolating the 3D volume image A using the image processing apparatus according to claim 1, x (x is an integer of 1 or more) learning tomographic images and y (y Is an integer less than or equal to x), which reads the label image indicating the region information of the target organ,
The image processing apparatus according to claim 2.
3Dボリューム画像を構成する断層画像群から任意のm枚の連続する断層画像集合を繰り返し学習用画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。 The learning image reading unit according to claim 1,
It is characterized in that a set of arbitrary m continuous tomographic images is repeatedly read as an image for learning from a group of tomographic images forming a 3D volume image,
The image processing apparatus according to claim 1.
3Dボリューム画像を構成する断層画像群から任意のx枚の断層画像集合と、
それに対応するy枚のラベル画像集合を繰り返し学習用画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。 The learning image reading unit according to claim 2,
An arbitrary x number of tomographic image sets from a tomographic image group that constitutes a 3D volume image,
It is characterized by reading a set of y label images corresponding to it as an image for repeated learning,
The image processing apparatus according to claim 1.
学習用または予測用断層画像を読み込むにあたり、
X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、コントラストと濃度を正規化し、
請求項1または請求項2記載の機械学習部および予測演算出力部の入力とすることを特徴とする画像処理方法。 The learning image reading unit and the prediction layer image reading unit according to claim 1 or 2,
When reading a tomographic image for learning or prediction,
Normalize contrast and density according to the image type such as X-ray CT and MRI and the pixel value distribution of organs,
An image processing method, comprising: inputting to the machine learning unit and the prediction calculation output unit according to claim 1.
3Dボリューム画像内における抽出対象臓器の体積の範囲を事前に算出し、抽出対象臓器を含む断層画像を任意の確率で繰り返し学習画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。 The learning image reading unit according to claim 2,
The volume range of the extraction target organ in the 3D volume image is calculated in advance, and the tomographic image including the extraction target organ is repeatedly read as a learning image with an arbitrary probability,
The image processing apparatus according to claim 1.
3Dボリューム画像Aから、3Dボリューム画像Bへ形状位置合わせ技術を実施し、前記画像Aを3次元変形することで学習パターンを拡張した上で、
請求項1または請求項2記載の機械学習部の入力とすることを特徴とする画像処理方法。 The learning image reading unit according to claim 1 or 2,
From 3D volume image A, 3D volume image B is subjected to shape registration technology, and after expanding the learning pattern by three-dimensionally deforming the image A,
An image processing method, wherein the machine learning unit according to claim 1 or 2 inputs the image.
請求項1または請求項2記載の予測画像読み込み部は、
各軸における断層画像集合をそれぞれ請求項2記載の予測演算出力部の入力とし、
出力された各方向における予測結果を線形結合し、
最終出力とすることを特徴とする画像処理装置。 When the cross-sectional axis of the 3D volume image is the three directions of X, Y, Z,
The predictive image reading unit according to claim 1 or 2,
A tomographic image set on each axis is input to the prediction calculation output unit according to claim 2,
Linearly combine the output prediction results in each direction,
An image processing device which is characterized in that the final output is performed.
X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、
複数の画素値範囲において断層画像の画素値を正規化した上で、
それぞれ請求項2記載の予測演算出力部の入力とし、
出力された各画素値範囲における予測結果を線形結合し、
最終出力とすることを特徴とする画像処理装置。 The predictive image reading unit according to claim 2,
Depending on the image type such as X-ray CT or MRI and the pixel value distribution of the organ,
After normalizing the pixel values of the tomographic image in multiple pixel value ranges,
Each of them is used as an input of the prediction calculation output unit according to claim 2,
Linearly combine the prediction results in each output pixel value range,
An image processing device which is characterized in that the final output is performed.
繰り返し学習用画像を読み込むにあたり、
学習用3Dボリューム画像群から、3Dボリューム画像A全体を読み込む処理と、
3Dボリューム画像Aから任意の断層画像の部分集合を選択して、学習用画像として読み込み処理と、を非同期で実施することを特徴とする画像処理方法。 The learning image reading unit according to claim 1 or 2,
When loading the image for repeated learning,
Processing to read the entire 3D volume image A from the 3D volume image group for learning,
An image processing method characterized in that an arbitrary subset of tomographic images is selected from the 3D volume image A and the reading process as a learning image is performed asynchronously.
繰り返し学習用画像を読み込むにあたり、
特定の入力画像、と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせを任意の確率で与えることで、
学習済みルールに従い、前記組み合わせを固定することにより、
学習済みルールを特徴付けて識別可能であることを特徴とする画像処理方法。 A feature extraction device for extracting features of an image by machine learning,
When loading the image for repeated learning,
By giving a combination of a specific input image and a specific teacher feature image or teacher feature vector with an arbitrary probability,
By fixing the combination according to the learned rule,
An image processing method characterized in that learned rules can be characterized and identified.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211847A JP2020075063A (en) | 2018-11-09 | 2018-11-09 | Image interpolation/organ extraction device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211847A JP2020075063A (en) | 2018-11-09 | 2018-11-09 | Image interpolation/organ extraction device and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020075063A true JP2020075063A (en) | 2020-05-21 |
Family
ID=70723070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018211847A Pending JP2020075063A (en) | 2018-11-09 | 2018-11-09 | Image interpolation/organ extraction device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020075063A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743543A (en) * | 2021-11-05 | 2021-12-03 | 武汉大学 | Image classification training method and device, server and storage medium |
KR20230076920A (en) * | 2021-11-22 | 2023-06-01 | 서울대학교산학협력단 | Method for training post-processing device for denoising an MRI image and computing device for the same |
-
2018
- 2018-11-09 JP JP2018211847A patent/JP2020075063A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743543A (en) * | 2021-11-05 | 2021-12-03 | 武汉大学 | Image classification training method and device, server and storage medium |
KR20230076920A (en) * | 2021-11-22 | 2023-06-01 | 서울대학교산학협력단 | Method for training post-processing device for denoising an MRI image and computing device for the same |
KR102683611B1 (en) * | 2021-11-22 | 2024-07-10 | 서울대학교 산학협력단 | Method for training post-processing device for denoising an MRI image and computing device for the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pahr et al. | From high-resolution CT data to finite element models: development of an integrated modular framework | |
US20180225847A1 (en) | Systems and methods for data and model-driven image reconstruction and enhancement | |
JP4785371B2 (en) | Multidimensional structure extraction method and system using dynamic constraints | |
CN111833251B (en) | Super-resolution reconstruction method and device for three-dimensional medical image | |
JP2014171889A (en) | Image segmentation apparatus, medical image diagnostic apparatus and image segmentation method | |
JP2018151747A (en) | Super-resolution processing apparatus, super-resolution processing method and computer program | |
EP1775685A1 (en) | Information processing device and program | |
WO2020054503A1 (en) | Machine learning device, inference device, program, and learned model | |
Bardera et al. | Image segmentation using excess entropy | |
Kläser et al. | Deep boosted regression for MR to CT synthesis | |
KR102098929B1 (en) | Methods and apparatuses for surface registration of surgical navigation | |
JP6762305B2 (en) | Finite element modeling of anatomical structures | |
JP2020075063A (en) | Image interpolation/organ extraction device and program thereof | |
Nowinski et al. | A 3D model of human cerebrovasculature derived from 3T magnetic resonance angiography | |
Gaweł et al. | Automatic spine tissue segmentation from MRI data based on cascade of boosted classifiers and active appearance model | |
CN113129418A (en) | Target surface reconstruction method, device, equipment and medium based on three-dimensional image | |
JPH021082A (en) | Apparatus and method for generating definition of three-dimensional surface | |
Jin et al. | High-resolution cranial implant prediction via patch-wise training | |
WO2022163402A1 (en) | Learned model generation method, machine learning system, program, and medical image processing device | |
WO2022163513A1 (en) | Learned model generation method, machine learning system, program, and medical image processing device | |
JP6571784B2 (en) | Structure estimation device, structure estimation method, and program | |
JPWO2018043594A1 (en) | Image processing apparatus, image processing method, image processing program, image processing system | |
Ansorge et al. | Exceptionally fast non-linear 3D image registration using GPUs | |
CN115457548B (en) | High-resolution density map registration method in refrigeration electron microscope | |
JP6945379B2 (en) | Image processing device, magnetic resonance imaging device and image processing program |