JP2020075063A - Image interpolation/organ extraction device and program thereof - Google Patents

Image interpolation/organ extraction device and program thereof Download PDF

Info

Publication number
JP2020075063A
JP2020075063A JP2018211847A JP2018211847A JP2020075063A JP 2020075063 A JP2020075063 A JP 2020075063A JP 2018211847 A JP2018211847 A JP 2018211847A JP 2018211847 A JP2018211847 A JP 2018211847A JP 2020075063 A JP2020075063 A JP 2020075063A
Authority
JP
Japan
Prior art keywords
image
learning
tomographic
prediction
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018211847A
Other languages
Japanese (ja)
Inventor
勁峰 今西
Keiho Imanishi
勁峰 今西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
E Growth Co Ltd
E-Growth Co Ltd
Original Assignee
E Growth Co Ltd
E-Growth Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E Growth Co Ltd, E-Growth Co Ltd filed Critical E Growth Co Ltd
Priority to JP2018211847A priority Critical patent/JP2020075063A/en
Publication of JP2020075063A publication Critical patent/JP2020075063A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

To provide a device and a program capable of interpolating a medical tomographic image with high accuracy and performing high-precision contour extraction with a convolution computing device for deep learning to automatically extract a 3D area of an organ specified in a medical image.SOLUTION: When interpolating an intermediate tomographic image from consecutive medical image tomographic images, input pixels are normalized, a deep learning model is configured, and a loss function is selected, and interpolation effect is improved. Especially, when a 3D area is automatically extracted, the interpolation is performed in advance, thereby displaying the volume and contour of the organ that is the extracted target area with high accuracy.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習を用い3次元医用ボリューム画像より指定した領域を自動的に補間・抽出する医用画像3D領域自動補間・抽出方法とそのプログラムに関する。 The present invention relates to a medical image 3D area automatic interpolation / extraction method and program for automatically interpolating / extracting a specified area from a three-dimensional medical volume image using machine learning.

近年、適切な放射線治療を行うために、X線CT画像やMRI画像上で臓器領域を詳細に定義した上で、腫瘍に対する放射線量を正確に照射する装置が活用されている。従来の放射線照射支援装置は、例えば、X線CT画像やMRI画像(核磁気共鳴画像)撮像装置、によって撮影された画像の断層画像情報を蓄積する断層画像情報取得部と、断層画像情報取得部に接続されたメモリと、メモリに接続された断層画像・3Dボリューム画像演算表示部と、演算表示部演算結果を表示するディスプレイと、ディスプレイに表示された表示対象物に対して臓器領域を定義し放射線治療計画のシミュレーションを行う入力部とを備えていた。なお3Dボリューム画像は、CTなどの診断装置により得られる断層画像の集合である3次元画像を意味する。 In recent years, in order to perform appropriate radiation treatment, an apparatus that precisely irradiates a tumor with a radiation dose after defining an organ region in detail on an X-ray CT image or an MRI image has been utilized. A conventional radiation irradiation support apparatus includes, for example, a tomographic image information acquisition unit that accumulates tomographic image information of an image captured by an X-ray CT image or an MRI image (nuclear magnetic resonance image) imaging apparatus, and a tomographic image information acquisition unit. The memory connected to the memory, the tomographic image / 3D volume image calculation display section connected to the memory, the calculation display section, the display for displaying the calculation results, and the organ area for the display target displayed on the display are defined. It was equipped with an input unit for simulating a radiation treatment plan. The 3D volume image means a three-dimensional image that is a set of tomographic images obtained by a diagnostic device such as CT.

また、臓器の領域定義を行うために、一般的には各断層画像に対して臓器輪郭をマウスでポインティングして入力する手法が提供されている以外、自動で臓器領域を抽出する技術が用いられている。 In addition, in order to define the area of an organ, generally, a technique of automatically extracting the organ area is used, except for the method of pointing and inputting the contour of the organ on each tomographic image with a mouse. ing.

たとえば特許文献1には、各断層画像から対象臓器輪郭を自動抽出した後、3D再構成することで臓器の3D領域を抽出する方法が開示されている。 For example, Patent Document 1 discloses a method of automatically extracting a target organ contour from each tomographic image and then performing 3D reconstruction to extract a 3D region of the organ.

特開2014ー64835 (平成26年4月17日(2014.4.17)公開)JP-A-2014-64835 (Published April 17, 2014 (April 17, 2014)) 特開2018−117883 (平成30年8月2日(2018.8.2)公開)JP-A-2018-117883 (Published August 2, 2018 (August 2, 2018))

上記従来の臓器画像を抽出する装置においては、CT,MRIなどの画像診断機の出力から生成される断層画像の画素の輝度レベルを撮影された機器ごとに調整していた。その後、処理対象画像の低解像度画像を別途生成し、グラフカット法により低解像度画像から特定領域を抽出し、特定領域の抽出結果に基づいて、処理対象画像における特定領域の輪郭を含む輪郭領域を、処理対象画像に設定する輪郭領域設定手段と、グラフカット法により、輪郭領域から特定領域に対応する領域を抽出する第2の抽出手段とを用い、輪郭を抽出していた。ここで低解像度の画像を用いる理由は、グラフカット法においては、逐次演算で処理対象画像の解像度に依存して処理時間が多くかかるためである。そして最終的に抽出した各断層画像の領域を線形補間することで3D領域を構成していた。しかしながら従来の線形補間方法は、新たに補間生成される断層画像の各ピクセルが元断層画像の隣接ピクセルの範囲を1乃至2程度で参照し補間していたため、疎な断層画像で構成される3Dボリューム画像に対しては臓器曲線を十分に表現できない。さらに前記グラフカット法を含む従来の臓器抽出手法では、断層画像間の各断層に対してそれぞれ領域抽出を実施してから線形結合して3D領域を再構成していたため、断層画像間の連続性情報が領域抽出実施時に利用できないことから、抽出結果を用いて3D再構成される臓器の表面はジャギと呼ばれるギザギザの模様が発生し、精度を高くできなかった。望ましくは高精度の断層画像で構成された3Dボリューム画像に対して、臓器の領域抽出精度も高めたうえ、臓器抽出を実施することである。 In the above-mentioned conventional apparatus for extracting an organ image, the brightness level of the pixel of the tomographic image generated from the output of the image diagnostic apparatus such as CT or MRI is adjusted for each device. After that, a low-resolution image of the processing target image is separately generated, a specific area is extracted from the low-resolution image by the graph cut method, and a contour area including the contour of the specific area in the processing target image is extracted based on the extraction result of the specific area. The contour is extracted by using the contour area setting means for setting the processing target image and the second extracting means for extracting the area corresponding to the specific area from the contour area by the graph cut method. The reason for using the low-resolution image is that the graph cut method requires a long processing time depending on the resolution of the processing target image in the sequential calculation. Then, the 3D area is constructed by linearly interpolating the areas of the finally extracted tomographic images. However, in the conventional linear interpolation method, each pixel of the tomographic image newly generated is interpolated by referring to the range of the adjacent pixels of the original tomographic image by about 1 to 2, so that a 3D image composed of a sparse tomographic image is formed. The organ curve cannot be sufficiently expressed for the volume image. Further, in the conventional organ extraction method including the graph cut method, the 3D regions are reconstructed by linearly combining the regions after performing the region extraction for each tomographic image between the tomographic images. Since the information is not available at the time of area extraction, the surface of the organ that is 3D reconstructed using the extraction result has a jagged pattern called jaggies, and the accuracy cannot be improved. Desirably, the region extraction accuracy of the organ is enhanced and the organ extraction is performed on the 3D volume image composed of high-accuracy tomographic images.

本発明第1の画像処理装置は、連続するm枚(mは3以上の整数)の断層画像集合を読み込む学習用画像読み込み部と、連続する断層画像から任意の(m-n)枚(nは1以上、(m-2)以下の整数)を学習用入力データとし、残りのn枚を教師データとする画像補間の機械学習を行う機械学習部と、学習した結果であるルールを格納する学習済みルール格納部と、連続する(m-n)枚の予測用断層画像を読み込む予測用画像読み込み部と、学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、 (m-n)枚の予測用断層画像および学習済みルールに基づき、n枚の断層画像新たに生成し出力する予測演算出力部とを備える、第1の画像処理装置である。 The first image processing apparatus of the present invention includes a learning image reading unit that reads a continuous m (m is an integer of 3 or more) tomographic image set, and an arbitrary (mn) number (n is 1) from continuous tomographic images. Above, an integer less than or equal to (m-2)) is used as learning input data, and the remaining n sheets are used as teacher data.A machine learning unit that performs machine learning for image interpolation and a learning result that stores rules that are learned A rule storage unit, a prediction image reading unit that reads continuous (mn) prediction tomographic images, a learned rule reading unit that calls a learned rule from the learned rule storage unit, and (mn) prediction images The first image processing apparatus includes a prediction calculation output unit that newly generates and outputs n tomographic images based on the tomographic image and the learned rule.

かかる構成により、深層学習に用いられる畳み込み演算等の機械学習によって補間ルールを学習することで、新たに補間生成される断層画像の各ピクセルは近傍断層画像の一部または全ピクセルを参照して補間を行うため、元の断層画像と前記中間断層画像を含むすべての断層画像で構成されるジャギの少ない高精細な3Dボリューム画像を再構成することができる。 With such a configuration, by learning the interpolation rule by machine learning such as convolution calculation used for deep learning, each pixel of the newly generated tomographic image is interpolated by referring to a part or all pixels of the neighboring tomographic image. Therefore, it is possible to reconstruct a high-definition 3D volume image with less jaggies, which is composed of all the tomographic images including the original tomographic image and the intermediate tomographic image.

本発明第2の画像処理装置は、対象臓器の領域情報付きな3Dボリューム画像から、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込む学習用画像読み込み部と、前記断層画像を学習用入力データとし、前記ラベル画像を教師データとする領域抽出の機械学習を行う機械学習部と、学習した結果であるルールを格納する学習済みルール格納部と、x枚の予測用断層画像を読み込む予測用画像読み込み部と、前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、前記x枚の予測用断層画像および学習済みルールに基づき、臓器領域を示すy枚のラベル画像を新たに生成し出力する予測演算出力部とを備える画像処理装置である。 The second image processing apparatus of the present invention is configured such that x (x is an integer of 1 or more) learning tomographic images and y (y is an integer of x or less) targets from a 3D volume image with region information of a target organ. A learning image reading unit that reads a label image indicating organ region information, a machine learning unit that performs machine learning for region extraction using the tomographic image as learning input data, and the label image as teacher data, and a learning result. A learned rule storage unit that stores rules, a prediction image reading unit that reads x prediction tomographic images, a learned rule reading unit that calls a learned rule from the learned rule storage unit, and the x The image processing apparatus includes a prediction calculation output unit that newly generates and outputs y label images indicating an organ region based on the prediction tomographic images and the learned rule.

かかる構成により、一度に3Dボリューム画像の全体に対する画像補間の機械学習演算を行わなくても、3Dボリューム画像を断層の集合群に分割し、演算リソースを抑制しながらも、逐次予測演算することで、臓器全体の3D領域を抽出することができる。 With such a configuration, it is possible to divide the 3D volume image into a set of tomographic groups without performing the machine learning calculation of the image interpolation for the entire 3D volume image at a time, and perform the sequential prediction calculation while suppressing the calculation resources. , 3D area of the whole organ can be extracted.

また、本発明第3の画像処理装置は、第2の発明に対して、学習用画像読み込み部は、第1の発明の画像処理装置を用いて3Dボリューム画像Aを補間処理して新たに生成した3Dボリューム画像Bから、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込むことを特徴とする、画像処理装置である。 Further, the third image processing apparatus of the present invention is different from the second invention in that the learning image reading unit newly generates the 3D volume image A by interpolation processing using the image processing apparatus of the first invention. From the 3D volume image B, it is characterized by reading x (where x is an integer of 1 or more) learning tomographic images and y (y is an integer of x or less) label images showing the region information of the target organ. , An image processing device.

かかる構成により、本第1の画像処理装置から補間出力される高精細な3Dボリューム画像に対し、本第2の画像処理装置を用いて臓器3D領域抽出を実施することにより、従来手法よりも、体積・輪郭を高精度に表現した臓器形状を抽出可能にすることができる。 With such a configuration, by performing the organ 3D region extraction using the second image processing device on the high-definition 3D volume image interpolated and output from the first image processing device, a It is possible to extract the organ shape that expresses the volume and contour with high accuracy.

また、本発明第4の画像処理装置は、第1の発明に対して、学習用画像読み込み部は、3Dボリューム画像を構成する断層画像群から任意のm枚の連続する断層画像集合を繰り返し学習用画像として読み込むことを特徴とする、画像処理装置である。 Further, in the fourth image processing apparatus of the present invention, the learning image reading unit is different from the first invention in that the learning image reading unit repeatedly learns an arbitrary m continuous tomographic image sets from a tomographic image group forming a 3D volume image. The image processing apparatus is characterized in that it is read as an image for use.

かかる構成により、3Dボリューム画像の断層画像の連続する一部または全部を繰り返し学習データとして取得し機械学習を実施することで、一度に3Dボリューム画像の全体に対する画像補間の機械学習演算を行わなくても、演算リソースを抑制しながらも、断層画像間の連続性情報を参照し、3Dボリューム画像の断層画像の任意の部分集合に対する補間画像を生成できる。 With such a configuration, a continuous part or all of the tomographic image of the 3D volume image is repeatedly acquired as learning data and machine learning is performed, so that the machine learning calculation of the image interpolation for the entire 3D volume image is not performed at one time. Also, it is possible to generate an interpolation image for an arbitrary subset of the 3D volume image tomographic image by referring to the continuity information between the tomographic images while suppressing the calculation resources.

また、本発明第5の画像処理装置は、第2の発明に対して、学習用画像読み込み部は、3Dボリューム画像を構成する断層画像群から任意のx枚の連続する断層画像集合と、それに対応するy枚のラベル画像集合を繰り返し学習用画像として読み込むことを特徴とする、画像処理装置である。 Further, the fifth image processing apparatus of the present invention is different from the second invention in that the learning image reading unit includes an arbitrary x continuous tomographic image sets from a tomographic image group forming a 3D volume image, and The image processing device is characterized in that a corresponding y label image set is repeatedly read as an image for learning.

かかる構成により、3Dボリューム画像の断層画像およびの一部または全部を繰り返し学習データとして取得し機械学習を実施することで、一度に3Dボリューム画像の全体に対する領域抽出の機械学習演算を行わなくても、演算リソースを抑制しながらも、断層画像間の連続性情報を参照し、3Dボリューム画像の断層画像の任意の部分集合に対する領域抽出処理ができる。 With such a configuration, the tomographic image of the 3D volume image and a part or all of the tomographic image are repeatedly acquired as learning data and machine learning is performed, so that it is not necessary to perform the machine learning calculation of the area extraction for the entire 3D volume image at one time. By controlling the continuity information between the tomographic images while suppressing the calculation resources, it is possible to perform the region extraction processing for an arbitrary subset of the tomographic images of the 3D volume image.

また、本発明第6の画像処理方法は、第1または第2の発明に対し、学習用画像読み込み部および予測層画像読み込み部は、学習用または予測用断層画像を読み込むにあたり、断層画像の画素値を加工せず、またはX線CTやMRIなどの画像種別や臓器の画素値分布に応じて、コントラストと濃度を正規化した上で、第1または第2の発明の機械学習部および予測演算出力部の入力とすることを特徴とする画像処理方法である。 The sixth image processing method of the present invention is different from the first or second invention in that the learning image reading unit and the prediction layer image reading unit read pixels of the tomographic image when reading the learning or prediction tomographic image. The values are not processed, or the contrast and density are normalized according to the image type such as X-ray CT or MRI or the pixel value distribution of the organ, and then the machine learning unit and the prediction calculation of the first or second invention. The image processing method is characterized in that the image is input to an output unit.

一般的に医用画像の多くは、ピクセル情報は2バイト以上で構成されているため、そのまま加工せずにニューラルネットワークに入力するには濃淡値のばらつきが大きく、深層学習結果の精度低下につながる。かかる方法により、学習用または予測用断層画像の分布のバラツキを少なくした後、機械学習部または予測演算出力部の入力とすることで、機械学習の演算精度および学習速度の向上に繋がる。 In general, most medical images have pixel information of 2 bytes or more, and therefore, if they are directly input to a neural network without being processed, variations in gray value are large, leading to deterioration in accuracy of deep learning results. By using this method, the variation in the distribution of the tomographic images for learning or prediction is reduced, and then input to the machine learning unit or the prediction calculation output unit, which leads to improvement in calculation accuracy and learning speed of machine learning.

また、本発明第7の画像処理装置は、第2の発明に対し、学習用画像読み込み部は、3Dボリューム画像内における抽出対象臓器の体積の範囲を事前に算出し、抽出対象臓器を含む断層画像を任意の確率で繰り返し学習画像として読み込むことを特徴とする、画像処理装置である。 Further, the seventh image processing apparatus of the present invention is different from the second invention in that the learning image reading unit calculates in advance the volume range of the extraction target organ in the 3D volume image, and the slice including the extraction target organ is calculated. An image processing apparatus characterized in that an image is repeatedly read as a learning image with an arbitrary probability.

かかる構成により、臓器の体積の大小または存在範囲によらず、効率よく学習データを取得でき、機械学習の演算精度および学習速度の向上に繋がる。 With such a configuration, the learning data can be efficiently acquired regardless of the size of the organ or the range of existence of the organ, which leads to improvement in the calculation accuracy and learning speed of machine learning.

また、本発明第8の画像処理方法は、第1の発明または第2の発明に対し、学習用画像読み込み部は、3Dボリューム画像Aから、3Dボリューム画像Bへ形状位置合わせ技術を実施し、前記画像Aを3次元変形することで学習パターンを変更した上で、第1の発明または第2の発明の機械学習部の入力とすることを特徴とする画像処理方法である。 Further, the eighth image processing method of the present invention is different from the first invention or the second invention in that the learning image reading unit performs a shape registration technique from the 3D volume image A to the 3D volume image B, The image processing method is characterized in that the learning pattern is changed by three-dimensionally deforming the image A, and then is input to the machine learning unit of the first invention or the second invention.

かかる方法により、臓器変形の合理性を保ちながら、少数の学習データから多くの品質の良い学習データへ拡張でき、機械学習の演算精度向上に繋がる。 With such a method, it is possible to expand a small number of learning data to a large number of high-quality learning data while maintaining the rationality of organ deformation, which leads to an improvement in calculation accuracy of machine learning.

また、本発明第9の画像処理装置は、3Dボリューム画像の断面軸をX,Y,Zの3方向としたとき、第2の発明に対し、予測画像読み込み部は、各軸における断層画像集合をそれぞれ請求項2記載の予測演算出力部の入力とし、出力された各方向における予測結果を線形結合し、最終出力とすることを特徴とする画像処理装置である。 Further, in the ninth image processing apparatus of the present invention, when the cross-sectional axis of the 3D volume image is set to three directions of X, Y, and Z, the predicted image reading unit is different from the second invention in that the tomographic image set in each axis is set. Are input to the prediction calculation output unit according to claim 2, and the output prediction results in each direction are linearly combined to obtain a final output.

かかる構成により、複数の機械学習ルールによる予測結果による投票形式で最終決定される予測結果は、単一の断層方向による機械学習ルールの不得手を緩和することにより、領域抽出の精度向上に繋がる。 With such a configuration, the prediction result that is finally determined in a voting format based on the prediction results of a plurality of machine learning rules reduces the weakness of the machine learning rule based on a single tomographic direction, which leads to improvement in area extraction accuracy.

また、本発明第10の画像処理装置は、第2の発明に対し、予測画像読み込み部は、X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、複数の画素値範囲において断層画像の画素値を正規化した上で、それぞれ請求項2記載の予測演算出力部の入力とし、出力された各画素値範囲における予測結果を線形結合し、最終出力とすることを特徴とする画像処理装置である。 Further, the tenth image processing device of the present invention is different from the second invention in that the predictive image reading unit has a plurality of pixel value ranges in a plurality of pixel value ranges according to an image type such as X-ray CT and MRI and a pixel value distribution of an organ. The pixel values of the tomographic image are normalized and then input to the prediction calculation output unit according to claim 2, and the prediction results in the respective pixel value ranges that have been output are linearly combined to obtain the final output. It is an image processing device.

かかる構成により、複数の機械学習ルールによる予測結果による投票形式で最終決定される予測結果は、単一の画素値範囲による機械学習ルールの不得手を緩和することにより、輪郭が不明瞭な臓器に対しても領域抽出の精度向上に繋がる。 With such a configuration, the prediction result that is finally decided in a voting format based on the prediction results of a plurality of machine learning rules is an organ with an unclear contour by relaxing the weak points of the machine learning rule based on a single pixel value range. On the other hand, it also leads to an improvement in the accuracy of region extraction.

また、本発明第11の画像処理方法は、第1の発明または第2の発明に対し、学習用画像読み込み部は、繰り返し学習用画像を読み込むにあたり、学習用3Dボリューム画像群から、3Dボリューム画像A全体を読み込む処理と、3Dボリューム画像Aから任意の断層画像の部分集合を学習用画像として読み込み処理と、を非同期で実施することを特徴とする画像処理方法である。 In addition, the eleventh image processing method of the present invention is different from the first or second invention in that the learning image reading unit reads the learning images repeatedly, from the learning 3D volume image group to the 3D volume image. The image processing method is characterized in that the process of reading the entire A and the process of reading a partial set of tomographic images from the 3D volume image A as learning images are performed asynchronously.

かかる構成により、容量の大きな3Dボリューム画像を読み込み時間に関わらず、第1の発明または第2の発明の機械学習部に学習用画像を供給することができ、機械学習の速度低下を抑制することができる。 With this configuration, the learning image can be supplied to the machine learning unit of the first invention or the second invention regardless of the reading time of a large-capacity 3D volume image, and a decrease in the speed of machine learning can be suppressed. You can

また、本発明第12の画像処理方法は、機械学習おいて、繰り返し学習用画像を読み込むにあたり、特定の入力画像と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせを任意の確率で与えることで、学習済みルールに従い、前記組み合わせを固定することにより、学習済みルールを特徴付けて識別可能であることを特徴とする画像処理方法である。 In addition, the twelfth image processing method of the present invention provides a combination of a specific input image and a specific teacher feature image or a teacher feature vector with an arbitrary probability when reading an iterative learning image in machine learning. Thus, the image processing method is characterized in that the learned rule can be characterized and identified by fixing the combination according to the learned rule.

かかる方法により、学習に用いた入力画像を用いることで、学習ルールの識別が行え、学習ルールの流出や無断盗用等を抑止することができる。 With this method, the learning rule can be identified by using the input image used for learning, and it is possible to prevent the learning rule from leaking or being stolen without permission.

本発明による画像処理装置によれば、機械学習したルールを利用した高精度な臓器領域抽出が行える。 According to the image processing device of the present invention, highly accurate organ region extraction can be performed using machine-learned rules.

従来、放射線治療計画データを作成する時に、臓器輪郭を手書きにより作成していたため、多大な時間を要していたが、手書きにて作成した臓器データも含めて、学習モデルとすることにより、学習精度を向上させることが可能となり、高精度の臓器形状を得ることができ、精度の高い治療計画を立案することができる。さらに、臓器領域を容易に抽出可能になれば、手術立案や手術シミュレーション・ナビゲーションなど外科手術領域でも本発明を活用可能である。 Conventionally, when creating radiation treatment plan data, it took a lot of time because the organ contour was created by handwriting, but learning by including the organ data created by handwriting as a learning model The accuracy can be improved, a highly accurate organ shape can be obtained, and a highly accurate treatment plan can be planned. Furthermore, if the organ region can be easily extracted, the present invention can be utilized in the surgical operation region such as surgery planning, surgery simulation and navigation.

第1の実施形態における画像処理装置1のブロック図。3 is a block diagram of the image processing apparatus 1 according to the first embodiment. FIG. 第1の実施形態における画像処理装置1の動作を示すフローチャート。3 is a flowchart showing the operation of the image processing apparatus 1 according to the first embodiment. 第1の実施形態の効果の検証結果を示す図。The figure which shows the verification result of the effect of 1st Embodiment. 第2および第3の実施形態における画像処理装置2のブロック図。The block diagram of the image processing apparatus 2 in 2nd and 3rd embodiment. 第2および第3の実施形態における画像処理装置2の動作を示すフローチャート。9 is a flowchart showing the operation of the image processing device 2 according to the second and third embodiments. 臓器の領域情報付き3Dボリューム画像の断層画像の一例を示す図。The figure which shows an example of the tomographic image of the 3D volume image with area information of an organ. 第2の実施形態の効果の検証結果を示す図。The figure which shows the verification result of the effect of 2nd Embodiment. 第4および第5の実施形態における繰り返し学習データを読み込む方法を説明するための図。The figure for demonstrating the method of reading the repeated learning data in 4th and 5th embodiment. 第6の実施形態の効果を説明するための図。The figure for demonstrating the effect of 6th Embodiment. 第7の実施形態における対象臓器の体積の範囲に応じた学習データ選択の方法を説明するための図。The figure for demonstrating the learning data selection method according to the range of the volume of the target organ in 7th Embodiment. 第8の実施形態における形状位置合わせによる学習データ拡張の方法を説明するための図。The figure for demonstrating the method of learning data expansion by shape alignment in 8th Embodiment. 第9の実施形態における複数断層方向による予測結果に対するアンサンブル処理方法を説明するための図。The figure for demonstrating the ensemble processing method with respect to the prediction result by the multiple tomographic directions in 9th Embodiment. 第10の実施形態における複数画素値の範囲内の予測結果に対するアンサンブル処理方法を説明するための図。The figure for demonstrating the ensemble processing method with respect to the prediction result in the range of a several pixel value in 10th Embodiment. 第11の実施形態における非同期な学習データ供与のための動作を説明するための図。The figure for demonstrating the operation | movement for asynchronous learning data provision in 11th Embodiment. 第12の実施形態における特定の入力画像と教師画像の組み合わせを説明するための図。The figure for demonstrating the combination of the specific input image and teacher image in 12th Embodiment. CPUバス構成を示す図。The figure which shows a CPU bus structure.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態における画像処理装置1のブロック図である。画像処理装置1は、学習用画像読み込み部101、機械学習部102、学習済みルール格納部103、予測用画像読み込み部104、学習済みルール読み込み部105、予測演算出力部106を備える。また、画像処理装置1は、3Dボリューム画像用記憶装置100と接続されている。画像処理装置1と3Dボリューム画像用記憶装置100とは有線・無線等の接続形態は問わない。 FIG. 1 is a block diagram of an image processing apparatus 1 according to this embodiment. The image processing apparatus 1 includes a learning image reading unit 101, a machine learning unit 102, a learned rule storage unit 103, a prediction image reading unit 104, a learned rule reading unit 105, and a prediction calculation output unit 106. The image processing apparatus 1 is also connected to the 3D volume image storage device 100. The image processing device 1 and the 3D volume image storage device 100 may be connected in a wired or wireless manner.

図2は、補間処理の学習および予測出力する場合において、画像処理装置1が実装する処理のフローチャートである。 FIG. 2 is a flowchart of processing implemented by the image processing apparatus 1 when learning interpolation processing and performing prediction output.

(ステップS201):
ステップS201において、学習用画像読み込み部101は、3Dボリューム画像用記憶装置100に格納された、学習用画像群から1つの学習用3Dボリューム画像を任意に取得する。
(Step S201):
In step S201, the learning image reading unit 101 arbitrarily acquires one learning 3D volume image from the learning image group stored in the 3D volume image storage device 100.

(ステップS202):
ステップS202において、学習用画像読み込み部101は前記学習用3Dボリューム画像の連続するm枚の断層画像集合から、断層画像の部分集合(サブ集合と称す)を、任意に選択して取得する。mは3以上の整数である。
(Step S202):
In step S202, the learning image reading unit 101 arbitrarily selects and acquires a subset (referred to as a sub-set) of tomographic images from a set of m continuous tomographic images of the learning 3D volume image. m is an integer of 3 or more.

(ステップS203〜ステップS204):
機械学習部102は、前記m枚の断層画像集合に対し、(m−n)枚の入力画像(入力データ)とn枚の教師画像(教師データ)に分割し、前記入力画像から前記教師画像を補間出力するための機械学習を実施する。
(Step S203 to Step S204):
The machine learning unit 102 divides the m tomographic image sets into (mn) input images (input data) and n teacher images (teacher data), and from the input images, the teacher images. Machine learning for interpolating and outputting is performed.

(ステップS205〜ステップS206):
機械学習部102は、ユーザが指定したルールまたは繰り返し数を参照し、学習が未終了の場合、ステップS201に戻り、繰り返し機械学習を実施する。学習が終了した場合は、学習済みルール格納部103に学習済みルールを出力する。
(Steps S205 to S206):
The machine learning unit 102 refers to the rule or the number of iterations designated by the user, and when the learning is not completed, returns to step S201 and performs the iterative machine learning. When the learning is completed, the learned rule is output to the learned rule storage unit 103.

(ステップS207):
ステップS207において、予測用画像読み込み部104は、3Dボリューム画像用記憶装置100に格納された、予測用画像群から、ユーザが指定した1つの予測用3Dボリューム画像を取得する。
(Step S207):
In step S207, the prediction image reading unit 104 acquires one prediction 3D volume image designated by the user from the prediction image group stored in the 3D volume image storage device 100.

(ステップS208):
ステップS208において、予測用画像読み込み部104は、前記予測用3Dボリューム画像を構成する断層画像群を(m−n)枚ずつの複数の断層画像サブ集合に分割し、順に予測演算出力部106に供与する。
(Step S208):
In step S208, the prediction image reading unit 104 divides the tomographic image group forming the 3D volume image for prediction into a plurality of (m−n) tomographic image sub-sets, and the prediction calculation output unit 106 sequentially. To donate.

(ステップS209):
ステップS209において、学習済みルール読み込み部105は学習済みルール格納部103で格納された学習済みルールを取得し、予測演算出力部106に供与する。
(Step S209):
In step S209, the learned rule reading unit 105 acquires the learned rule stored in the learned rule storage unit 103 and supplies the learned rule to the prediction calculation output unit 106.

(ステップS210〜S212):
予測演算出力部106は、供与された(m−n)枚の断層画像に対し、学習済みルールに基づき画像補間演算を実施する。未処理な断層画像サブ集合が残っている場合、ステップS208に戻り、追加で画像補間演算を実施する。すべての断層画像サブ集合に対する画像補間演算が終了すると、前記予測用3Dボリューム画像の元の断層画像群と補間演算によって新たに生成した断層画像群を併合し、補間済み3Dボリューム画像として出力する。
(Steps S210 to S212):
The prediction calculation output unit 106 performs the image interpolation calculation on the provided (mn) tomographic images based on the learned rule. If an unprocessed tomographic image sub-set remains, the process returns to step S208 to additionally perform image interpolation calculation. When the image interpolation calculation for all the tomographic image sub-sets is completed, the original tomographic image group of the 3D volume image for prediction and the tomographic image group newly generated by the interpolation calculation are merged and output as an interpolated 3D volume image.

図3に、一例として、1つの3Dボリューム画像に対し、従来の線形補間法を実施した後に生成した3D立体画像(a)と、画像処理装置1に対し、(b)で示すようにm=5、n=1と設定して画像補間の機械学習を行った後、前記3Dボリューム画像に対して画像補間を実施した後に生成した3D立体画像(c)の比較画像を示す。従来の線形補間法と比べ、画像処理装置1によって補間出力された画像は不自然なジャギが軽減され、滑らかな表面を生成することができている。 In FIG. 3, as an example, a 3D stereoscopic image (a) generated after the conventional linear interpolation method is performed on one 3D volume image, and m = 5 shows a comparative image of a 3D stereoscopic image (c) generated after performing image interpolation on the 3D volume image after performing machine learning for image interpolation by setting 5, n = 1. Compared with the conventional linear interpolation method, the image interpolated and output by the image processing device 1 has less unnatural jaggies and can generate a smooth surface.

図4は、本実施の形態における画像処理装置2のブロック図である。画像処理装置2は、学習用画像読み込み部201、機械学習部202、学習済みルール格納部203、予測用画像読み込み部204、学習済みルール読み込み部205、予測演算出力部206を備える。また、画像処理装置2は、3Dボリューム画像用記憶装置100、または第1の実施形態における画像処理装置1の予測演算出力部106と接続されている。画像処理装置2と3Dボリューム画像用記憶装置100、または画像処理装置1の予測演算出力部106との有線・無線等の接続形態は問わない。 FIG. 4 is a block diagram of the image processing device 2 according to the present embodiment. The image processing apparatus 2 includes a learning image reading unit 201, a machine learning unit 202, a learned rule storage unit 203, a prediction image reading unit 204, a learned rule reading unit 205, and a prediction calculation output unit 206. Further, the image processing device 2 is connected to the 3D volume image storage device 100 or the prediction calculation output unit 106 of the image processing device 1 in the first embodiment. The connection form of the image processing device 2 and the 3D volume image storage device 100, or the prediction calculation output unit 106 of the image processing device 1 such as wired or wireless connection does not matter.

図5は、臓器の領域抽出の学習および予測出力する場合において、画像処理装置2が実装する処理のフローチャートである。 FIG. 5 is a flowchart of processing implemented by the image processing apparatus 2 when learning and predictive output of region extraction of an organ.

(ステップS501):
ステップS501において、学習用画像読み込み部201は、対象臓器の領域情報付き3Dボリューム画像用記憶装置100に格納された、学習用画像群から1つの学習用3Dボリューム画像を任意に取得する。
(Step S501):
In step S501, the learning image reading unit 201 arbitrarily acquires one learning 3D volume image from the learning image group stored in the region information-added 3D volume image storage device 100 of the target organ.

(ステップS502):
ステップS502において、学習用画像読み込み部201は前記学習用3Dボリューム画像の連続するx枚の断層画像集合を任意の選択して取得する。更に、学習用画像読み込み部201は、前記断層画像集合上の対象臓器の領域情報を示すy枚ラベル画像を取得する。xは1以上の整数であり、yは1以上、x以下の整数である。
(Step S502):
In step S502, the learning image reading unit 201 arbitrarily selects and acquires x continuous tomographic image sets of the learning 3D volume image. Further, the learning image reading unit 201 acquires y label images indicating the region information of the target organ on the tomographic image set. x is an integer of 1 or more, and y is an integer of 1 or more and x or less.

(ステップS503〜ステップS504):
機械学習部202は、前記x枚の断層画像集合を入力画像、y枚のラベル画像を教師画像として、領域抽出するための機械学習を実施する。
(Steps S503 to S504):
The machine learning unit 202 performs machine learning for area extraction using the x tomographic image set as an input image and the y label images as a teacher image.

(ステップS505〜ステップS506):
機械学習部202は、ユーザが指定したルールまたは繰り返し数を参照し、学習が未終了の場合、ステップS501に戻り、繰り返し機械学習を実施する。学習が終了した場合は、学習済みルール格納部203に学習済みルールを出力する。
(Steps S505 to S506):
The machine learning unit 202 refers to the rule or the number of repetitions designated by the user, and when the learning is not completed, returns to step S501 and repeats machine learning. When the learning is completed, the learned rule is output to the learned rule storage unit 203.

(ステップS507):
ステップS507において、予測用画像読み込み部204は、3Dボリューム画像用記憶装置100に格納された、予測用画像群から、ユーザが指定した1つの3Dボリューム画像または第1の実施形態における画像処理装置1の予測演算出力部によって補間出力された3Dボリューム画像を、予測用3Dボリューム画像として取得し読み込む。
(Step S507):
In step S507, the prediction image reading unit 204 selects one 3D volume image specified by the user from the prediction image group stored in the 3D volume image storage device 100 or the image processing device 1 according to the first embodiment. The 3D volume image interpolated and output by the prediction calculation output unit is acquired and read as the 3D volume image for prediction.

(ステップS508):
ステップS508において、予測用画像読み込み部204は、前記予測用3Dボリューム画像を構成する断層画像群をx枚ずつの複数の断層画像サブ集合に分割し、順に予測演算出力部206に与える。
(Step S508):
In step S508, the prediction image reading unit 204 divides the tomographic image group forming the 3D volume image for prediction into a plurality of tomographic image sub-sets of x sheets, and sequentially supplies the sectional images to the prediction calculation output unit 206.

(ステップS509):
ステップS509において、学習済みルール読み込み部205は学習済みルール格納部203で格納された学習済みルールを取得し、予測演算出力部206に与える。
(Step S509):
In step S <b> 509, the learned rule reading unit 205 acquires the learned rule stored in the learned rule storage unit 203 and gives the learned rule to the prediction calculation output unit 206.

(ステップS510〜S512):
予測演算出力部206は、供与されたx枚の断層画像に対し、学習済みルールに基づき領域抽出演算を実施する。未処理の断層画像サブ集合が残っている場合、ステップS508に戻り、追加で領域抽出演算を実施する。すべての断層画像サブ集合に対する領域抽出演算が終了すると、新たに生成した領域ラベル画像を併合し、3Dラベル画像として出力する。
(Steps S510 to S512):
The prediction calculation output unit 206 performs a region extraction calculation on the provided x tomographic images based on the learned rule. When the unprocessed tomographic image sub-set remains, the process returns to step S508 to additionally perform the area extraction calculation. When the area extraction calculation is completed for all the tomographic image sub-sets, the newly generated area label images are merged and output as a 3D label image.

図6に、臓器の領域情報付きの3Dボリューム画像として、DICOM−RT形式画像の一断層画像例を示す。DICOM−RT画像ではCTやMRIの各断層画像601に、各臓器の領域情報602が付加されている。このような臓器の領域情報付きの3Dボリューム画像に対し、画像処理装置2を用いれば、CT断層画像を入力データとし、領域情報を教師データとして、領域抽出ルールの機械学習を実施可能である。また、図7に、一例として、1つの3Dボリュームの連続する断層画像のサブ集合701に対し、画像処理装置2によって右肺部分の領域を機械学習したルールに基づき断層画像ごとに領域702を抽出した結果、出力された3Dラベル画像から再構成された右肺の表面3D画像703を示す。 FIG. 6 shows an example of one tomographic image of a DICOM-RT format image as a 3D volume image with organ region information. In the DICOM-RT image, region information 602 of each organ is added to each tomographic image 601 of CT or MRI. By using the image processing apparatus 2 for such a 3D volume image with region information of an organ, it is possible to perform machine learning of a region extraction rule using CT tomographic images as input data and region information as teacher data. Further, in FIG. 7, as an example, a region 702 is extracted for each tomographic image based on a rule in which the region of the right lung portion is machine-learned by the image processing device 2 for a sub-set 701 of continuous tomographic images of one 3D volume. As a result, a surface 3D image 703 of the right lung reconstructed from the output 3D label image is shown.

以上のように、本実施例によれば、対象とする抽出臓器の輪郭が断層画像の一部として表示できるように構成した場合、機械学習を用いて容易に区別され精度高く臓器の抽出が実施できる。 As described above, according to the present embodiment, when the contour of the target extracted organ can be displayed as a part of the tomographic image, the organ can be extracted easily and accurately by using machine learning. it can.

また、これまで手書きにより輪郭を描くことにより抽出してきた臓器画像の輪郭を、学習モデル画像として、再利用できることはもちろんであり、すでに臓器画像として蓄積された断層画像を機械学習に用いることで、精度よく臓器抽出が実施できる。 In addition, the contour of the organ image that has been extracted by drawing the contour by handwriting can be reused as a learning model image, as a matter of course, and by using a tomographic image already accumulated as an organ image for machine learning, Organ extraction can be performed accurately.

次に図8を用いて第4および第5の本発明実施形態について説明する。第4および第5の実施形態において、画像処理装置1または画像処理装置2の学習用画像読み込み部101、201は、学習実施の度に3Dボリューム画像801を選択し、当該画像を構成する部分集合画像802を学習データとして読み込むが、これを十分に多くの回数分繰り返し前記3Dボリューム画像701からランダムに取得し、機械学習部102,202に供与することで、3Dボリューム画像内の任意な部分集合に対して予測演算が可能なルールを構築できる。 Next, the fourth and fifth embodiments of the present invention will be described with reference to FIG. In the fourth and fifth embodiments, the learning image reading units 101 and 201 of the image processing device 1 or the image processing device 2 select the 3D volume image 801 each time learning is performed, and a subset that configures the image. The image 802 is read as learning data, but this is repeated a sufficiently large number of times to randomly acquire from the 3D volume image 701 and provide it to the machine learning units 102 and 202, so that an arbitrary subset within the 3D volume image is obtained. It is possible to construct a rule for which a predictive calculation can be performed.

近年よく用いられる深層学習等の技術において、一度に処理する画像数に比例して、学習時および予測時に必要となるハードウェアリソースが増加するため、3Dボリューム画像を一度に機械学習で処理するための実施環境が限られる。 In techniques such as deep learning that are often used in recent years, the hardware resources required for learning and prediction increase in proportion to the number of images to be processed at once, so that 3D volume images are processed by machine learning at once. Implementation environment is limited.

本実施例によれば、任意の部分集合画像に対して繰り返し機械学習を実施することにより、従来よりも限定的なリソースを用いた場合でも、断層画像間の情報の連続性を失わせることなく、3Dボリューム画像全体に対する高精度な機械学習および予測演算を実施できる。 According to the present embodiment, the machine learning is repeatedly performed on an arbitrary subset image, so that the continuity of information between tomographic images is not lost even when a resource more limited than the conventional one is used. Highly accurate machine learning and prediction calculation can be performed on the entire 3D volume image.

次に第6の実施形態について説明する。 Next, a sixth embodiment will be described.

3Dボリューム画像の大部分においては、各ピクセルが2バイト以上で構成されることが多いが、実際に記録される画像は画素値の取りうる全範囲に渡って分布しているわけではない。例えば、各ピクセルが2バイトで構成されるCT画像では各画素値の取りうる全範囲は−32768乃至32767であるが、実際に撮像される臓器や骨等のCT値は−500乃至500程度である。また、肝臓や腎臓等の特定臓器に限定すると、対象臓器が取りうるCT値の範囲は更に狭まる。 In most of the 3D volume image, each pixel is composed of 2 bytes or more, but the image actually recorded is not distributed over the entire range of pixel values. For example, in a CT image in which each pixel is composed of 2 bytes, the total range of each pixel value is -32768 to 32767, but the CT value of an organ or bone actually imaged is about -500 to 500. is there. Further, when limited to specific organs such as the liver and kidneys, the range of CT values that can be taken by the target organ is further narrowed.

深層学習等の機械学習は画像内のピクセル間の輝度値の差を元に特徴量抽出を行うアルゴリズムになっているため、不要な画素域を除外した画像に変換し、解析に用いたほうが精度向上する場合が多い。 Machine learning such as deep learning is an algorithm that extracts the feature amount based on the difference in brightness value between pixels in the image, so it is better to convert it to an image that excludes unnecessary pixel areas and use it for analysis. Often improves.

そこで、本実施形態において、画像処理装置1の機械学習部102および予測演算出力部は106,画像処理装置2の機械学習部202および予測演算出力部206は、供与された断層画像の種別や抽出対象臓器に応じて、画素値範囲を限定し、画素値を正規化した上で機械学習及び予測演算に用いることで、補間演算および領域抽出の精度を向上させることができる。 Therefore, in the present embodiment, the machine learning unit 102 and the prediction calculation output unit 106 of the image processing apparatus 1 are 106, and the machine learning unit 202 and the prediction calculation output unit 206 of the image processing apparatus 2 are the type and extraction of the provided tomographic image. The accuracy of interpolation calculation and region extraction can be improved by limiting the pixel value range according to the target organ, normalizing the pixel value, and then using it for machine learning and prediction calculation.

図9に、一例として、正規化前の断層画像(a)と肝臓の画素値の存在範囲に近い−150乃至150程度に画素値範囲を限定して正規化を実施した断層画像(b)を示す。正規化を実施したことで、肝臓領域の輪郭が際立つことから、抽出精度が向上したことが推定される。 As an example, FIG. 9 shows a tomographic image (a) before normalization and a tomographic image (b) that is normalized by limiting the pixel value range to about −150 to 150, which is close to the existence range of the pixel value of the liver. Show. Since the contour of the liver region is outstanding due to the normalization, it is estimated that the extraction accuracy is improved.

次に図10を用いて第7の実施形態について説明する。 Next, a seventh embodiment will be described with reference to FIG.

第2の実施形態における、学習用画像読み込み部201は、3Dボリューム画像から、任意の連続する断層画像集合、および対象臓器の領域情報を示すラベル画像を読み込み、学習用画像として機械学習部202に供与する。 In the second embodiment, the learning image reading unit 201 reads an arbitrary continuous tomographic image set and a label image indicating the region information of the target organ from the 3D volume image, and uses the machine learning unit 202 as a learning image. To donate.

体積の小さい臓器の場合、3Dボリューム画像内の僅かな断層画像にのみ臓器領域が存在するため、一様分布に従って任意の連続する断層画像を取得することは、学習精度に影響しない断層を取得することが多く、学習効率の低下に繋がる。 In the case of an organ having a small volume, since the organ region exists only in a few tomographic images in the 3D volume image, acquiring any continuous tomographic image according to the uniform distribution acquires a tomographic image that does not affect the learning accuracy. This often leads to a reduction in learning efficiency.

そこで、本実施形態において、図10に示すように、学習用画像読み込み部201は3Dボリューム画像内における抽出対象臓器1001の体積の存在範囲を事前に算出しておき、繰り返し学習画像として取得する際に、抽出対象臓器を含む断層画像部1002から任意の確率で断層画像集合を選択するように制御を行うことで、短時間で効率の良い機械学習の実施を実現できる。なお、任意の確率はユーザによる指定確率でも良いし、正規分布等に従って自動決定しても良い。 Therefore, in the present embodiment, as shown in FIG. 10, when the learning image reading unit 201 calculates the existence range of the volume of the extraction target organ 1001 in the 3D volume image in advance and acquires it as a repeated learning image. In addition, by performing control so as to select a tomographic image set with an arbitrary probability from the tomographic image unit 1002 including the extraction target organ, efficient machine learning can be implemented in a short time. The arbitrary probability may be a probability designated by the user or may be automatically determined according to a normal distribution or the like.

次に、第8の実施形態について説明する。機械学習において、学習精度および判定性能の向上には、より多くの学習データを用いることが不可欠である。学習データ数が限定されている場合、元の学習データに対しコントラスト変換や伸縮変形等の手段を用いて、学習データを拡張することが行われている。3Dボリューム画像に対しても、同様な手法を応用することが可能であるが、不自然な臓器変形を行うことは学習精度の低下を招く。 Next, an eighth embodiment will be described. In machine learning, it is indispensable to use more learning data in order to improve learning accuracy and judgment performance. When the number of learning data is limited, the learning data is expanded by using means such as contrast conversion and expansion / contraction deformation with respect to the original learning data. Although a similar method can be applied to a 3D volume image, unnatural organ deformation leads to a reduction in learning accuracy.

そこで、本実施形態において、第1の実施形態または第2の実施形態における学習用画像読み込み部101、201は、図11に示すように、3Dボリュームの元画像1101から、3Dボリュームの参照画像1102へ3次元形状位置合わせ技術を実施し、3Dボリュームの元画像1101から軟体変形して生成された新たな3Dボリュームの変形画像1103を学習画像群に加えることで、合理的な臓器変形を維持しながら品質の良い学習データとして拡張し、機械学習の精度向上を実現することが可能となる。 Therefore, in the present embodiment, the learning image reading units 101 and 201 in the first embodiment or the second embodiment, as shown in FIG. 11, include the 3D volume original image 1101 to the 3D volume reference image 1102. By performing the 3D shape registration technique on the 3D volume and adding a new deformed image 1103 of the 3D volume generated by deforming the soft body from the original image 1101 of the 3D volume to the learning image group, rational organ deformation is maintained. However, it is possible to expand the learning data as high quality learning data and improve the accuracy of machine learning.

次に、第9の実施形態について説明する。機械学習において、同等性能のモデルを複数学習し、これらの予測結果を線形結合することで、判定精度を向上させる技術が知られており、本技術はアンサンブル処理技術と呼ばれている。本実施形態においては、前記アンサンブル処理技術を応用し、画像処理装置1または画像処理装置2の予測画像読み込み部104または204は、3Dボリューム画像の断面軸をX、Y、Zの3方向としてしたとき、各軸における断層画像集合をそれぞれの予測演算出力部106または206の入力とし、得られた各断層方向における予測結果を線形結合することで、最終予測結果の精度を向上させることができる。 Next, a ninth embodiment will be described. In machine learning, a technique is known in which a plurality of models having equivalent performance are learned and the prediction results are linearly combined to improve the determination accuracy. This technique is called an ensemble processing technique. In the present embodiment, by applying the ensemble processing technique, the prediction image reading unit 104 or 204 of the image processing device 1 or the image processing device 2 sets the cross-sectional axis of the 3D volume image in three directions of X, Y, and Z. At this time, the accuracy of the final prediction result can be improved by using the tomographic image set on each axis as the input of the prediction calculation output unit 106 or 206 and linearly combining the obtained prediction results in each tomographic direction.

図12に、一例として、1つの3Dボリューム画像に対し、画像処理装置2の予測画像読み込み部204は、3Dボリューム画像のX、Y、Z各軸の断層画像1201を予測演算部206の入力として与え、得られた各軸における領域抽出結果1202を線形結合することで、最終予測結果1203として出力することで、領域抽出精度の向上を実現することを可能とする。 In FIG. 12, as an example, for one 3D volume image, the prediction image reading unit 204 of the image processing apparatus 2 receives the tomographic image 1201 of each of the X, Y, and Z axes of the 3D volume image as the input of the prediction calculation unit 206. By linearly combining the obtained region extraction results 1202 on the respective axes and outputting them as the final prediction result 1203, it is possible to improve the region extraction accuracy.

次に、第10の実施形態について説明する。本実施形態は前記アンサンブル技術を応用し、画像処理装置2の予測画像読み込み部204は、X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、複数の画素値範囲において断層画像の画素値を第6の実施形態による画素値の正規化手法を適用し、得られた複数の予測結果を線形結合することで、最終予測結果の精度を向上させる。 Next, a tenth embodiment will be described. In the present embodiment, the ensemble technique is applied, and the predictive image reading unit 204 of the image processing apparatus 2 uses the tomographic images in a plurality of pixel value ranges according to the image type such as X-ray CT or MRI and the pixel value distribution of an organ. The pixel value normalization method according to the sixth embodiment is applied to the pixel values of 1), and the obtained prediction results are linearly combined to improve the accuracy of the final prediction result.

図13に、一例として、読み込まれたCT断層画像群の元画像1301に対し、−1000乃至1000、−400乃至400、−100乃至100の3種類の画素値範囲の正規化処理をして得られた正規化済み断層画像群1302を、それぞれ予測演算部206の入力として供与し、得られた各画素値範囲における領域抽出結果1303を線形結合することで、最終予測結果1304として出力することで、領域抽出精度の向上を実現する。 In FIG. 13, as an example, the original image 1301 of the read CT tomographic image group is obtained by normalizing the three types of pixel value ranges of −1000 to 1000, −400 to 400, and −100 to 100. The normalized normalized tomographic image group 1302 is supplied as an input to the prediction calculation unit 206, and the obtained region extraction results 1303 in each pixel value range are linearly combined to output the final prediction result 1304. , Realization of improvement of region extraction accuracy.

また、前記複数の画素値範囲はユーザが指定しても良いし、対象臓器の分布に応じて自動で決定しても良い。 The plurality of pixel value ranges may be designated by the user or may be automatically determined according to the distribution of the target organ.

次に図14を用いて第11の実施形態について説明する。画像処理装置1または画像処理装置2の学習用画像読み込み部101または201は、学習実施の度に3Dボリューム画像を読み込み、当該画像を構成する部分集合画像を学習データとして選択するが、3Dボリューム画像のサイズが大きい場合、機械学習部に学習データを供与するまでに必要となる時間が多く、学習時間の遅延や学習効率の低下を招いていた。 Next, an eleventh embodiment will be described with reference to FIG. The learning image reading unit 101 or 201 of the image processing device 1 or the image processing device 2 reads a 3D volume image each time learning is performed, and selects a subset image forming the image as learning data. If the size is large, it takes a long time to provide the learning data to the machine learning unit, which causes a delay in learning time and a decrease in learning efficiency.

そこで、本実施形態では、図14に示すように、学習用3Dボリューム画像群から、3Dボリューム画像1401を読み込む処理1402と、3Dボリューム画像から任意の断層画像の部分集合1403を学習用画像として選択する処理1404と、を非同期で実施することで、機械学習部に対し遅延せずに学習データを供与し、効率的な学習実施ができる。 Therefore, in the present embodiment, as shown in FIG. 14, a process 1402 of reading a 3D volume image 1401 from a group of learning 3D volume images and a subset 1403 of arbitrary tomographic images from the 3D volume image are selected as learning images. By performing the processing 1404 and the processing 1404 that are performed asynchronously, learning data can be provided to the machine learning unit without delay and efficient learning can be performed.

汎用的な機械学習用ソフトウェアは機械学習に利用しやすい反面、学習済みルールは共通的な形式で保存されるため、前記学習済みルールは制作者に無断で二次利用されやすい。 General-purpose machine learning software is easy to use for machine learning, but since learned rules are stored in a common format, the learned rules are easily secondarily used without permission of the creator.

そこで、本実施例では、図15に示すように、機械学習を実施する際に、繰り返し学習用画像を読み込むにあたり、学習用入力画像群1501および学習用教師画像群1502に対し、特定の入力画像と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせ1503を任意の確率で機械学習部に与える。そして学習済みルールに前記組み合わせを学習し、前記入力に対する出力を固定することにより、学習済みルールを特徴付けて識別できるように構成できるため、得られた画像から利用したことが判断でき、無断な二次利用に対する抑止力となる。なお、前記組み合わせ1503は前記入力画像群1501および教師画像群1502と無関連な画像であっても良い。なお、前記任意の確率はユーザによる指定確率でも良いし、正規分布等に従って自動決定しても良い。例えば、入力画像群1501と教師画像群1502を機械学習部に与える回数と、前記組み合わせ1503を機械学習部に与える回数を100:1という確率に指定しても、これを多数回繰り返すことで機械学習部は組み合わせ1503における入力画像に対して、必ず組み合わせ1503における教師用特徴画像を出力するように学習する。また、本実施例は特定の組み合わせを画像として説明しているが、入力および教師用特徴はそれぞれ数値の羅列であるベクトル形式であっても良い。 Therefore, in the present embodiment, as shown in FIG. 15, when machine learning is carried out, when a learning image is read, a specific input image is input to learning input image group 1501 and learning teacher image group 1502. And a specific teacher feature image or a teacher feature vector combination 1503 is given to the machine learning unit at an arbitrary probability. Then, by learning the combination in the learned rule and fixing the output for the input, the learned rule can be characterized and identified, so that it can be determined from the obtained image that it has been used, It becomes a deterrent to secondary use. The combination 1503 may be an image unrelated to the input image group 1501 and the teacher image group 1502. The arbitrary probability may be a probability designated by the user or may be automatically determined according to a normal distribution or the like. For example, even if the number of times the input image group 1501 and the teacher image group 1502 are given to the machine learning unit and the number of times the combination 1503 is given to the machine learning unit are specified to have a probability of 100: 1, by repeating this many times, The learning unit always learns the input image in the combination 1503 so as to output the teacher feature image in the combination 1503. Further, although the present embodiment describes a specific combination as an image, the input and teacher features may be in vector format, which is a list of numerical values.

また、上記実施形態で説明した画像処理装置、画像処理方法において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。 Further, in the image processing apparatus and the image processing method described in the above embodiments, each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or all of the blocks. May be.

なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(FieldProgrammableGateArray)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。 Also, the method of circuit integration is not limited to LSI, and it may be realized by a dedicated circuit or a general-purpose processor. A programmable FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connection and setting of circuit cells inside the LSI may be used.

また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Further, a part or all of the processing of each functional block of each of the above embodiments may be realized by a program. Then, a part or all of the processing of each functional block of each of the above-described embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.

また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above-described embodiments may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.

例えば、上記実施形態(変形例を含む)の各機能部を、ソフトウェアにより実現する場合、図16に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when each functional unit of the above-described embodiment (including modified examples) is implemented by software, the hardware configuration shown in FIG. 16 (for example, CPU, ROM, RAM, input unit, output unit, etc., is implemented by a bus Bus). Each functional unit may be realized by software processing using the connected hardware configuration).

また、上記実施形態の各機能部をソフトウェアにより実現する場合、当該ソフトウェアは、図16に示したハードウェア構成を有する単独のコンピュータを用いて実現されるものであってもよいし、複数のコンピュータを用いて分散処理により実現されるものであってもよい。 When each functional unit of the above-described embodiment is realized by software, the software may be realized by using a single computer having the hardware configuration shown in FIG. 16, or may be realized by a plurality of computers. It may be realized by distributed processing using.

また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Further, the execution order of the processing methods in the above embodiments is not necessarily limited to the description of the above embodiments, and the execution order can be changed without departing from the gist of the invention.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、Blue-ray、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a large capacity DVD, a Blue-ray, and a semiconductor memory. ..

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to the one recorded in the recording medium, but may be transmitted via an electric communication line, a wireless or wired communication line, a network typified by the Internet, or the like.

なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。 The specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the spirit of the invention.

100 3Dボリューム画像用記憶装置
101、201 学習用画像読み込み部
102、202 機械学習部
103、203 学習済みルール格納部
104、204 予測用画像読み込み部
105、205 学習済みルール読み込み部
106、206 予測演算出力部
100 3D volume image storage device 101, 201 learning image reading unit 102, 202 machine learning unit 103, 203 learned rule storage unit 104, 204 prediction image reading unit 105, 205 learned rule reading unit 106, 206 prediction calculation Output section

Claims (12)

機械学習による複数断層画像間の補間画像を生成する補間装置であって、
3Dボリューム画像から、連続するm枚(mは3以上の整数)の断層画像集合を読み込む学習用画像読み込み部と、
前記連続する断層画像から任意の(m-n)枚(nは1以上、(m-2)以下の整数)を学習用入力データとし、残りのn枚を教師データとする画像補間の機械学習を行う機械学習部と、
学習した結果であるルールを格納する学習済みルール格納部と、
連続する(m-n)枚の予測用断層画像を読み込む予測用画像読み込み部と、
前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、
前記(m-n)枚の予測用断層画像および学習済みルールに基づき、n枚の断層画像を新たに生成し出力する予測演算出力部とを備える画像処理装置。
An interpolation device for generating an interpolation image between a plurality of tomographic images by machine learning,
From the 3D volume image, a learning image reading unit that reads continuous m tomographic image sets (m is an integer of 3 or more),
From any of the continuous tomographic images, arbitrary (mn) sheets (n is an integer of 1 or more and (m-2) or less) is used as learning input data, and the remaining n sheets are used as teacher data for machine learning of image interpolation. Machine learning department,
A learned rule storage unit that stores rules that are the results of learning,
A prediction image reading unit that reads continuous (mn) prediction tomographic images,
A learned rule reading unit that calls a learned rule from the learned rule storage unit;
An image processing apparatus comprising: a prediction calculation output unit that newly generates and outputs n tomographic images based on the (mn) prediction tomographic images and learned rules.
機械学習による単一または複数断層画像間の臓器領域を自動抽出する領域抽出装置であって、
対象臓器の領域情報付き3Dボリューム画像から、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込む学習用画像読み込み部と、
前記断層画像を学習用入力データとし、前記ラベル画像を教師データとする領域抽出の機械学習を行う機械学習部と、
学習した結果であるルールを格納する学習済みルール格納部と、
x枚の予測用断層画像を読み込む予測用画像読み込み部と、
前記学習済みルール格納部から学習済みルールを呼び出す学習済みルール読み込み部と、
前記x枚の予測用断層画像および学習済みルールに基づき、臓器領域を示すy枚のラベル画像を新たに生成し出力する予測演算出力部とを備える画像処理装置。
A region extraction device for automatically extracting an organ region between single or multiple tomographic images by machine learning,
Learning to read x (where x is an integer of 1 or more) learning tomographic images and y (where y is an integer of x or less) label images showing the region information of the target organ from the 3D volume image of the target organ Image reading section,
A machine learning unit that performs machine learning for area extraction using the tomographic image as learning input data and the label image as teacher data,
A learned rule storage unit that stores rules that are learning results,
A prediction image reading unit that reads x prediction tomographic images,
A learned rule reading unit that calls a learned rule from the learned rule storage unit;
An image processing apparatus comprising: a prediction calculation output unit that newly generates and outputs y label images indicating an organ region based on the x prediction tomographic images and the learned rule.
請求項2記載の学習用画像読み込み部は、
請求項1記載の画像処理装置を用いて3Dボリューム画像Aを補間処理して新たに生成した3Dボリューム画像Bから、x枚(xは1以上の整数)の学習用断層画像およびy枚(yはx以下の整数)の対象臓器の領域情報を示すラベル画像を読み込むことを特徴とする、
請求項2記載の画像処理装置。
The learning image reading unit according to claim 2,
From the 3D volume image B newly generated by interpolating the 3D volume image A using the image processing apparatus according to claim 1, x (x is an integer of 1 or more) learning tomographic images and y (y Is an integer less than or equal to x), which reads the label image indicating the region information of the target organ,
The image processing apparatus according to claim 2.
請求項1記載の学習用画像読み込み部は、
3Dボリューム画像を構成する断層画像群から任意のm枚の連続する断層画像集合を繰り返し学習用画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。
The learning image reading unit according to claim 1,
It is characterized in that a set of arbitrary m continuous tomographic images is repeatedly read as an image for learning from a group of tomographic images forming a 3D volume image,
The image processing apparatus according to claim 1.
請求項2記載の学習用画像読み込み部は、
3Dボリューム画像を構成する断層画像群から任意のx枚の断層画像集合と、
それに対応するy枚のラベル画像集合を繰り返し学習用画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。
The learning image reading unit according to claim 2,
An arbitrary x number of tomographic image sets from a tomographic image group that constitutes a 3D volume image,
It is characterized by reading a set of y label images corresponding to it as an image for repeated learning,
The image processing apparatus according to claim 1.
請求項1または請求項2記載の学習用画像読み込み部および予測層画像読み込み部は、
学習用または予測用断層画像を読み込むにあたり、
X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、コントラストと濃度を正規化し、
請求項1または請求項2記載の機械学習部および予測演算出力部の入力とすることを特徴とする画像処理方法。
The learning image reading unit and the prediction layer image reading unit according to claim 1 or 2,
When reading a tomographic image for learning or prediction,
Normalize contrast and density according to the image type such as X-ray CT and MRI and the pixel value distribution of organs,
An image processing method, comprising: inputting to the machine learning unit and the prediction calculation output unit according to claim 1.
請求項2記載の学習用画像読み込み部は、
3Dボリューム画像内における抽出対象臓器の体積の範囲を事前に算出し、抽出対象臓器を含む断層画像を任意の確率で繰り返し学習画像として読み込むことを特徴とする、
請求項1記載の画像処理装置。
The learning image reading unit according to claim 2,
The volume range of the extraction target organ in the 3D volume image is calculated in advance, and the tomographic image including the extraction target organ is repeatedly read as a learning image with an arbitrary probability,
The image processing apparatus according to claim 1.
請求項1または請求項2記載の学習用画像読み込み部は、
3Dボリューム画像Aから、3Dボリューム画像Bへ形状位置合わせ技術を実施し、前記画像Aを3次元変形することで学習パターンを拡張した上で、
請求項1または請求項2記載の機械学習部の入力とすることを特徴とする画像処理方法。
The learning image reading unit according to claim 1 or 2,
From 3D volume image A, 3D volume image B is subjected to shape registration technology, and after expanding the learning pattern by three-dimensionally deforming the image A,
An image processing method, wherein the machine learning unit according to claim 1 or 2 inputs the image.
3Dボリューム画像の断面軸をX,Y,Zの3方向としたとき、
請求項1または請求項2記載の予測画像読み込み部は、
各軸における断層画像集合をそれぞれ請求項2記載の予測演算出力部の入力とし、
出力された各方向における予測結果を線形結合し、
最終出力とすることを特徴とする画像処理装置。
When the cross-sectional axis of the 3D volume image is the three directions of X, Y, Z,
The predictive image reading unit according to claim 1 or 2,
A tomographic image set on each axis is input to the prediction calculation output unit according to claim 2,
Linearly combine the output prediction results in each direction,
An image processing device which is characterized in that the final output is performed.
請求項2記載の予測画像読み込み部は、
X線CTやMRIなどの画像種別や臓器の画素値分布に応じて、
複数の画素値範囲において断層画像の画素値を正規化した上で、
それぞれ請求項2記載の予測演算出力部の入力とし、
出力された各画素値範囲における予測結果を線形結合し、
最終出力とすることを特徴とする画像処理装置。
The predictive image reading unit according to claim 2,
Depending on the image type such as X-ray CT or MRI and the pixel value distribution of the organ,
After normalizing the pixel values of the tomographic image in multiple pixel value ranges,
Each of them is used as an input of the prediction calculation output unit according to claim 2,
Linearly combine the prediction results in each output pixel value range,
An image processing device which is characterized in that the final output is performed.
請求項1または請求項2記載の学習用画像読み込み部は、
繰り返し学習用画像を読み込むにあたり、
学習用3Dボリューム画像群から、3Dボリューム画像A全体を読み込む処理と、
3Dボリューム画像Aから任意の断層画像の部分集合を選択して、学習用画像として読み込み処理と、を非同期で実施することを特徴とする画像処理方法。
The learning image reading unit according to claim 1 or 2,
When loading the image for repeated learning,
Processing to read the entire 3D volume image A from the 3D volume image group for learning,
An image processing method characterized in that an arbitrary subset of tomographic images is selected from the 3D volume image A and the reading process as a learning image is performed asynchronously.
機械学習による画像の特徴を抽出する特徴抽出装置であって、
繰り返し学習用画像を読み込むにあたり、
特定の入力画像、と特定の教師用特徴画像、または教師用特徴ベクトルの組み合わせを任意の確率で与えることで、
学習済みルールに従い、前記組み合わせを固定することにより、
学習済みルールを特徴付けて識別可能であることを特徴とする画像処理方法。
A feature extraction device for extracting features of an image by machine learning,
When loading the image for repeated learning,
By giving a combination of a specific input image and a specific teacher feature image or teacher feature vector with an arbitrary probability,
By fixing the combination according to the learned rule,
An image processing method characterized in that learned rules can be characterized and identified.
JP2018211847A 2018-11-09 2018-11-09 Image interpolation/organ extraction device and program thereof Pending JP2020075063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018211847A JP2020075063A (en) 2018-11-09 2018-11-09 Image interpolation/organ extraction device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211847A JP2020075063A (en) 2018-11-09 2018-11-09 Image interpolation/organ extraction device and program thereof

Publications (1)

Publication Number Publication Date
JP2020075063A true JP2020075063A (en) 2020-05-21

Family

ID=70723070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211847A Pending JP2020075063A (en) 2018-11-09 2018-11-09 Image interpolation/organ extraction device and program thereof

Country Status (1)

Country Link
JP (1) JP2020075063A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743543A (en) * 2021-11-05 2021-12-03 武汉大学 Image classification training method and device, server and storage medium
KR20230076920A (en) * 2021-11-22 2023-06-01 서울대학교산학협력단 Method for training post-processing device for denoising an MRI image and computing device for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743543A (en) * 2021-11-05 2021-12-03 武汉大学 Image classification training method and device, server and storage medium
KR20230076920A (en) * 2021-11-22 2023-06-01 서울대학교산학협력단 Method for training post-processing device for denoising an MRI image and computing device for the same
KR102683611B1 (en) * 2021-11-22 2024-07-10 서울대학교 산학협력단 Method for training post-processing device for denoising an MRI image and computing device for the same

Similar Documents

Publication Publication Date Title
Pahr et al. From high-resolution CT data to finite element models: development of an integrated modular framework
US20180225847A1 (en) Systems and methods for data and model-driven image reconstruction and enhancement
JP4785371B2 (en) Multidimensional structure extraction method and system using dynamic constraints
CN111833251B (en) Super-resolution reconstruction method and device for three-dimensional medical image
JP2014171889A (en) Image segmentation apparatus, medical image diagnostic apparatus and image segmentation method
JP2018151747A (en) Super-resolution processing apparatus, super-resolution processing method and computer program
EP1775685A1 (en) Information processing device and program
WO2020054503A1 (en) Machine learning device, inference device, program, and learned model
Bardera et al. Image segmentation using excess entropy
Kläser et al. Deep boosted regression for MR to CT synthesis
KR102098929B1 (en) Methods and apparatuses for surface registration of surgical navigation
JP6762305B2 (en) Finite element modeling of anatomical structures
JP2020075063A (en) Image interpolation/organ extraction device and program thereof
Nowinski et al. A 3D model of human cerebrovasculature derived from 3T magnetic resonance angiography
Gaweł et al. Automatic spine tissue segmentation from MRI data based on cascade of boosted classifiers and active appearance model
CN113129418A (en) Target surface reconstruction method, device, equipment and medium based on three-dimensional image
JPH021082A (en) Apparatus and method for generating definition of three-dimensional surface
Jin et al. High-resolution cranial implant prediction via patch-wise training
WO2022163402A1 (en) Learned model generation method, machine learning system, program, and medical image processing device
WO2022163513A1 (en) Learned model generation method, machine learning system, program, and medical image processing device
JP6571784B2 (en) Structure estimation device, structure estimation method, and program
JPWO2018043594A1 (en) Image processing apparatus, image processing method, image processing program, image processing system
Ansorge et al. Exceptionally fast non-linear 3D image registration using GPUs
CN115457548B (en) High-resolution density map registration method in refrigeration electron microscope
JP6945379B2 (en) Image processing device, magnetic resonance imaging device and image processing program