JP2022054808A - Image processing system, program, machine learning method, and machine learning program - Google Patents
Image processing system, program, machine learning method, and machine learning program Download PDFInfo
- Publication number
- JP2022054808A JP2022054808A JP2020162022A JP2020162022A JP2022054808A JP 2022054808 A JP2022054808 A JP 2022054808A JP 2020162022 A JP2020162022 A JP 2020162022A JP 2020162022 A JP2020162022 A JP 2020162022A JP 2022054808 A JP2022054808 A JP 2022054808A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- image
- image processing
- group
- fragments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
特許法第30条第2項適用申請有り 令和2年6月29日にウェブサイト(https://arxiv.org/pdf/2006.16161.pdf)に論文を掲載Application for application of Article 30, Paragraph 2 of the Patent Act was submitted. The paper was published on the website (https://arxiv.org/pdf/2006.1616.1.pdf) on June 29, 2nd year of Reiwa.
本発明は、画像処理装置、プログラム、機械学習方法、及び機械学習プログラムに関する。 The present invention relates to an image processing device, a program, a machine learning method, and a machine learning program.
医療現場において、脳のMRA(Magnetic Resonance Angiography)画像を解析して動脈瘤等を検出し、病気の発見や治療に役立てることが行われている。 In the medical field, MRA (Magnetic Resonance Angiography) images of the brain are analyzed to detect aneurysms and the like, which are useful for the detection and treatment of diseases.
例えば、特許文献1には、核磁気共鳴画像データにおける動脈瘤の探索範囲内において、動脈瘤を模擬したテンプレートを用いたパターンマッチングを行うことにより、動脈瘤を検出することが記載されている(段落0018)。 For example, Patent Document 1 describes that an aneurysm is detected by performing pattern matching using a template simulating the aneurysm within the search range of the aneurysm in the nuclear magnetic resonance image data (. Paragraph 0018).
また、機械学習モデルを用いてMRA画像を解析し、動脈瘤の自動検出を行うことも試みられている(例えば、非特許文献1)。 It has also been attempted to analyze MRA images using a machine learning model to automatically detect an aneurysm (for example, Non-Patent Document 1).
しかし、従来の方法では、動脈瘤があるかどうかの検出はできても、画像上で動脈瘤のセグメンテーション(境界を定める)を行うことは難しかった。セグメンテーションができないと、クリッピング手術のシミュレーション等、臨床での応用には不十分である。また、動脈瘤が非常に小さい場合には、発見自体も難しかった。 However, with the conventional method, although it is possible to detect the presence or absence of an aneurysm, it is difficult to perform segmentation (definition) of the aneurysm on an image. Without segmentation, it is insufficient for clinical applications such as simulation of clipping surgery. Also, when the aneurysm was very small, it was difficult to find it.
本発明は、以上説明した事情を鑑みてなされたものであり、医療用画像から、臨床応用が可能な精度で対象物を自動的に抽出することが可能な画像処理装置を提供することを目的の一つとする。 The present invention has been made in view of the circumstances described above, and an object of the present invention is to provide an image processing apparatus capable of automatically extracting an object from a medical image with an accuracy capable of clinical application. It is one of.
本発明の一実施形態に係る画像処理装置は、複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、前記三次元画像を複数のフラグメントに分割する画像分割部と、前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部と、を備えたものである。 The image processing apparatus according to the embodiment of the present invention includes a three-dimensional image acquisition unit that acquires a three-dimensional image created based on a plurality of two-dimensional images, and an image division that divides the three-dimensional image into a plurality of fragments. It is provided with a unit and a region specifying portion for displaying the region of the object so as to be distinguishable in the fragment.
本発明の一実施形態に係るプログラムは、コンピュータを、複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、前記三次元画像を複数のフラグメントに分割する画像分割部と、前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部として、機能させるものである。 In the program according to the embodiment of the present invention, the computer has a three-dimensional image acquisition unit that acquires a three-dimensional image created based on a plurality of two-dimensional images, and an image that divides the three-dimensional image into a plurality of fragments. It functions as a division portion and a region specifying portion for displaying the region of the object so as to be distinguishable in the fragment.
本発明の一実施形態に係る機械学習方法は、三次元画像上で、対象物の領域を特定して表示する画像処理モデルの機械学習方法であって、コンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、コンピュータに、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を含むものである。 The machine learning method according to the embodiment of the present invention is a machine learning method of an image processing model that identifies and displays a region of an object on a three-dimensional image, and divides the three-dimensional image into a computer. In the first machine learning step of classifying the plurality of fragments obtained in the above into a group including the object and a group not including the object, and in a fragment classified into the group including the object by a computer, the object. It includes a second machine learning step of displaying the regions so that they can be distinguished.
本発明の一実施形態に係る機械学習プログラムは、三次元画像上で、対象物の領域を特定して表示するコンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を実行させるものである。
In the machine learning program according to the embodiment of the present invention, a plurality of fragments obtained by dividing the three-dimensional image on a computer that identifies and displays an area of an object on the three-dimensional image are subjected to the object. The first machine learning process to classify into a group containing things and a group not containing things,
In the fragment classified into the group including the object, the second machine learning step of displaying the area of the object so as to be distinguishable is executed.
本発明によれば、医療用画像から、臨床応用が可能な精度で対象物を自動的に抽出することが可能な画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus capable of automatically extracting an object from a medical image with an accuracy capable of clinical application.
以下、本発明の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same elements are designated by the same reference numerals, and duplicate description will be omitted.
実施の形態
図1は、本実施形態に係る画像処理装置10の概略構成を示す図である。図1に示すように、画像処理装置10は、制御装置11(三次元画像取得部、画像分割部、領域特定部、フラグメント分類部)と、記憶装置12を備えている。制御装置11は、ハードウェアとして、CPU、ROMやRAM等のメモリ、入力インタフェース、出力インタフェース、通信インタフェース及びこれらを結ぶバス等を備えている。制御装置11は、CPUがROM等に格納されたプログラムを実行することにより各種機能を実現する。記憶装置12は、ハードディスクドライブ等であり、各種プログラムや、解析対象となる画像データ等が記憶されている。
Embodiment FIG. 1 is a diagram showing a schematic configuration of an
図2は、本実施形態の概要を説明する図である。本実施形態に係る画像処理装置10は、頭蓋内の動脈のMRA画像から、機械学習モデルによって動脈瘤(対象物)を検出し、動脈瘤の領域のセグメンテーションを行う。具体的には、まず、頭蓋内を撮影した複数の二次元MRA画像(断層画像;P1)に基づいて、頭蓋内の動脈の三次元画像(P2)を作成する。本実施形態では、動脈の三次元画像を、三次元サーフェスモデルを用いて表現している。三次元サーフェスモデルは、三次元の物体を画像として表示するための三次元モデルの一種であり、物体の内部を空洞として、表面の形状のみで表現するモデルである。なお、本実施形態では、動脈の三次元画像を、三次元サーフェスモデルを用いて表現しているが、物体の内部も表現するソリッドモデルなど、他の三次元モデルを用いてもよい。なお、動脈の三次元画像は、画像処理装置10において作成してもよいし、作成された三次元画像を画像処理装置10に入力するようにしてもよい。
FIG. 2 is a diagram illustrating an outline of the present embodiment. The
画像処理装置10は、動脈の三次元画像を機械学習済のモデルによって解析し、検出された動脈瘤のセグメンテーションを行って、三次元画像上で区別できるように表示する(P3)。動脈瘤のセグメンテーションの詳細な手順については後述する。図2の三次元画像P3において、Sで示された領域が動脈瘤としてセグメンテーションされた領域である。
The
機械学習の段階では、動脈の三次元画像を断片に分割した複数の画像P4(フラグメント)を学習用のデータとして用いる。フラグメント画像P4には、画像中に動脈瘤が存在するものと存在しないものが含まれる。 At the stage of machine learning, a plurality of images P4 (fragments) obtained by dividing a three-dimensional image of an artery into fragments are used as learning data. The fragment image P4 includes an image in which an aneurysm is present and an image in which an aneurysm is not present.
次に、図3のフローチャートと図4を用いて、本実施形態による画像処理装置10に実装される、動脈瘤のセグメンテーションを行う画像処理モデルの機械学習手順について説明する。機械学習は、フラグメント画像を動脈瘤が含まれるものと含まれないものに分類する第1の機械学習と、動脈瘤が含まれるフラグメントにおいて、動脈瘤のフラグメンテーション(動脈瘤の領域を区別できるように表示する)を行う第2の機械学習の2段階で行われる。
Next, using the flowchart of FIG. 3 and FIG. 4, a machine learning procedure of an image processing model for segmenting an aneurysm, which is mounted on the
(第1の機械学習)
まず、学習データとして、MRA画像から作成された動脈の三次元画像を分割して得られた複数のフラグメント画像P4をニューラルネットワーク(第1の機械学習モデル)N1に入力する(ステップS101)。三次元画像の分割方法としては、例えば、含まれる動脈の長さが一定になるように分割してもよい。
(First machine learning)
First, as training data, a plurality of fragment images P4 obtained by dividing a three-dimensional image of an artery created from an MRA image are input to a neural network (first machine learning model) N1 (step S101). As a method for dividing the three-dimensional image, for example, the three-dimensional image may be divided so that the length of the included arteries is constant.
ニューラルネットワークN1は、入力されたフラグメント画像P4を、動脈瘤が存在するグループ(G1)と、動脈瘤が存在しないグループ(G2)に分類する(ステップS102)。以上のステップS101~S102を、フラグメント画像P4が正しく分類されるようになるまで繰り返す。 The neural network N1 classifies the input fragment image P4 into a group in which an aneurysm is present (G1) and a group in which no aneurysm is present (G2) (step S102). The above steps S101 to S102 are repeated until the fragment images P4 are correctly classified.
(第2の機械学習)
次に、学習データとして、動脈瘤が存在するグループ(G1)に分類されたフラグメント画像をニューラルネットワーク(第2の機械学習モデル)N2に入力する(ステップS103)。
(Second machine learning)
Next, as training data, fragment images classified into the group (G1) in which the aneurysm exists are input to the neural network (second machine learning model) N2 (step S103).
ニューラルネットワークN2は、入力されたフラグメント画像P4の動脈瘤の領域(S)を判別して、画像P5に示すように区別可能に表示する(ステップS104)。以上のステップS103~S104を、動脈瘤の領域が正しく表示されるようになるまで繰り返す。 The neural network N2 discriminates the aneurysm region (S) of the input fragment image P4 and displays it distinguishably as shown in the image P5 (step S104). The above steps S103 to S104 are repeated until the area of the aneurysm is correctly displayed.
次に、図5のフローチャートと図6を用いて、本実施形態による機械学習済のモデルを用いた三次元画像上の動脈瘤のセグメンテーションの処理手順について説明する。 Next, the procedure for processing the segmentation of the aneurysm on the three-dimensional image using the machine-learned model according to the present embodiment will be described with reference to the flowchart of FIG. 5 and FIG.
まず、画像処理装置10は、二次元のMRA画像から作成された動脈の三次元画像を分割して複数のフラグメント画像(P4)を生成する(ステップS201)。三次元画像の分割方法としては、例えば、含まれる動脈の長さが一定になるように分割してもよい。
First, the
次に、画像処理装置10は、生成したフラグメント画像(P4)を学習済のニューラルネットワークN1によって解析し、動脈瘤が存在するグループ(G1)と、動脈瘤が存在しないグループ(G2)に分類する(ステップS202)。
Next, the
次に、画像処理装置10は、動脈瘤が存在するグループ(G1)に分類されたフラグメント画像を、学習済のニューラルネットワークN2によって解析し、フラグメント画像の動脈瘤の領域(S)を判別して、画像P5に示すように区別可能に表示する(ステップS203)。
Next, the
次に、画像処理装置10は、各々の画像P5について動脈瘤の領域の周辺の解像度を上げる画像処理を行い、画像P6を出力する(ステップS204)。
Next, the
さらに画像処理装置10は、フラグメント画像P6および動脈瘤が含まれないフラグメント画像を用いて、フラグメントに分割する前の状態の動脈の三次元画像(P7)を再構成する(ステップS205)。
Further, the
以上のように、本実施形態によれば、二次元のMRA画像から作成された動脈の三次元画像をフラグメントに分割し、個々のフラグメントを、機械学習モデルを利用して解析し、動脈瘤のセグメンテーションを行うようにした。このように、全体の三次元画像をフラグメントに細分化することで、画像上の動脈瘤の領域が相対的に大きくなるので、領域の境界線の特定をより正確に行うことができる。また、小さな動脈瘤も見落とさずに検出することができる。このように、クリッピング手術のシミュレーションなど、動脈瘤の精確な形状の情報が必要な用途にも利用することができる。 As described above, according to the present embodiment, a three-dimensional image of an artery created from a two-dimensional MRA image is divided into fragments, and each fragment is analyzed using a machine learning model to obtain an aneurysm. Changed to perform segmentation. By subdividing the entire three-dimensional image into fragments in this way, the region of the aneurysm on the image becomes relatively large, so that the boundary line of the region can be specified more accurately. In addition, small aneurysms can be detected without being overlooked. In this way, it can also be used for applications that require accurate shape information of aneurysms, such as simulation of clipping surgery.
また、全体の三次元画像をフラグメントに分割した後、動脈瘤を含むフラグメントと含まないフラグメントに分類し、セグメンテーションの処理は動脈瘤を含むフラグメントに対してのみ行うようにした。これにより、セグメンテーションの処理の負荷を軽減することができる。 In addition, after dividing the entire 3D image into fragments, the fragments were classified into fragments containing and without aneurysms, and segmentation processing was performed only on the fragments containing aneurysms. As a result, the load of the segmentation process can be reduced.
また、機械学習モデルの学習においては、フラグメントを動脈瘤有りのグループと無しのグループに分類する段階と、動脈瘤有りのフラグメントについて、動脈瘤の領域を判別してセグメンテーションを行う段階に分けて行うようにした。これにより、動脈瘤が有ることが分かっている画像に対してのみ、セグメンテーションを行う処理を行わせるので、学習効率と精度を向上させることができる。 In the learning of the machine learning model, the fragment is divided into a group with and without an aneurysm, and a fragment with an aneurysm is divided into a stage of discriminating the region of the aneurysm and performing segmentation. I did it. As a result, the process of performing segmentation is performed only on the image known to have an aneurysm, so that the learning efficiency and accuracy can be improved.
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。 The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. For this reason, the above embodiments are merely examples in all respects and are not to be construed in a limited manner. For example, the above-mentioned processing steps can be arbitrarily changed in order or executed in parallel within a range that does not cause a contradiction in the processing contents.
10…画像処理装置
11…制御装置
12…記憶装置
10 ...
Claims (9)
前記三次元画像を複数のフラグメントに分割する画像分割部と、
前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部と、を備えた画像処理装置。 A 3D image acquisition unit that acquires 3D images created based on multiple 2D images,
An image segmentation unit that divides the three-dimensional image into a plurality of fragments,
An image processing apparatus including a region specifying unit for displaying the region of the object so as to be distinguishable in the fragment.
前記領域特定部は、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を判別し、判別された領域を区別できるように表示する、請求項1に記載の画像処理装置。 A fragment classification unit for classifying a plurality of the fragments into a group including an object and a group not including the object is provided.
The area specifying part is
The image processing apparatus according to claim 1, wherein in a fragment classified into a group including the object, a region of the object is discriminated and the discriminated region is displayed so as to be distinguishable.
学習済の第1の機械学習モデルを使用して、対象物を含むグループと含まないグループに分類する、請求項2に記載の画像処理装置。 The fragment classification unit
The image processing apparatus according to claim 2, wherein the first machine learning model that has been trained is used to classify a group that includes an object and a group that does not include an object.
学習済の第2の機械学習モデルを使用して、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を判別し、判別された領域を区別できるように表示する、請求項2に記載の画像処理装置。 The area identification part is
A second machine learning model that has been trained is used to discriminate regions of the object and display the discriminated regions so that they can be distinguished in fragments classified into groups containing the object. 2. The image processing apparatus according to 2.
前記対象物を含むグループに分類されたフラグメントを学習データとして、前記対象物の領域を判別し、判別された領域を区別できるように表示させることにより作成する、請求項5に記載の画像処理装置。 The second machine learning model is
The image processing apparatus according to claim 5, wherein the fragment classified into the group including the object is used as learning data, the area of the object is discriminated, and the discriminated region is displayed so as to be distinguishable. ..
複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、
前記三次元画像を複数のフラグメントに分割する画像分割部と、
前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部として、機能させるプログラム。 Computer,
A 3D image acquisition unit that acquires 3D images created based on multiple 2D images,
An image segmentation unit that divides the three-dimensional image into a plurality of fragments,
In the fragment, a program that functions as an area specifying unit that displays the area of the object so as to be distinguishable.
コンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
コンピュータに、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を含む機械学習方法。 It is a machine learning method of an image processing model that identifies and displays the area of an object on a three-dimensional image.
A first machine learning step of causing a computer to classify a plurality of fragments obtained by dividing the three-dimensional image into a group including the object and a group not including the object.
A machine learning method comprising a second machine learning step of causing a computer to display a region of the object so that it can be distinguished in fragments classified into a group including the object.
前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を実行させる機械学習プログラム。 On a computer that identifies and displays the area of an object on a three-dimensional image,
A first machine learning step of classifying a plurality of fragments obtained by dividing the three-dimensional image into a group including the object and a group not including the object.
A machine learning program for executing a second machine learning step of displaying a region of the object so as to be distinguishable in fragments classified into a group including the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020162022A JP2022054808A (en) | 2020-09-28 | 2020-09-28 | Image processing system, program, machine learning method, and machine learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020162022A JP2022054808A (en) | 2020-09-28 | 2020-09-28 | Image processing system, program, machine learning method, and machine learning program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022054808A true JP2022054808A (en) | 2022-04-07 |
Family
ID=80997686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020162022A Pending JP2022054808A (en) | 2020-09-28 | 2020-09-28 | Image processing system, program, machine learning method, and machine learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022054808A (en) |
-
2020
- 2020-09-28 JP JP2020162022A patent/JP2022054808A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878569B2 (en) | Systems and methods for automatic detection of an indication of abnormality in an anatomical image | |
US10332254B2 (en) | Computer Aided Diagnosis (CAD) apparatus and method | |
US10726608B2 (en) | System and method for real-time rendering of complex data | |
US11158047B2 (en) | System and method for segmentation and visualization of medical image data | |
Sikder et al. | Supervised learning-based cancer detection | |
KR102160390B1 (en) | Method and system for artificial intelligence based user medical information analysis | |
Abdullah et al. | Multi-sectional views textural based SVM for MS lesion segmentation in multi-channels MRIs | |
JP2024500938A (en) | Automatic annotation of state features in medical images | |
Yu et al. | Magnetic resonance imaging study of gray matter in schizophrenia based on XGBoost | |
US9538920B2 (en) | Standalone annotations of axial-view spine images | |
Rao et al. | Deep transfer learning for automatic prediction of hemorrhagic stroke on CT images | |
Cerrolaza et al. | Fetal skull segmentation in 3D ultrasound via structured geodesic random forest | |
KR20220019278A (en) | Deep Learning Models for Image Processing | |
Jathanna et al. | Diagnostic utility of artificial intelligence for left ventricular scar identification using cardiac magnetic resonance imaging—A systematic review | |
US20210097678A1 (en) | Computed tomography medical imaging spine model | |
Khan et al. | COVID-19 infection analysis framework using novel boosted CNNs and radiological images | |
Gopikha et al. | Regularised Layerwise Weight Norm Based Skin Lesion Features Extraction and Classification. | |
Bourennane et al. | Deep Feature Extraction with Cubic-SVM for Classification of Brain Tumor | |
Solanki et al. | Brain MRI image classification using image mining algorithms | |
Giv et al. | Lung segmentation using active shape model to detect the disease from chest radiography | |
Mahalaxmi et al. | A Comparison and Survey on Brain Tumour Detection Techniques Using MRI Images | |
JP2022054808A (en) | Image processing system, program, machine learning method, and machine learning program | |
Jacob et al. | Brain tumor classification based on deep CNN and modified butterfly optimization algorithm | |
KR101830512B1 (en) | Optimized Image Segmentation Methods and System with DL and PDE | |
EP2902968A1 (en) | Classification device, classification programme, and operating method for classification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20201019 |