JP2022054808A - Image processing system, program, machine learning method, and machine learning program - Google Patents

Image processing system, program, machine learning method, and machine learning program Download PDF

Info

Publication number
JP2022054808A
JP2022054808A JP2020162022A JP2020162022A JP2022054808A JP 2022054808 A JP2022054808 A JP 2022054808A JP 2020162022 A JP2020162022 A JP 2020162022A JP 2020162022 A JP2020162022 A JP 2020162022A JP 2022054808 A JP2022054808 A JP 2022054808A
Authority
JP
Japan
Prior art keywords
machine learning
image
image processing
group
fragments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020162022A
Other languages
Japanese (ja)
Inventor
溪 楊
Xi Yang
太一 金
Taichi KIN
健夫 五十嵐
Takeo Igarashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2020162022A priority Critical patent/JP2022054808A/en
Publication of JP2022054808A publication Critical patent/JP2022054808A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an image processing device capable of automatically extracting a target object from a medical imager with clinically applicable accuracy.SOLUTION: An image processing device 10 is provided, having a control unit 11 comprising a three-dimensional image acquisition unit configured to acquire a three-dimensional image generated using a plurality of two-dimensional images, an image division unit configured to divide the three-dimensional image into a plurality of fragments, and an area identification unit configured to recognize an area of a target object in a fragment classified as a group containing the target object and displaying the fragment in such a way that the area of the target object is distinguished.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り 令和2年6月29日にウェブサイト(https://arxiv.org/pdf/2006.16161.pdf)に論文を掲載Application for application of Article 30, Paragraph 2 of the Patent Act was submitted. The paper was published on the website (https://arxiv.org/pdf/2006.1616.1.pdf) on June 29, 2nd year of Reiwa.

本発明は、画像処理装置、プログラム、機械学習方法、及び機械学習プログラムに関する。 The present invention relates to an image processing device, a program, a machine learning method, and a machine learning program.

医療現場において、脳のMRA(Magnetic Resonance Angiography)画像を解析して動脈瘤等を検出し、病気の発見や治療に役立てることが行われている。 In the medical field, MRA (Magnetic Resonance Angiography) images of the brain are analyzed to detect aneurysms and the like, which are useful for the detection and treatment of diseases.

例えば、特許文献1には、核磁気共鳴画像データにおける動脈瘤の探索範囲内において、動脈瘤を模擬したテンプレートを用いたパターンマッチングを行うことにより、動脈瘤を検出することが記載されている(段落0018)。 For example, Patent Document 1 describes that an aneurysm is detected by performing pattern matching using a template simulating the aneurysm within the search range of the aneurysm in the nuclear magnetic resonance image data (. Paragraph 0018).

また、機械学習モデルを用いてMRA画像を解析し、動脈瘤の自動検出を行うことも試みられている(例えば、非特許文献1)。 It has also been attempted to analyze MRA images using a machine learning model to automatically detect an aneurysm (for example, Non-Patent Document 1).

特開2015-144725号公報JP-A-2015-144725

Sichtermann et al.,"Deep Learning-Based Detection of Intracranial Aneurysms in 3D TOF-MRA", American Journal of Neuroradiology 40(1), 25-32 (2019)Sichtermann et al., "Deep Learning-Based Detection of Intracranial Aneurysms in 3D TOF-MRA", American Journal of Neuroradiology 40 (1), 25-32 (2019)

しかし、従来の方法では、動脈瘤があるかどうかの検出はできても、画像上で動脈瘤のセグメンテーション(境界を定める)を行うことは難しかった。セグメンテーションができないと、クリッピング手術のシミュレーション等、臨床での応用には不十分である。また、動脈瘤が非常に小さい場合には、発見自体も難しかった。 However, with the conventional method, although it is possible to detect the presence or absence of an aneurysm, it is difficult to perform segmentation (definition) of the aneurysm on an image. Without segmentation, it is insufficient for clinical applications such as simulation of clipping surgery. Also, when the aneurysm was very small, it was difficult to find it.

本発明は、以上説明した事情を鑑みてなされたものであり、医療用画像から、臨床応用が可能な精度で対象物を自動的に抽出することが可能な画像処理装置を提供することを目的の一つとする。 The present invention has been made in view of the circumstances described above, and an object of the present invention is to provide an image processing apparatus capable of automatically extracting an object from a medical image with an accuracy capable of clinical application. It is one of.

本発明の一実施形態に係る画像処理装置は、複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、前記三次元画像を複数のフラグメントに分割する画像分割部と、前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部と、を備えたものである。 The image processing apparatus according to the embodiment of the present invention includes a three-dimensional image acquisition unit that acquires a three-dimensional image created based on a plurality of two-dimensional images, and an image division that divides the three-dimensional image into a plurality of fragments. It is provided with a unit and a region specifying portion for displaying the region of the object so as to be distinguishable in the fragment.

本発明の一実施形態に係るプログラムは、コンピュータを、複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、前記三次元画像を複数のフラグメントに分割する画像分割部と、前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部として、機能させるものである。 In the program according to the embodiment of the present invention, the computer has a three-dimensional image acquisition unit that acquires a three-dimensional image created based on a plurality of two-dimensional images, and an image that divides the three-dimensional image into a plurality of fragments. It functions as a division portion and a region specifying portion for displaying the region of the object so as to be distinguishable in the fragment.

本発明の一実施形態に係る機械学習方法は、三次元画像上で、対象物の領域を特定して表示する画像処理モデルの機械学習方法であって、コンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、コンピュータに、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を含むものである。 The machine learning method according to the embodiment of the present invention is a machine learning method of an image processing model that identifies and displays a region of an object on a three-dimensional image, and divides the three-dimensional image into a computer. In the first machine learning step of classifying the plurality of fragments obtained in the above into a group including the object and a group not including the object, and in a fragment classified into the group including the object by a computer, the object. It includes a second machine learning step of displaying the regions so that they can be distinguished.

本発明の一実施形態に係る機械学習プログラムは、三次元画像上で、対象物の領域を特定して表示するコンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を実行させるものである。
In the machine learning program according to the embodiment of the present invention, a plurality of fragments obtained by dividing the three-dimensional image on a computer that identifies and displays an area of an object on the three-dimensional image are subjected to the object. The first machine learning process to classify into a group containing things and a group not containing things,
In the fragment classified into the group including the object, the second machine learning step of displaying the area of the object so as to be distinguishable is executed.

本発明によれば、医療用画像から、臨床応用が可能な精度で対象物を自動的に抽出することが可能な画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus capable of automatically extracting an object from a medical image with an accuracy capable of clinical application.

本発明の実施形態に係る画像処理装置10の概略構成を示す図。The figure which shows the schematic structure of the image processing apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態の概要を説明する図。The figure explaining the outline of embodiment of this invention. 本発明の実施形態に係る画像処理装置10に実装される画像処理モデルの機械学習手順のフローチャート。The flowchart of the machine learning procedure of the image processing model mounted on the image processing apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置10に実装される画像処理モデルの機械学習手順を説明する図。The figure explaining the machine learning procedure of the image processing model mounted on the image processing apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係る機械学習済のモデルを用いた三次元画像上の動脈瘤のセグメンテーションの処理手順のフローチャート。The flowchart of the processing procedure of the segmentation of an aneurysm on a three-dimensional image using the machine-learned model which concerns on embodiment of this invention. 本発明の実施形態に係る機械学習済のモデルを用いた三次元画像上の動脈瘤のセグメンテーションの処理手順を説明する図。The figure explaining the processing procedure of the segmentation of an aneurysm on a three-dimensional image using the machine-learned model which concerns on embodiment of this invention.

以下、本発明の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same elements are designated by the same reference numerals, and duplicate description will be omitted.

実施の形態
図1は、本実施形態に係る画像処理装置10の概略構成を示す図である。図1に示すように、画像処理装置10は、制御装置11(三次元画像取得部、画像分割部、領域特定部、フラグメント分類部)と、記憶装置12を備えている。制御装置11は、ハードウェアとして、CPU、ROMやRAM等のメモリ、入力インタフェース、出力インタフェース、通信インタフェース及びこれらを結ぶバス等を備えている。制御装置11は、CPUがROM等に格納されたプログラムを実行することにより各種機能を実現する。記憶装置12は、ハードディスクドライブ等であり、各種プログラムや、解析対象となる画像データ等が記憶されている。
Embodiment FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the image processing device 10 includes a control device 11 (three-dimensional image acquisition unit, image division unit, area identification unit, fragment classification unit) and a storage device 12. The control device 11 includes, as hardware, a CPU, a memory such as a ROM or RAM, an input interface, an output interface, a communication interface, and a bus connecting them. The control device 11 realizes various functions by the CPU executing a program stored in a ROM or the like. The storage device 12 is a hard disk drive or the like, and stores various programs, image data to be analyzed, and the like.

図2は、本実施形態の概要を説明する図である。本実施形態に係る画像処理装置10は、頭蓋内の動脈のMRA画像から、機械学習モデルによって動脈瘤(対象物)を検出し、動脈瘤の領域のセグメンテーションを行う。具体的には、まず、頭蓋内を撮影した複数の二次元MRA画像(断層画像;P1)に基づいて、頭蓋内の動脈の三次元画像(P2)を作成する。本実施形態では、動脈の三次元画像を、三次元サーフェスモデルを用いて表現している。三次元サーフェスモデルは、三次元の物体を画像として表示するための三次元モデルの一種であり、物体の内部を空洞として、表面の形状のみで表現するモデルである。なお、本実施形態では、動脈の三次元画像を、三次元サーフェスモデルを用いて表現しているが、物体の内部も表現するソリッドモデルなど、他の三次元モデルを用いてもよい。なお、動脈の三次元画像は、画像処理装置10において作成してもよいし、作成された三次元画像を画像処理装置10に入力するようにしてもよい。 FIG. 2 is a diagram illustrating an outline of the present embodiment. The image processing apparatus 10 according to the present embodiment detects an aneurysm (object) from an MRA image of an intracranial artery by a machine learning model, and performs segmentation of the region of the aneurysm. Specifically, first, a three-dimensional image (P2) of an intracranial artery is created based on a plurality of two-dimensional MRA images (tomographic image; P1) taken in the skull. In this embodiment, a three-dimensional image of an artery is represented using a three-dimensional surface model. The three-dimensional surface model is a kind of three-dimensional model for displaying a three-dimensional object as an image, and is a model in which the inside of the object is made a cavity and expressed only by the shape of the surface. In the present embodiment, the three-dimensional image of the artery is represented by using the three-dimensional surface model, but another three-dimensional model such as a solid model that also represents the inside of the object may be used. The three-dimensional image of the artery may be created by the image processing device 10, or the created three-dimensional image may be input to the image processing device 10.

画像処理装置10は、動脈の三次元画像を機械学習済のモデルによって解析し、検出された動脈瘤のセグメンテーションを行って、三次元画像上で区別できるように表示する(P3)。動脈瘤のセグメンテーションの詳細な手順については後述する。図2の三次元画像P3において、Sで示された領域が動脈瘤としてセグメンテーションされた領域である。 The image processing device 10 analyzes a three-dimensional image of an artery by a machine-learned model, performs segmentation of the detected aneurysm, and displays it so that it can be distinguished on the three-dimensional image (P3). The detailed procedure for segmentation of an aneurysm will be described later. In the three-dimensional image P3 of FIG. 2, the region indicated by S is a region segmented as an aneurysm.

機械学習の段階では、動脈の三次元画像を断片に分割した複数の画像P4(フラグメント)を学習用のデータとして用いる。フラグメント画像P4には、画像中に動脈瘤が存在するものと存在しないものが含まれる。 At the stage of machine learning, a plurality of images P4 (fragments) obtained by dividing a three-dimensional image of an artery into fragments are used as learning data. The fragment image P4 includes an image in which an aneurysm is present and an image in which an aneurysm is not present.

次に、図3のフローチャートと図4を用いて、本実施形態による画像処理装置10に実装される、動脈瘤のセグメンテーションを行う画像処理モデルの機械学習手順について説明する。機械学習は、フラグメント画像を動脈瘤が含まれるものと含まれないものに分類する第1の機械学習と、動脈瘤が含まれるフラグメントにおいて、動脈瘤のフラグメンテーション(動脈瘤の領域を区別できるように表示する)を行う第2の機械学習の2段階で行われる。 Next, using the flowchart of FIG. 3 and FIG. 4, a machine learning procedure of an image processing model for segmenting an aneurysm, which is mounted on the image processing apparatus 10 according to the present embodiment, will be described. Machine learning is the first machine learning to classify fragment images into those with and without aneurysms, and in fragments with aneurysms, aneurysm fragmentation (so that the area of the aneurysm can be distinguished). It is performed in two stages of the second machine learning to perform (display).

(第1の機械学習)
まず、学習データとして、MRA画像から作成された動脈の三次元画像を分割して得られた複数のフラグメント画像P4をニューラルネットワーク(第1の機械学習モデル)N1に入力する(ステップS101)。三次元画像の分割方法としては、例えば、含まれる動脈の長さが一定になるように分割してもよい。
(First machine learning)
First, as training data, a plurality of fragment images P4 obtained by dividing a three-dimensional image of an artery created from an MRA image are input to a neural network (first machine learning model) N1 (step S101). As a method for dividing the three-dimensional image, for example, the three-dimensional image may be divided so that the length of the included arteries is constant.

ニューラルネットワークN1は、入力されたフラグメント画像P4を、動脈瘤が存在するグループ(G1)と、動脈瘤が存在しないグループ(G2)に分類する(ステップS102)。以上のステップS101~S102を、フラグメント画像P4が正しく分類されるようになるまで繰り返す。 The neural network N1 classifies the input fragment image P4 into a group in which an aneurysm is present (G1) and a group in which no aneurysm is present (G2) (step S102). The above steps S101 to S102 are repeated until the fragment images P4 are correctly classified.

(第2の機械学習)
次に、学習データとして、動脈瘤が存在するグループ(G1)に分類されたフラグメント画像をニューラルネットワーク(第2の機械学習モデル)N2に入力する(ステップS103)。
(Second machine learning)
Next, as training data, fragment images classified into the group (G1) in which the aneurysm exists are input to the neural network (second machine learning model) N2 (step S103).

ニューラルネットワークN2は、入力されたフラグメント画像P4の動脈瘤の領域(S)を判別して、画像P5に示すように区別可能に表示する(ステップS104)。以上のステップS103~S104を、動脈瘤の領域が正しく表示されるようになるまで繰り返す。 The neural network N2 discriminates the aneurysm region (S) of the input fragment image P4 and displays it distinguishably as shown in the image P5 (step S104). The above steps S103 to S104 are repeated until the area of the aneurysm is correctly displayed.

次に、図5のフローチャートと図6を用いて、本実施形態による機械学習済のモデルを用いた三次元画像上の動脈瘤のセグメンテーションの処理手順について説明する。 Next, the procedure for processing the segmentation of the aneurysm on the three-dimensional image using the machine-learned model according to the present embodiment will be described with reference to the flowchart of FIG. 5 and FIG.

まず、画像処理装置10は、二次元のMRA画像から作成された動脈の三次元画像を分割して複数のフラグメント画像(P4)を生成する(ステップS201)。三次元画像の分割方法としては、例えば、含まれる動脈の長さが一定になるように分割してもよい。 First, the image processing device 10 divides a three-dimensional image of an artery created from a two-dimensional MRA image to generate a plurality of fragment images (P4) (step S201). As a method for dividing the three-dimensional image, for example, the three-dimensional image may be divided so that the length of the included arteries is constant.

次に、画像処理装置10は、生成したフラグメント画像(P4)を学習済のニューラルネットワークN1によって解析し、動脈瘤が存在するグループ(G1)と、動脈瘤が存在しないグループ(G2)に分類する(ステップS202)。 Next, the image processing device 10 analyzes the generated fragment image (P4) by the trained neural network N1 and classifies it into a group (G1) in which an aneurysm is present and a group (G2) in which an aneurysm is not present. (Step S202).

次に、画像処理装置10は、動脈瘤が存在するグループ(G1)に分類されたフラグメント画像を、学習済のニューラルネットワークN2によって解析し、フラグメント画像の動脈瘤の領域(S)を判別して、画像P5に示すように区別可能に表示する(ステップS203)。 Next, the image processing device 10 analyzes the fragment images classified into the group (G1) in which the aneurysm exists by the trained neural network N2, and determines the region (S) of the aneurysm of the fragment image. , Displayed distinguishably as shown in image P5 (step S203).

次に、画像処理装置10は、各々の画像P5について動脈瘤の領域の周辺の解像度を上げる画像処理を行い、画像P6を出力する(ステップS204)。 Next, the image processing apparatus 10 performs image processing for increasing the resolution of the periphery of the aneurysm region for each image P5, and outputs the image P6 (step S204).

さらに画像処理装置10は、フラグメント画像P6および動脈瘤が含まれないフラグメント画像を用いて、フラグメントに分割する前の状態の動脈の三次元画像(P7)を再構成する(ステップS205)。 Further, the image processing apparatus 10 reconstructs a three-dimensional image (P7) of the artery in a state before being divided into fragments by using the fragment image P6 and the fragment image not including the aneurysm (step S205).

以上のように、本実施形態によれば、二次元のMRA画像から作成された動脈の三次元画像をフラグメントに分割し、個々のフラグメントを、機械学習モデルを利用して解析し、動脈瘤のセグメンテーションを行うようにした。このように、全体の三次元画像をフラグメントに細分化することで、画像上の動脈瘤の領域が相対的に大きくなるので、領域の境界線の特定をより正確に行うことができる。また、小さな動脈瘤も見落とさずに検出することができる。このように、クリッピング手術のシミュレーションなど、動脈瘤の精確な形状の情報が必要な用途にも利用することができる。 As described above, according to the present embodiment, a three-dimensional image of an artery created from a two-dimensional MRA image is divided into fragments, and each fragment is analyzed using a machine learning model to obtain an aneurysm. Changed to perform segmentation. By subdividing the entire three-dimensional image into fragments in this way, the region of the aneurysm on the image becomes relatively large, so that the boundary line of the region can be specified more accurately. In addition, small aneurysms can be detected without being overlooked. In this way, it can also be used for applications that require accurate shape information of aneurysms, such as simulation of clipping surgery.

また、全体の三次元画像をフラグメントに分割した後、動脈瘤を含むフラグメントと含まないフラグメントに分類し、セグメンテーションの処理は動脈瘤を含むフラグメントに対してのみ行うようにした。これにより、セグメンテーションの処理の負荷を軽減することができる。 In addition, after dividing the entire 3D image into fragments, the fragments were classified into fragments containing and without aneurysms, and segmentation processing was performed only on the fragments containing aneurysms. As a result, the load of the segmentation process can be reduced.

また、機械学習モデルの学習においては、フラグメントを動脈瘤有りのグループと無しのグループに分類する段階と、動脈瘤有りのフラグメントについて、動脈瘤の領域を判別してセグメンテーションを行う段階に分けて行うようにした。これにより、動脈瘤が有ることが分かっている画像に対してのみ、セグメンテーションを行う処理を行わせるので、学習効率と精度を向上させることができる。 In the learning of the machine learning model, the fragment is divided into a group with and without an aneurysm, and a fragment with an aneurysm is divided into a stage of discriminating the region of the aneurysm and performing segmentation. I did it. As a result, the process of performing segmentation is performed only on the image known to have an aneurysm, so that the learning efficiency and accuracy can be improved.

なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。 The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. For this reason, the above embodiments are merely examples in all respects and are not to be construed in a limited manner. For example, the above-mentioned processing steps can be arbitrarily changed in order or executed in parallel within a range that does not cause a contradiction in the processing contents.

10…画像処理装置
11…制御装置
12…記憶装置
10 ... Image processing device 11 ... Control device 12 ... Storage device

Claims (9)

複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、
前記三次元画像を複数のフラグメントに分割する画像分割部と、
前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部と、を備えた画像処理装置。
A 3D image acquisition unit that acquires 3D images created based on multiple 2D images,
An image segmentation unit that divides the three-dimensional image into a plurality of fragments,
An image processing apparatus including a region specifying unit for displaying the region of the object so as to be distinguishable in the fragment.
複数の前記フラグメントを、対象物を含むグループと含まないグループに分類するフラグメント分類部を備え、
前記領域特定部は、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を判別し、判別された領域を区別できるように表示する、請求項1に記載の画像処理装置。
A fragment classification unit for classifying a plurality of the fragments into a group including an object and a group not including the object is provided.
The area specifying part is
The image processing apparatus according to claim 1, wherein in a fragment classified into a group including the object, a region of the object is discriminated and the discriminated region is displayed so as to be distinguishable.
前記フラグメント分類部は、
学習済の第1の機械学習モデルを使用して、対象物を含むグループと含まないグループに分類する、請求項2に記載の画像処理装置。
The fragment classification unit
The image processing apparatus according to claim 2, wherein the first machine learning model that has been trained is used to classify a group that includes an object and a group that does not include an object.
前記第1の機械学習モデルは、前記三次元画像を分割して得られた複数のフラグメントを学習データとして、前記対象物を含むグループと含まないグループに分類させることにより作成する、請求項3に記載の画像処理装置。 The first machine learning model is created according to claim 3, wherein a plurality of fragments obtained by dividing the three-dimensional image are classified into a group including the object and a group not including the object as learning data. The image processing device described. 前記領域特定部は、
学習済の第2の機械学習モデルを使用して、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を判別し、判別された領域を区別できるように表示する、請求項2に記載の画像処理装置。
The area identification part is
A second machine learning model that has been trained is used to discriminate regions of the object and display the discriminated regions so that they can be distinguished in fragments classified into groups containing the object. 2. The image processing apparatus according to 2.
前記第2の機械学習モデルは、
前記対象物を含むグループに分類されたフラグメントを学習データとして、前記対象物の領域を判別し、判別された領域を区別できるように表示させることにより作成する、請求項5に記載の画像処理装置。
The second machine learning model is
The image processing apparatus according to claim 5, wherein the fragment classified into the group including the object is used as learning data, the area of the object is discriminated, and the discriminated region is displayed so as to be distinguishable. ..
コンピュータを、
複数の二次元画像に基づいて作成された三次元画像を取得する三次元画像取得部と、
前記三次元画像を複数のフラグメントに分割する画像分割部と、
前記フラグメントにおいて、前記対象物の領域を区別できるように表示する領域特定部として、機能させるプログラム。
Computer,
A 3D image acquisition unit that acquires 3D images created based on multiple 2D images,
An image segmentation unit that divides the three-dimensional image into a plurality of fragments,
In the fragment, a program that functions as an area specifying unit that displays the area of the object so as to be distinguishable.
三次元画像上で、対象物の領域を特定して表示する画像処理モデルの機械学習方法であって、
コンピュータに、前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
コンピュータに、前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を含む機械学習方法。
It is a machine learning method of an image processing model that identifies and displays the area of an object on a three-dimensional image.
A first machine learning step of causing a computer to classify a plurality of fragments obtained by dividing the three-dimensional image into a group including the object and a group not including the object.
A machine learning method comprising a second machine learning step of causing a computer to display a region of the object so that it can be distinguished in fragments classified into a group including the object.
三次元画像上で、対象物の領域を特定して表示するコンピュータに、
前記三次元画像を分割して得られた複数のフラグメントを、前記対象物を含むグループと含まないグループに分類させる第1の機械学習工程と、
前記対象物を含むグループに分類されたフラグメントにおいて、前記対象物の領域を区別できるように表示させる第2の機械学習工程と、を実行させる機械学習プログラム。
On a computer that identifies and displays the area of an object on a three-dimensional image,
A first machine learning step of classifying a plurality of fragments obtained by dividing the three-dimensional image into a group including the object and a group not including the object.
A machine learning program for executing a second machine learning step of displaying a region of the object so as to be distinguishable in fragments classified into a group including the object.
JP2020162022A 2020-09-28 2020-09-28 Image processing system, program, machine learning method, and machine learning program Pending JP2022054808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020162022A JP2022054808A (en) 2020-09-28 2020-09-28 Image processing system, program, machine learning method, and machine learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162022A JP2022054808A (en) 2020-09-28 2020-09-28 Image processing system, program, machine learning method, and machine learning program

Publications (1)

Publication Number Publication Date
JP2022054808A true JP2022054808A (en) 2022-04-07

Family

ID=80997686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162022A Pending JP2022054808A (en) 2020-09-28 2020-09-28 Image processing system, program, machine learning method, and machine learning program

Country Status (1)

Country Link
JP (1) JP2022054808A (en)

Similar Documents

Publication Publication Date Title
US10878569B2 (en) Systems and methods for automatic detection of an indication of abnormality in an anatomical image
US10332254B2 (en) Computer Aided Diagnosis (CAD) apparatus and method
US10726608B2 (en) System and method for real-time rendering of complex data
US11158047B2 (en) System and method for segmentation and visualization of medical image data
Sikder et al. Supervised learning-based cancer detection
KR102160390B1 (en) Method and system for artificial intelligence based user medical information analysis
Abdullah et al. Multi-sectional views textural based SVM for MS lesion segmentation in multi-channels MRIs
JP2024500938A (en) Automatic annotation of state features in medical images
Yu et al. Magnetic resonance imaging study of gray matter in schizophrenia based on XGBoost
US9538920B2 (en) Standalone annotations of axial-view spine images
Rao et al. Deep transfer learning for automatic prediction of hemorrhagic stroke on CT images
Cerrolaza et al. Fetal skull segmentation in 3D ultrasound via structured geodesic random forest
KR20220019278A (en) Deep Learning Models for Image Processing
Jathanna et al. Diagnostic utility of artificial intelligence for left ventricular scar identification using cardiac magnetic resonance imaging—A systematic review
US20210097678A1 (en) Computed tomography medical imaging spine model
Khan et al. COVID-19 infection analysis framework using novel boosted CNNs and radiological images
Gopikha et al. Regularised Layerwise Weight Norm Based Skin Lesion Features Extraction and Classification.
Bourennane et al. Deep Feature Extraction with Cubic-SVM for Classification of Brain Tumor
Solanki et al. Brain MRI image classification using image mining algorithms
Giv et al. Lung segmentation using active shape model to detect the disease from chest radiography
Mahalaxmi et al. A Comparison and Survey on Brain Tumour Detection Techniques Using MRI Images
JP2022054808A (en) Image processing system, program, machine learning method, and machine learning program
Jacob et al. Brain tumor classification based on deep CNN and modified butterfly optimization algorithm
KR101830512B1 (en) Optimized Image Segmentation Methods and System with DL and PDE
EP2902968A1 (en) Classification device, classification programme, and operating method for classification device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201019