JP2023143628A - Image generation device, method and program, learning device, method and program, segmentation model, and image processing device, method and program - Google Patents

Image generation device, method and program, learning device, method and program, segmentation model, and image processing device, method and program Download PDF

Info

Publication number
JP2023143628A
JP2023143628A JP2022150250A JP2022150250A JP2023143628A JP 2023143628 A JP2023143628 A JP 2023143628A JP 2022150250 A JP2022150250 A JP 2022150250A JP 2022150250 A JP2022150250 A JP 2022150250A JP 2023143628 A JP2023143628 A JP 2023143628A
Authority
JP
Japan
Prior art keywords
image
mask
pseudo
processing
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022150250A
Other languages
Japanese (ja)
Inventor
朗子 流石
Akiko Sasuga
嘉郎 北村
Yoshiro Kitamura
彰 工藤
Akira Kudo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to US18/170,532 priority Critical patent/US20230306605A1/en
Publication of JP2023143628A publication Critical patent/JP2023143628A/en
Pending legal-status Critical Current

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

To make it possible to provide a machine learning model allowing segmentation to be accurately performed, in an image generation device, method and program, a learning device, method and program, a segmentation model, and an image processing device, method and program.SOLUTION: A processor obtains an original image and a mask image in which a mask is applied to one or more regions representing each of one or more objects including a target object in the original image, derives a pseudo mask image by processing the mask in the mask image, and derives a pseudo image having a region based on the mask included in the pseudo mask image and having the same representation form as the original image, on the basis of the original image and the pseudo mask image.SELECTED DRAWING: Figure 3

Description

本開示は、画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、セグメンテーションモデル、並びに画像処理装置、方法およびプログラムに関する。 The present disclosure relates to an image generation device, a method, and a program, a learning device, a method, and a program, a segmentation model, and an image processing device, a method, and a program.

画像を扱う機械学習モデルとして、画像に含まれる対象物を画素単位で識別するセマンティックセグメンテーションを行う畳み込みニューラルネットワーク(以下、CNN(convolutional Neural Network)と略す)が知られている。例えば、非特許文献1にはU字型の畳み込みニューラルネットワーク(U-Net;U-Shaped Neural Network)を用いたセグメンテーションが提案されている。 As a machine learning model for handling images, a convolutional neural network (hereinafter abbreviated as CNN) that performs semantic segmentation to identify objects included in an image on a pixel-by-pixel basis is known. For example, Non-Patent Document 1 proposes segmentation using a U-shaped convolutional neural network (U-Net).

また、医用分野においては、機械学習モデルを用いて医用画像をセグメンテーションし、セグメンテーションした領域について病気の進行度を判断することも行われている。 Furthermore, in the medical field, medical images are segmented using machine learning models, and the degree of disease progression is determined for the segmented regions.

一方、機械学習モデルの学習には多数の教師データが必要である。しかしながら、医用分野においては稀少疾患のデータは収集が難しいため、セグメンテーションを精度よく行うことが可能な機械学習モデルを提供することが困難な状況にある。 On the other hand, training a machine learning model requires a large amount of training data. However, in the medical field, it is difficult to collect data on rare diseases, making it difficult to provide machine learning models that can accurately perform segmentation.

このため、皮膚がんを検出するための機械学習モデルの学習のために、既存の医用画像および医用画像における皮膚がんの領域をマスクした正解データを使用して、様々な大きさの皮膚がんを含む疑似画像を生成する手法が提案されている(非特許文献2参照)。また、例えば椅子のような既存の形状を有する3次元物体の空間的な分布を学習し、未知の形状を有する椅子の画像を生成する手法も提案されている(非特許文献3参照)。 Therefore, in order to train a machine learning model for detecting skin cancer, we use existing medical images and ground truth data that masks skin cancer areas in medical images to detect skin of various sizes. A method has been proposed to generate a pseudo image that includes . Furthermore, a method has also been proposed in which the spatial distribution of a three-dimensional object with an existing shape, such as a chair, is learned and an image of a chair with an unknown shape is generated (see Non-Patent Document 3).

U-Net: Convolutional Networks for Biomedical Image Segmentation、Olaf Ronnebergerら、2015U-Net: Convolutional Networks for Biomedical Image Segmentation, Olaf Ronneberger et al., 2015 Mask2Lesion: Mask-Constrained Adversarial Skin Lesion Image Synthesis、Kumar Abhishekら、2019Mask2Lesion: Mask-Constrained Adversarial Skin Lesion Image Synthesis, Kumar Abhishek et al., 2019 The shape variational autoencoder: A deep generative model of part-segmented 3D objects、C.Nashら、2017The shape variational autoencoder: A deep generative model of part-segmented 3D objects, C. Nash et al., 2017

しかしながら、非特許文献2に記載された手法のように既存の画像についての正解データを用いるのみでは、既存の学習データに含まれることが少ない特徴のデータを生成することができない。このため、生成した画像を学習データに追加しても既存の画像に含まれることが少ない対象物を精度よくセグメンテーションできる機械学習モデルを構築することは困難である。また、非特許文献3に記載された手法のように、既存の対象物の形状を変更するのみでは、既存の対象物とは異なる対象物を精度よくセグメンテーションできる機械学習モデルを構築することは困難である。とくに、進行がんのような稀少疾患については、がん組織がその周囲の部位に浸潤していることが多いため、そのような進行がんを精度よくセグメンテーションすることが望まれている。 However, just by using correct data for existing images as in the method described in Non-Patent Document 2, it is not possible to generate data of features that are rarely included in existing learning data. For this reason, even if generated images are added to learning data, it is difficult to construct a machine learning model that can accurately segment objects that are rarely included in existing images. Furthermore, as in the method described in Non-Patent Document 3, it is difficult to construct a machine learning model that can accurately segment objects that are different from existing objects by simply changing the shape of existing objects. It is. In particular, in the case of rare diseases such as advanced cancer, cancer tissue often invades surrounding areas, so it is desired to segment such advanced cancers with high accuracy.

本開示は上記事情に鑑みなされたものであり、セグメンテーションを精度よく行うことが可能な機械学習モデルを提供できるようにすることを目的とする。 The present disclosure has been made in view of the above circumstances, and aims to provide a machine learning model that can perform segmentation with high accuracy.

本開示による第1の態様に係る画像生成装置は、少なくとも1つのプロセッサを備え、
プロセッサは、原画像および原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得し、
マスク画像におけるマスクを加工することにより疑似マスク画像を導出し、
原画像および疑似マスク画像に基づいて、疑似マスク画像に含まれるマスクに基づく領域を有し、かつ原画像と同一の表現形式を有する疑似画像を導出する。
An image generation device according to a first aspect of the present disclosure includes at least one processor,
the processor obtains an original image and a mask image in which a mask is applied to one or more regions representing each of one or more objects including the target object in the original image;
Derive a pseudo mask image by processing the mask in the mask image,
Based on the original image and the pseudo mask image, a pseudo image is derived that has a region based on the mask included in the pseudo mask image and has the same expression format as the original image.

本開示の第2の態様に係る画像生成装置は、本開示の第1の態様に係る画像生成装置において、疑似マスク画像および疑似画像は、画像に含まれる物体をセグメンテーションするセグメンテーションモデルを学習するための教師データとして使用されるものであってもよい。 An image generation device according to a second aspect of the present disclosure is the image generation device according to the first aspect of the present disclosure, in which the pseudo mask image and the pseudo image are used to learn a segmentation model for segmenting objects included in the image. It may also be used as training data.

本開示の第3の態様に係る画像生成装置は、本開示の第2の態様に係る画像生成装置において、プロセッサは、疑似マスク画像および疑似画像を教師データとして蓄積するものであってもよい。 An image generation device according to a third aspect of the present disclosure may be the image generation device according to the second aspect of the present disclosure, in which the processor accumulates the pseudo mask image and the pseudo image as teacher data.

本開示の第4の態様に係る画像生成装置は、本開示の第1から第3のいずれか1つの態様に係る画像生成装置において、プロセッサは、対象物体が示すクラスとは異なるクラスの対象物体を含む疑似画像を生成可能な疑似マスク画像を導出するものであってもよい。 An image generation device according to a fourth aspect of the present disclosure is an image generation device according to any one of the first to third aspects of the present disclosure, in which the processor is configured to generate a target object in a class different from a class indicated by the target object. It may be possible to derive a pseudo mask image that can generate a pseudo image including the following.

「クラスが異なる」とは、対象物体の形状の種類が異なること、あるいは対象物体が医用画像に含まれる病変であれば病変の進行度が異なること等を意味する。また、「異なるクラス」とは、保有している教師データのうち、他のクラスと比較して出現する頻度が少ないまたは全くないクラスを意味する。このため、「対象物体が示すクラスとは異なるクラスの対象物体を含む疑似画像を生成可能な疑似マスク画像を導出する」ことにより、既存の教師データには少ないまたは全くないクラスの教師データを用意することができる。したがって、このような教師データを既存の教師データとともに用いてセグメンテーションモデルの学習を行うことにより、出願頻度が少ない対象物体を含む画像についての対象物体をセグメンテーションできるように、セグメンテーションモデルを構築することができる。 "Different classes" means that the shape of the target object is different, or if the target object is a lesion included in a medical image, the degree of progression of the lesion is different. Furthermore, a "different class" refers to a class that appears less frequently than other classes, or does not appear at all, among the teacher data held. For this reason, by ``deriving a pseudo mask image that can generate a pseudo image that includes the target object in a class different from the class indicated by the target object,'' we prepare training data for classes that are small or absent in existing training data. can do. Therefore, by training a segmentation model using such training data together with existing training data, it is possible to construct a segmentation model that can segment target objects for images that include target objects that are rarely applied. can.

本開示の第5の態様に係る画像生成装置は、本開示の第1から第4のいずれか1つの態様に係る画像生成装置において、プロセッサは、医用画像に関して、臨床において評価指標となっている病変形状評価指標に基づいて、病変の形状および進行度の少なくとも一方が原画像に含まれる病変とは異なるものとなるようにマスクを加工することにより疑似マスク画像を導出するものであってもよい。 An image generation device according to a fifth aspect of the present disclosure is an image generation device according to any one of the first to fourth aspects of the present disclosure, in which the processor is an evaluation index in clinical practice regarding medical images. A pseudo mask image may be derived by processing the mask so that at least one of the shape and progression of the lesion is different from the lesion included in the original image based on the lesion shape evaluation index. .

本開示の第6の態様に係る画像生成装置は、本開示の第1から第5のいずれか1つの態様に係る画像生成装置において、プロセッサは、医用画像に関して、正常な臓器を臨床の計測指標に基づいて病変と評価される形状となるまでマスクを加工することにより疑似マスク画像を導出するものであってもよい。 An image generation device according to a sixth aspect of the present disclosure is the image generation device according to any one of the first to fifth aspects of the present disclosure. A pseudo mask image may be derived by processing the mask until it has a shape that is evaluated as a lesion based on the following.

本開示の第7の態様に係る画像生成装置は、本開示の第1から第6のいずれか1つの態様に係る画像生成装置において、プロセッサは、予め定められた濃度、色またはテクスチャを有する少なくとも1つのスタイル画像を参照して、スタイル画像に応じた濃度、色またはテクスチャを有する疑似画像を生成するものであってもよい。 An image generation device according to a seventh aspect of the present disclosure is an image generation device according to any one of the first to sixth aspects of the present disclosure, in which the processor includes at least one image having a predetermined density, color, or texture. A pseudo image having density, color, or texture according to the style image may be generated by referring to one style image.

「スタイル画像」とは、対象物体が有することがあり得る濃度、色およびテクスチャを有する対象物体と同一種類の物体を表す画像である。 A "style image" is an image that represents an object of the same type as the target object, having the density, color, and texture that the target object may have.

本開示の第8の態様に係る画像生成装置は、本開示の第1から第7のいずれか1つの態様に係る画像生成装置において、プロセッサは、マスクの加工の程度の指示を受け付け、指示に基づいてマスクを加工することにより疑似マスク画像を導出するものであってもよい。 An image generation device according to an eighth aspect of the present disclosure is the image generation device according to any one of the first to seventh aspects of the present disclosure, in which the processor receives an instruction regarding the degree of processing of the mask and responds to the instruction. A pseudo mask image may be derived by processing a mask based on the mask.

本開示の第9の態様に係る画像生成装置は、本開示の第8の態様に係る画像生成装置において、プロセッサは、加工後のマスクの端点の位置の指定および加工量の指定を加工の程度の指示として受け付けるものであってもよい。 In the image generation device according to a ninth aspect of the present disclosure, in the image generation device according to the eighth aspect of the present disclosure, the processor specifies the position of the end point of the mask after processing and the amount of processing. It may also be accepted as an instruction.

本開示の第10の態様に係る画像生成装置は、本開示の第8または第9の態様に係る画像生成装置において、プロセッサは、予め設定された拘束条件に従ってマスクの加工の程度の指示を受け付けるものであってもよい。 An image generation device according to a tenth aspect of the present disclosure is the image generation device according to the eighth or ninth aspect of the present disclosure, wherein the processor receives an instruction for the degree of processing of the mask according to preset constraint conditions. It may be something.

本開示の第11の態様に係る画像生成装置は、本開示の第1から第10のいずれか1つの態様に係る画像生成装置において、原画像が複数の物体を含み、対象物体と対象物体以外の他の物体の一部の領域が互いに包含関係にある場合、マスク画像には、包含関係にある領域は包含関係にない領域とは異なるマスクが付与されるものであってもよい。 An image generation device according to an eleventh aspect of the present disclosure is an image generation device according to any one of the first to tenth aspects of the present disclosure, in which the original image includes a plurality of objects, a target object and a target object other than the target object. When some regions of other objects have an inclusive relationship with each other, in the mask image, the areas that have an inclusive relationship may be given a different mask from those that do not have an inclusive relationship.

本開示の第12の態様に係る画像生成装置は、本開示の第11の態様に係る画像生成装置において、包含関係にある他の物体が原画像内において固定された物体である場合、プロセッサは、対象物体に付与されたマスクを固定された物体に付与されたマスクの形状に合わせて加工することにより疑似マスク画像を導出するものであってもよい。 An image generation device according to a twelfth aspect of the present disclosure is the image generation device according to the eleventh aspect of the present disclosure, in which when the other object in the inclusion relationship is a fixed object in the original image, the processor Alternatively, a pseudo mask image may be derived by processing a mask applied to a target object to match the shape of a mask applied to a fixed object.

本開示の第13の態様に係る画像生成装置は、本開示の第1から第12のいずれか1つの態様に係る画像生成装置において、原画像が3次元画像である場合、プロセッサは、対象物体の領域に付与されたマスクの3次元的な連続性を保持しつつマスクを加工することにより疑似マスク画像を導出するものであってもよい。 An image generation device according to a thirteenth aspect of the present disclosure is the image generation device according to any one of the first to twelfth aspects of the present disclosure, in which when the original image is a three-dimensional image, the processor The pseudo mask image may be derived by processing the mask while maintaining the three-dimensional continuity of the mask applied to the area.

本開示の第14の態様に係る画像生成装置は、本開示の第1から第13のいずれか1つの態様に係る画像生成装置において、原画像は3次元の医用画像であり、
対象物体は医用画像に含まれる病変であってもよい。
An image generation device according to a fourteenth aspect of the present disclosure is an image generation device according to any one of the first to thirteenth aspects of the present disclosure, wherein the original image is a three-dimensional medical image;
The target object may be a lesion included in a medical image.

本開示の第15の態様に係る画像生成装置は、本開示の第14の態様に係る画像生成装置において、医用画像は人体の直腸を含み、
対象物体は直腸がんであり、対象物体以外の他の物体は、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のうちの少なくとも1つであってもよい。
An image generation device according to a fifteenth aspect of the present disclosure is an image generation device according to a fourteenth aspect of the present disclosure, wherein the medical image includes a rectum of a human body;
The target object is rectal cancer, and the other object other than the target object is at least one of the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and a background other than these. It's okay.

本開示の第16の態様に係る画像生成装置は、本開示の第14の態様に係る画像生成装置において、医用画像は人体の関節を含み、
対象物体は関節を構成する骨であり、対象物体以外の他の物体は関節を構成する骨以外の背景であってもよい。
An image generation device according to a sixteenth aspect of the present disclosure is an image generation device according to a fourteenth aspect of the present disclosure, wherein the medical image includes a joint of a human body;
The target object is a bone forming a joint, and the object other than the target object may be a background other than the bones forming a joint.

本開示の第17の態様に係る学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、本開示の第1から第16の何れか1つの態様に係る画像生成装置により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する。
A learning device according to a seventeenth aspect of the present disclosure includes at least one processor,
The processor performs machine learning using, as training data, a set of a plurality of pseudo images and pseudo mask images generated by the image generation device according to any one of the first to sixteenth aspects of the present disclosure. A segmentation model is constructed to segment one or more object regions including a target object included in an image.

本開示の第18の態様に係る学習装置は、本開示の第17の態様に係る学習装置において、プロセッサは、さらに複数の原画像およびマスク画像の組を教師データとして用いて機械学習を行うことによりセグメンテーションモデルを構築するものであってもよい。 A learning device according to an eighteenth aspect of the present disclosure is a learning device according to a seventeenth aspect of the present disclosure, wherein the processor further performs machine learning using a plurality of sets of original images and mask images as training data. Alternatively, a segmentation model may be constructed by

本開示の第19の態様に係るセグメンテーションモデルは、本開示の第17または第18の態様に係る学習装置により構築される。 The segmentation model according to the nineteenth aspect of the present disclosure is constructed by the learning device according to the seventeenth or eighteenth aspect of the present disclosure.

本開示の第20の態様に係る画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、本開示の第19の態様に係るセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する。
An image processing device according to a twentieth aspect of the present disclosure includes at least one processor,
The processor uses the segmentation model according to the nineteenth aspect of the present disclosure to segment the region of one or more objects including the target object included in the target image to be processed. Derive a mask image in which the object is masked.

本開示の第21の態様に係る画像処理装置は、本開示の第20の態様に係る画像処理装置において、プロセッサは、マスク画像に含まれる対象物体のクラスを判別する判別モデルを用いて、マスク画像においてマスクされた対象物体のクラスを判別するものであってもよい。 An image processing apparatus according to a twenty-first aspect of the present disclosure is the image processing apparatus according to the twentieth aspect of the present disclosure, in which the processor uses a discriminant model that discriminates the class of the target object included in the mask image to The class of the target object masked in the image may be determined.

本開示の第22の態様に係る画像生成方法は、原画像および原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得し、
マスク画像におけるマスクを加工することにより疑似マスク画像を導出し、
原画像および疑似マスク画像に基づいて、疑似マスク画像に含まれるマスクに基づく領域を有し、かつ原画像と同一の表現形式を有する疑似画像を導出する。
An image generation method according to a twenty-second aspect of the present disclosure obtains an original image and a mask image in which a mask is applied to one or more regions representing each of one or more objects including a target object in the original image,
Derive a pseudo mask image by processing the mask in the mask image,
Based on the original image and the pseudo mask image, a pseudo image is derived that has a region based on the mask included in the pseudo mask image and has the same expression format as the original image.

本開示の第23の態様に係る学習方法は、本開示の第22の態様に係る画像生成方法により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する。 A learning method according to a twenty-third aspect of the present disclosure includes performing machine learning using a set of a plurality of pseudo images and a pseudo mask image generated by the image generation method according to the twenty-second aspect of the present disclosure as training data. A segmentation model is constructed to segment one or more object regions including the target object included in the input image.

本開示の第24の態様に係る画像処理方法は、本開示の第19の態様に係るセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する。 An image processing method according to a twenty-fourth aspect of the present disclosure uses the segmentation model according to the nineteenth aspect of the present disclosure to segment one or more object regions including a target object included in a target image to be processed. By doing so, a mask image in which one or more objects included in the target image is masked is derived.

本開示の第25の態様に係る画像生成プログラムは、原画像および原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得する手順と、
マスク画像におけるマスクを加工することにより疑似マスク画像を導出する手順と、
原画像および疑似マスク画像に基づいて、疑似マスク画像に含まれるマスクに基づく領域を有し、かつ原画像と同一の表現形式を有する疑似画像を導出する手順とをコンピュータに実行させる。
An image generation program according to a twenty-fifth aspect of the present disclosure includes a step of acquiring an original image and a mask image in which a mask is applied to one or more regions representing each of one or more objects including a target object in the original image;
A procedure for deriving a pseudo mask image by processing a mask in the mask image;
Based on the original image and the pseudo mask image, the computer executes a procedure for deriving a pseudo image that has a region based on a mask included in the pseudo mask image and has the same expression format as the original image.

本開示の第26の態様に係る学習プログラムは、本開示の第22の態様に係る画像生成方法により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する手順をコンピュータに実行させる。 A learning program according to a twenty-sixth aspect of the present disclosure performs machine learning using a set of a plurality of pseudo images and a pseudo mask image generated by the image generation method according to the twenty-second aspect of the present disclosure as training data. This causes the computer to execute a procedure for constructing a segmentation model that segments one or more object regions including the target object included in the input image.

本開示の第27の態様に係る画像処理プログラムは、本開示の第19の態様に係るセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する手順をコンピュータに実行させる。 An image processing program according to a twenty-seventh aspect of the present disclosure uses the segmentation model according to the nineteenth aspect of the present disclosure to segment a region of one or more objects including a target object included in a target image to be processed. This causes the computer to execute a procedure for deriving a mask image in which one or more objects included in the target image are masked.

本開示によれば、セグメンテーションを精度よく行うことが可能な機械学習モデルを提供できる。 According to the present disclosure, a machine learning model that can perform segmentation with high accuracy can be provided.

本開示の実施形態による画像生成装置、学習装置および画像処理装置を適用した診断支援システムの概略構成を示す図A diagram showing a schematic configuration of a diagnosis support system to which an image generation device, a learning device, and an image processing device according to an embodiment of the present disclosure are applied. 本実施形態による画像生成装置および学習装置のハードウェア構成を示す図A diagram showing the hardware configuration of an image generation device and a learning device according to the present embodiment 本実施形態による画像生成装置および学習装置の機能構成図Functional configuration diagram of an image generation device and a learning device according to this embodiment 直腸がんの進行を説明するための直腸の断面を模式的に示す図Diagram schematically showing a cross section of the rectum to explain the progression of rectal cancer 原画像およびマスク画像の例を示す図Diagram showing an example of original image and mask image 直腸がんについてのマスク加工画面を示す図Diagram showing the mask processing screen for rectal cancer 直腸がんについてのマスク加工画面を示す図Diagram showing the mask processing screen for rectal cancer 直腸がんについてのマスク加工画面を示す図Diagram showing the mask processing screen for rectal cancer マスク加工の他の例を示す図Diagram showing another example of mask processing マスク加工の他の例を示す図Diagram showing another example of mask processing ジェネレータおよびその学習を模式的に示す図Diagram schematically showing the generator and its learning 疑似マスクおよび疑似画像を示す図Diagram showing pseudo-mask and pseudo-image 本実施形態による画像処理装置のハードウェア構成を示す図A diagram showing the hardware configuration of an image processing device according to this embodiment 本実施形態による画像処理装置の機能構成図Functional configuration diagram of an image processing device according to this embodiment 表示画面を示す図Diagram showing the display screen 本実施形態における画像生成処理のフローチャートFlowchart of image generation processing in this embodiment 本実施形態における学習処理のフローチャートFlowchart of learning processing in this embodiment 本実施形態における画像処理のフローチャートFlowchart of image processing in this embodiment 骨棘についてのマスク加工画面を示す図Diagram showing the mask processing screen for bone spurs 骨棘についてのマスク加工画面を示す図Diagram showing the mask processing screen for bone spurs マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen マスク加工画面の他の例を示す図Diagram showing another example of the mask processing screen

以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像生成装置、学習装置および画像処理装置を適用した医療情報システムの構成について説明する。図1は、医療情報システムの概略構成を示す図である。図1に示す医療情報システムは、本実施形態による画像生成装置および学習装置を内包するコンピュータ1、本実施形態による画像処理装置を内包するコンピュータ2、撮影装置3、および画像保管サーバ4が、ネットワーク5を経由して通信可能な状態で接続されている。 Embodiments of the present disclosure will be described below with reference to the drawings. First, the configuration of a medical information system to which an image generation device, a learning device, and an image processing device according to this embodiment are applied will be described. FIG. 1 is a diagram showing a schematic configuration of a medical information system. In the medical information system shown in FIG. 1, a computer 1 including an image generation device and a learning device according to the present embodiment, a computer 2 containing an image processing device according to the present embodiment, an imaging device 3, and an image storage server 4 are connected to a network. 5 and is connected in a communicable state.

コンピュータ1は、本実施形態による画像生成装置および学習装置を内包するものであり、本実施形態の画像生成プログラムおよび学習プログラムがインストールされている。コンピュータ1は、ワークステーションあるいはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像生成プログラムおよび学習プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータ1にダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータ1にインストールされる。 The computer 1 includes an image generation device and a learning device according to the present embodiment, and has the image generation program and learning program according to the present embodiment installed therein. The computer 1 may be a workstation or a personal computer, or a server computer connected thereto via a network. The image generation program and the learning program are stored in a storage device of a server computer connected to a network or in a network storage in a state that can be accessed from the outside, and are downloaded and installed in the computer 1 according to a request. Alternatively, it is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), and installed on the computer 1 from the recording medium.

コンピュータ2は、本実施形態による画像処理装置を内包するものであり、本実施形態の画像処理プログラムがインストールされている。コンピュータ2は、ワークステーションあるいはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータ2にダウンロードされ、インストールされる。または、DVDあるいはCD-ROM等の記録媒体に記録されて配布され、その記録媒体からコンピュータ2にインストールされる。 The computer 2 includes an image processing apparatus according to the present embodiment, and has an image processing program according to the present embodiment installed therein. The computer 2 may be a workstation or a personal computer, or a server computer connected thereto via a network. The image processing program is stored in a storage device of a server computer connected to a network or in a network storage in a state that can be accessed from the outside, and is downloaded and installed in the computer 2 according to a request. Alternatively, it is recorded and distributed on a recording medium such as a DVD or CD-ROM, and installed on the computer 2 from the recording medium.

撮影装置3は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。撮影装置3により生成された、複数の断層画像からなる3次元画像は画像保管サーバ4に送信され、保存される。なお、本実施形態においては、撮影装置3はMRI装置であり、被検体である人体のMRI画像を3次元画像として生成する。また、本実施形態においては、3次元画像は、人体の直腸付近を含む3次元画像とする。このため、直腸がんの患者を撮影した場合、3次元画像には直腸がんが含まれる。 The imaging device 3 is a device that generates a three-dimensional image representing the region of the subject by photographing the region to be diagnosed. Specifically, the imaging device 3 is a device that generates a three-dimensional image representing the region of the subject. ) equipment, etc. A three-dimensional image composed of a plurality of tomographic images generated by the imaging device 3 is transmitted to the image storage server 4 and stored. Note that in this embodiment, the imaging device 3 is an MRI device, and generates an MRI image of a human body, which is a subject, as a three-dimensional image. Furthermore, in this embodiment, the three-dimensional image is a three-dimensional image including the vicinity of the rectum of the human body. Therefore, when a patient with rectal cancer is photographed, the three-dimensional image includes the rectal cancer.

画像保管サーバ4は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ4は、有線あるいは無線のネットワーク5を介して他の装置と通信を行い、画像データ等を送受信する。具体的には撮影装置3で生成された3次元画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。また、画像保管サーバ4には、後述するように疑似画像を導出したり、異常部位を検出したり、異常部位のクラスを判別したりするための機械学習モデルを構築するための教師データも保管されている。なお、画像データの格納形式およびネットワーク5経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。 The image storage server 4 is a computer that stores and manages various data, and includes a large-capacity external storage device and database management software. The image storage server 4 communicates with other devices via a wired or wireless network 5 and sends and receives image data and the like. Specifically, various data including image data of a three-dimensional image generated by the photographing device 3 is acquired via a network, and is stored and managed in a recording medium such as a large-capacity external storage device. The image storage server 4 also stores training data for constructing machine learning models for deriving pseudo images, detecting abnormal areas, and determining classes of abnormal areas, as described later. has been done. Note that the storage format of image data and the communication between each device via the network 5 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).

次いで、本実施形態による画像生成装置および学習装置について説明する。図2は、本実施形態による画像生成装置および学習装置のハードウェア構成を示す図である。図2に示すように、画像生成装置および学習装置(以下、画像生成装置で代表させる)20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶
領域としてのメモリ16を含む。また、画像生成装置20は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク5に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
Next, an image generation device and a learning device according to this embodiment will be explained. FIG. 2 is a diagram showing the hardware configuration of the image generation device and the learning device according to this embodiment. As shown in FIG. 2, an image generation device and a learning device (hereinafter referred to as image generation device) 20 includes a CPU (Central Processing Unit) 11, a nonvolatile storage 13, and a memory 16 as a temporary storage area. . The image generation device 20 also includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I/F (InterFace) 17 connected to the network 5. The CPU 11, storage 13, display 14, input device 15, memory 16, and network I/F 17 are connected to the bus 18. Note that the CPU 11 is an example of a processor in the present disclosure.

ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像生成プログラム12Aおよび学習プログラム12Bが記憶される。CPU11は、ストレージ13から画像生成プログラム12Aおよび学習プログラム12Bを読み出してメモリ16に展開し、展開した画像生成プログラム12Aおよび学習プログラム12Bを実行する。 The storage 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The storage 13 as a storage medium stores an image generation program 12A and a learning program 12B. The CPU 11 reads the image generation program 12A and the learning program 12B from the storage 13, expands them into the memory 16, and executes the expanded image generation program 12A and learning program 12B.

次いで、本実施形態による画像生成装置および学習装置の機能的な構成を説明する。図3は、本実施形態による画像生成装置および学習装置の機能的な構成を示す図である。図3に示すように画像生成装置20は、情報取得部21、疑似マスク導出部22、疑似画像導出部23および学習部24を備える。そして、CPU11が画像生成プログラム12Aを実行することにより、CPU11は、情報取得部21、疑似マスク導出部22、および疑似画像導出部23として機能する。また、CPUが学習プログラム12Bを実行することにより、CPU11は学習部24として機能する。 Next, the functional configurations of the image generation device and learning device according to this embodiment will be explained. FIG. 3 is a diagram showing the functional configuration of the image generation device and the learning device according to this embodiment. As shown in FIG. 3, the image generation device 20 includes an information acquisition section 21, a pseudo mask derivation section 22, a pseudo image derivation section 23, and a learning section 24. When the CPU 11 executes the image generation program 12A, the CPU 11 functions as an information acquisition section 21, a pseudo mask derivation section 22, and a pseudo image derivation section 23. Furthermore, the CPU 11 functions as the learning section 24 by executing the learning program 12B.

情報取得部21は、後述する疑似画像を導出するために使用される原画像G0を画像保管サーバ4から取得する。また、情報取得部21は、後述する学習済みモデルを構築するための教師データを画像保管サーバ4から取得する。 The information acquisition unit 21 acquires an original image G0 used for deriving a pseudo image, which will be described later, from the image storage server 4. The information acquisition unit 21 also acquires teacher data for constructing a learned model, which will be described later, from the image storage server 4.

ここで、本実施形態においては、原画像G0は、原画像G0に含まれる物体の領域にマスクが付与されたマスク画像M0と併せて保管されている。また、原画像G0に直腸がんが含まれる場合、直腸がんのステージを表す情報が原画像G0に付与されている。 Here, in this embodiment, the original image G0 is stored together with a mask image M0 in which a mask is applied to the object area included in the original image G0. Furthermore, when the original image G0 includes rectal cancer, information representing the stage of the rectal cancer is added to the original image G0.

マスクの付与は、原画像G0に対して入力デバイス15を用いたマニュアル操作により行ってもよく、原画像G0をセグメンテーションすることにより行ってもよい。セグメンテーションとしては、画像の全ピクセルをピクセル単位でラベリングすることによりクラス分類を行うセマンティックセグメンテーションが用いられる。セマンティックセグメンテーションは、画像に含まれる物体の領域を抽出するように機械学習がなされることにより構築された機械学習モデルであるセマンティックセグメンテーションモデルにより行われる。セマンティックセグメンテーションモデルについては後述する。なお、画像保管サーバ4に保管される原画像G0およびマスク画像M0は、後述する本実施形態の画像処理装置により導出されたものであってもよい。 The mask may be applied to the original image G0 by manual operation using the input device 15, or by segmenting the original image G0. Semantic segmentation is used for segmentation, which performs class classification by labeling all pixels of an image pixel by pixel. Semantic segmentation is performed using a semantic segmentation model, which is a machine learning model constructed by machine learning to extract the region of an object included in an image. The semantic segmentation model will be described later. Note that the original image G0 and mask image M0 stored in the image storage server 4 may be those derived by the image processing device of this embodiment described later.

本実施形態においては、後述する画像処理装置において、処理対象となる対象画像から直腸がんを検出する。このため、原画像G0は、原画像G0に含まれる直腸がん、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のそれぞれの領域を識別するためのマスクがマスク画像M0として原画像G0に付与されている。原画像G0に含まれる直腸がんが対象物体の一例であり、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景が、対象物体以外の他の物体の一例である。 In the present embodiment, rectal cancer is detected from a target image to be processed by an image processing apparatus to be described later. Therefore, the original image G0 identifies the respective areas of rectal cancer, the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and other background areas included in the original image G0. A mask for this purpose is added to the original image G0 as a mask image M0. The rectal cancer included in the original image G0 is an example of the target object, and the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and the background other than these are other than the target object. This is an example of an object.

ここで、初期の直腸がんは粘膜層にのみ存在するが、直腸がんが進行すると粘膜層から外側に広がり、粘膜下層および固有筋層へ浸潤し、粘膜下層および固有筋層と包含関係を有するものとなる。図4は直腸がんの進行を説明するための直腸の断面を模式的に示す図である。図4に示すように、直腸30は、粘膜層31、粘膜下層32、固有筋層33および漿膜下層34からなる。図4には、がんの進行度合い、すなわちがんのステージに応じた直腸がん35の領域にハッチングを付与して示す。図4に示すように、初期のステージT1,T2の直腸がん35は直腸30の粘膜層31に位置するが、直腸がん35が進行すると粘膜下層32へ浸潤し(ステージT3ab)、さらに固有筋層33へ浸潤し(ステージT3cd)、徐々に漿膜下層34へ近づく(ステージT3MRF+)。さらに進行すると固有筋層33および漿膜下層34を突き破り(ステージT4a)、他の臓器にまで到達する(ステージT4b)。なお、直腸がんの各ステージが本開示の異なるクラスに対応する。 In the early stages, rectal cancer exists only in the mucosal layer, but as rectal cancer progresses, it spreads outward from the mucosal layer, invades the submucosa and muscularis propria, and forms an inclusive relationship with the submucosa and muscularis propria. Become what you have. FIG. 4 is a diagram schematically showing a cross section of the rectum to explain the progression of rectal cancer. As shown in FIG. 4, the rectum 30 consists of a mucosal layer 31, a submucosal layer 32, a muscularis propria 33, and a subserosal layer 34. In FIG. 4, regions of rectal cancer 35 are shown hatched according to the degree of progression of the cancer, that is, the stage of the cancer. As shown in FIG. 4, rectal cancer 35 at early stages T1 and T2 is located in the mucosal layer 31 of the rectum 30, but as rectal cancer 35 progresses, it invades the submucosa 32 (stage T3ab) and further It invades the muscular layer 33 (stage T3cd) and gradually approaches the subserosal layer 34 (stage T3MRF+). As it progresses further, it breaks through the muscularis propria 33 and the subserosal layer 34 (stage T4a) and reaches other organs (stage T4b). Note that each stage of rectal cancer corresponds to a different class in the present disclosure.

図5は原画像G0およびマスク画像M0の例を示す図である。図5に示す原画像G0は直腸における直腸がんが存在する部分を直腸の中心軸に交わる方向に切断した断層面を示している。図5に示す原画像G0においては、直腸がん35が粘膜層31から外側に広がり、粘膜下層32および固有筋層33へ浸潤し、その結果、直腸がん35と粘膜層31、粘膜下層32および固有筋層33とは包含関係を有するものとなっている。なお、図5において直腸がん35は漿膜下層34には浸潤していない。 FIG. 5 is a diagram showing an example of the original image G0 and the mask image M0. The original image G0 shown in FIG. 5 shows a tomographic plane obtained by cutting a portion of the rectum where rectal cancer exists in a direction intersecting the central axis of the rectum. In the original image G0 shown in FIG. It has an inclusive relationship with the muscularis propria and the muscularis propria 33. In addition, in FIG. 5, the rectal cancer 35 has not invaded the subserosal layer 34.

本実施形態においては、原画像G0において包含関係にある領域は、包含関係にない領域とは異なるマスクが付与される。例えば、図5に示すマスク画像M0は、粘膜層31、粘膜下層32、固有筋層33および漿膜下層34にはそれぞれマスクM1,M2,M3,M4が付与されている。直腸がん35において直腸のいずれの組織にも包含関係にない領域にはマスクM5が付与されている。直腸がん35において粘膜層31と包含関係にある領域にはマスクM6が付与され、粘膜下層32と包含関係にある領域にはマスクM7が付与され、固有筋層33と包含関係にある領域にはマスクM8が付与される。なお、図5においては背景のマスクは省略している。 In this embodiment, areas in an inclusive relationship in the original image G0 are given a different mask from areas that are not in an inclusive relationship. For example, in the mask image M0 shown in FIG. 5, masks M1, M2, M3, and M4 are applied to the mucosal layer 31, the submucosa layer 32, the muscularis propria 33, and the subserosa layer 34, respectively. In the rectal cancer 35, a mask M5 is given to a region that is not included in any tissue of the rectum. In the rectal cancer 35, a mask M6 is applied to an area in an inclusive relationship with the mucosal layer 31, a mask M7 is applied to an area in an inclusive relationship with the submucosal layer 32, and a mask M7 is applied to an area in an inclusive relationship with the muscularis propria 33. is given mask M8. Note that in FIG. 5, the background mask is omitted.

なお、マスク画像M0をセグメンテーションモデルにより導出する場合、セマンティックセグメンテーションモデルにより包含関係にある領域をセグメンテーションするためには、包含関係にある領域と包含関係にない領域とを異なるようにマスクした正解データを含む教師データを用意して機械学習を行うことにより、セグメンテーションモデルを構築すればよい。 Note that when deriving the mask image M0 using a segmentation model, in order to segment regions that have an inclusion relationship using a semantic segmentation model, correct data that masks regions that have an inclusion relationship and areas that do not have an inclusion relationship differently must be used. A segmentation model can be constructed by preparing training data including the following and performing machine learning.

疑似マスク導出部22は、原画像G0のマスク画像M0に含まれるマスクを加工することにより疑似マスク画像を導出する。このために、表示制御部74がマスク加工画面をディスプレイ14に表示する。図6はマスク加工画面を示す図である。図6に示すようにマスク加工画面40には、マスク画像M0、マスク画像M0に含まれるマスクM0が加工されることにより得られるマスクMf0を含む疑似マスク画像Mf0、原画像G0に含まれる直腸がんの3次元モデル41、および3次元モデル41の変形の程度を設定するためのプルダウンメニュー26、マスクの加工を実行させるための加工ボタン27、および疑似画像を導出させるための変換ボタン28が表示されている。 The pseudo mask deriving unit 22 derives a pseudo mask image by processing the mask included in the mask image M0 of the original image G0. For this purpose, the display control unit 74 displays a mask processing screen on the display 14. FIG. 6 is a diagram showing a mask processing screen. As shown in FIG. 6, the mask processing screen 40 includes a mask image M0, a pseudo mask image Mf0 including a mask Mf0 obtained by processing the mask M0 included in the mask image M0, and a rectum included in the original image G0. A pull-down menu 26 for setting the three-dimensional model 41 and the degree of deformation of the three-dimensional model 41, a processing button 27 for performing mask processing, and a conversion button 28 for deriving a pseudo image are displayed. has been done.

なお、図6に示すマスク画像M0および疑似マスク画像Mf0は、直腸における直腸がんが存在する部分を直腸の中心軸に交わる方向に切断した断層面を示している。また、ここでは説明のために、図6に示すマスク画像M0は原画像G0において加工を行う直腸がんの領域にのみマスクMs0が付与された画像となっている。また、疑似マスク画像Mf0には加工される直腸がんのマスクのみに参照符号Msf0を付与している。図6に示すマスク画像M0と疑似マスク画像Mf0とはマスクの加工前であるため、それぞれに付与されたマスクMs0,Msf0は同一形状である。ここで、図6に示す直腸がんは、図4に示す直腸がんのステージとしてはステージT3abである。 Note that the mask image M0 and pseudo-mask image Mf0 shown in FIG. 6 show tomographic planes obtained by cutting a portion of the rectum where rectal cancer exists in a direction intersecting the central axis of the rectum. For the purpose of explanation, the mask image M0 shown in FIG. 6 is an image in which a mask Ms0 is applied only to the rectal cancer region to be processed in the original image G0. Further, in the pseudo mask image Mf0, only the rectal cancer mask to be processed is given the reference code Msf0. Since the mask image M0 and the pseudo mask image Mf0 shown in FIG. 6 are before mask processing, the masks Ms0 and Msf0 given to each have the same shape. Here, the rectal cancer shown in FIG. 6 is at stage T3ab as the stage of the rectal cancer shown in FIG. 4.

3次元モデル41は、原画像G0における直腸がんの領域のみを抽出してボリュームレンダリングすることにより導出された3次元的な画像である。操作者は入力デバイス15を操作することにより、3次元モデル41の全方向の向きを変更することができる。 The three-dimensional model 41 is a three-dimensional image derived by extracting only the region of rectal cancer in the original image G0 and performing volume rendering. By operating the input device 15, the operator can change the orientation of the three-dimensional model 41 in all directions.

プルダウンメニュー26は直腸がんのステージを選択可能とされている。すなわち、プルダウンメニュー26は、図4に示す直腸がんのステージT1、T2、T3ab、T3cd、T3MRF+、T4aおよびT4bを選択可能となっている。 The pull-down menu 26 allows selection of the stage of rectal cancer. That is, the pull-down menu 26 allows selection of rectal cancer stages T1, T2, T3ab, T3cd, T3MRF+, T4a, and T4b shown in FIG. 4.

本実施形態においては、疑似マスク導出部22は、対象物体が示すクラスとは異なるクラスの対象物体を含む疑似画像を生成可能な疑似マスク画像を導出する。すなわち、疑似マスク画像Mf0の導出に際して、疑似マスク導出部22は、原画像G0に含まれる直腸がんのステージとは異なるステージの直腸がんを含む疑似画像を生成可能なように3次元モデル41を変形させてマスクを加工する。例えば、原画像G0に含まれる直腸がんのステージが粘膜層にのみ存在するステージT1である場合、直腸がんの3次元モデル41を固有筋層まで伸びるように変形することにより、3次元モデル41は、例えばステージT1から進んだステージT3abの直腸がんに相当するものとなる。さらに、直腸がんの3次元モデル41を固有筋層を突き破るように変形することにより、3次元モデル41はステージT4aの直腸がんに相当するものとなる。 In the present embodiment, the pseudo mask deriving unit 22 derives a pseudo mask image that can generate a pseudo image including a target object of a class different from the class indicated by the target object. That is, when deriving the pseudo mask image Mf0, the pseudo mask deriving unit 22 uses the three-dimensional model 41 to generate a pseudo image containing rectal cancer at a stage different from the stage of rectal cancer included in the original image G0. Process the mask by transforming it. For example, if the stage of rectal cancer included in the original image G0 is stage T1, which exists only in the mucosal layer, the three-dimensional model 41 of the rectal cancer is transformed so as to extend to the muscularis propria. 41 corresponds to, for example, rectal cancer at stage T3ab, which has progressed from stage T1. Furthermore, by deforming the three-dimensional model 41 of rectal cancer so as to break through the muscularis propria, the three-dimensional model 41 corresponds to stage T4a rectal cancer.

このため、操作者は、表示されたマスク画像M0を見て、疑似画像として生成する直腸がんのステージをプルダウンメニュー26から選択する。図6においては、ステージT3MRF+が選択された状態を示している。直腸がんのステージの選択後、操作者により加工ボタン27が選択されると、疑似マスク導出部22は、3次元モデル41により表される直腸がんのステージがT3MRF+となるように3次元モデル41を変形する。さらに、疑似マスク導出部22は、疑似マスク画像Mf0に付与されているマスクMsf0を、変形した3次元モデル41の形状に適合するように加工する。 Therefore, the operator looks at the displayed mask image M0 and selects the stage of rectal cancer to be generated as a pseudo image from the pull-down menu 26. FIG. 6 shows a state in which stage T3MRF+ is selected. When the operator selects the processing button 27 after selecting the stage of rectal cancer, the pseudo mask deriving unit 22 creates a three-dimensional model so that the stage of rectal cancer represented by the three-dimensional model 41 is T3MRF+. Transform 41. Furthermore, the pseudo-mask deriving unit 22 processes the mask Msf0 given to the pseudo-mask image Mf0 so that it conforms to the shape of the deformed three-dimensional model 41.

なお、疑似マスク画像Mf0の導出に際して、疑似マスク導出部22は、医用画像に関して臨床において評価指標となっている病変形状評価指標に基づいて、病変の形状および/または進行度が原画像G0に含まれる病変とは異なるものとなるように3次元モデル41を変形する。すなわち、原画像G0に含まれる直腸がんの形状および/または進行度が、例えばステージT3abからステージT3MRF+となるように、直腸がんの形状を変形する。あるいは、医用画像に関して正常な臓器を臨床の計測指標に基づいて病変と評価される形状となるまで3次元モデル41を変形する。 Note that when deriving the pseudo mask image Mf0, the pseudo mask deriving unit 22 determines whether the shape and/or degree of progression of the lesion is included in the original image G0 based on a lesion shape evaluation index that is a clinical evaluation index for medical images. The three-dimensional model 41 is deformed so that it becomes a lesion different from that of the lesion. That is, the shape of the rectal cancer included in the original image G0 is changed so that the shape and/or the degree of progression of the rectal cancer changes from stage T3ab to stage T3MRF+, for example. Alternatively, the three-dimensional model 41 is deformed until a normal organ in a medical image has a shape that can be evaluated as a lesion based on clinical measurement indicators.

また、疑似マスク導出部22は、直腸がんに付与されたマスクの3次元的な連続性を保持しつつマスクを加工する。例えば、3次元モデル41を直腸の外側に向けて延ばすように変形する際に、3次元モデル41における直腸の中心から離れるほど変形の程度を小さくする。これにより、元の3次元モデル41における3次元的な連続性を保持しつつ3次元モデル41を変形することができ、その結果、直腸がんに付与されたマスクの3次元的な連続性を保持しつつマスクを加工することができる。 Further, the pseudo mask deriving unit 22 processes the mask while maintaining the three-dimensional continuity of the mask applied to the rectal cancer. For example, when deforming the three-dimensional model 41 so as to extend it toward the outside of the rectum, the degree of deformation is made smaller as the distance from the center of the rectum in the three-dimensional model 41 increases. As a result, the three-dimensional model 41 can be transformed while maintaining the three-dimensional continuity of the original three-dimensional model 41, and as a result, the three-dimensional continuity of the mask applied to rectal cancer can be changed. You can process the mask while holding it.

また、3次元モデル41は直腸がんに対応し、直腸がんのステージを進行させるように3次元モデル41を変形することは、直腸がんを直腸の粘膜下層さらには固有筋層に浸潤させることとなる。ここで、直腸がんは進行により拡大したり変形したりするが、その変形の仕方は直腸の形状に依存する。すなわち、直腸がんは直腸の形状に合うように拡大したり変形したりする。ここで、直腸は原画像G0内においては移動および変形することなく固定されている。このため、疑似マスク導出部22は、直腸がんの周囲にある固定された粘膜下層および固有筋層に付与されたマスクの形状に合わせて3次元モデル41を変形する。これにより、直腸の形状に合った自然な形状の直腸がんを表す疑似マスク画像Mf0を導出することができる。 Furthermore, the three-dimensional model 41 corresponds to rectal cancer, and deforming the three-dimensional model 41 to advance the stage of rectal cancer causes rectal cancer to invade the submucosa of the rectum and even the muscularis propria. That will happen. Rectal cancer expands and deforms as it progresses, but the way it deforms depends on the shape of the rectum. That is, rectal cancer expands and deforms to fit the shape of the rectum. Here, the rectum is fixed within the original image G0 without moving or deforming. For this reason, the pseudo mask deriving unit 22 deforms the three-dimensional model 41 in accordance with the shape of the mask applied to the fixed submucosal layer and muscularis propria around the rectal cancer. Thereby, it is possible to derive a pseudo mask image Mf0 that represents rectal cancer in a natural shape that matches the shape of the rectum.

図7にはマスク加工画面40において、3次元モデル41がステージT3abの直腸がんからステージT3MRF+の直腸がんを表すものとなるように変形されて領域41Aが付加された状態を示している。3次元モデル41の変形に伴い、疑似マスク画像Mf0には、マスク画像M0のマスクMs0が加工されたマスクMsf0が付与されている。 FIG. 7 shows a state in which the three-dimensional model 41 has been transformed from stage T3ab rectal cancer to stage T3MRF+ rectal cancer and a region 41A has been added on the mask processing screen 40. As the three-dimensional model 41 is deformed, a mask Msf0 obtained by processing the mask Ms0 of the mask image M0 is added to the pseudo mask image Mf0.

なお、3次元モデル41の変形の程度を操作者が指示できるようにしてもよい。図8は3次元モデルの変形の程度を操作者が指示可能なマスク加工画面を示す図である。なお、図8において図6と同一の構成要素については同一の参照番号を付与し、ここでは詳細な説明は省略する。図8に示すようにマスク加工画面40には、図6に示すプルダウンメニュー26および加工ボタン27に代えて、3次元モデル41の変形の程度を調整するためのスケール42が表示されている。 Note that the operator may be able to instruct the degree of deformation of the three-dimensional model 41. FIG. 8 is a diagram showing a mask processing screen on which the operator can instruct the degree of deformation of the three-dimensional model. Note that in FIG. 8, the same reference numerals are given to the same components as in FIG. 6, and detailed explanations are omitted here. As shown in FIG. 8, the mask processing screen 40 displays a scale 42 for adjusting the degree of deformation of the three-dimensional model 41, in place of the pull-down menu 26 and processing button 27 shown in FIG.

図8に示すマスク加工画面40Aにおいて、操作者は、入力デバイス15を用いてスケール42の摘子42Aを移動させることにより、3次元モデル41の変形の程度を指定する。これにより疑似マスク導出部22は、指定された位置を起点として3次元モデル41を延ばすように変形し、さらに疑似マスク画像Mf0に付与されているマスクMsf0を、伸ばした3次元モデル41の形状に適合するように加工する。この場合においても、疑似マスク導出部22は、操作者が指定した医用画像に関して臨床において評価指標となっている病変形状評価指標に基づいて、病変の形状および/または進行度が原画像G0に含まれる病変とは異なるものとなるように3次元モデル41を変形する。また、疑似マスク導出部22は、直腸がんに付与されたマスクの3次元的な連続性を保持しつつマスクを加工する。 On the mask processing screen 40A shown in FIG. 8, the operator specifies the degree of deformation of the three-dimensional model 41 by moving the knob 42A of the scale 42 using the input device 15. As a result, the pseudo mask deriving unit 22 deforms the three-dimensional model 41 so as to extend it from the specified position, and further transforms the mask Msf0 given to the pseudo mask image Mf0 into the shape of the extended three-dimensional model 41. Process it to fit. In this case as well, the pseudo mask deriving unit 22 determines whether the shape and/or degree of progression of the lesion is included in the original image G0 based on the lesion shape evaluation index, which is a clinical evaluation index for the medical image specified by the operator. The three-dimensional model 41 is deformed so that it becomes a lesion different from that of the lesion. Further, the pseudo mask deriving unit 22 processes the mask while maintaining the three-dimensional continuity of the mask applied to the rectal cancer.

なお、疑似マスク画像Mf0の導出は、上記のように指定された直腸がんのステージに応じたものには限定されない。例えば、浸潤リンパ節のような複数の棘状突起を有するマスクを生成するために、図6に示すマスク加工画面40において、直腸がんのステージを選択するプルダウンメニュー26に加えて、またはこれに代えて棘状突起の付与の有無を選択するためのプルダウンメニューを表示するようにしてもよい。また、図8に示すスケール42に加えて、棘状突起の付与の有無を選択するためのプルダウンメニューを表示するようにしてもよい。この場合、マスク加工画面40の3次元モデル41は、図9に示すように浸潤リンパ節43が付与されたものとなり、疑似マスク画像Mf0は直腸がんのマスクMsf0に浸潤リンパ節43の領域が追加されたものとなる。 Note that the derivation of the pseudo mask image Mf0 is not limited to that according to the stage of rectal cancer specified as described above. For example, in order to generate a mask having multiple spinous processes such as infiltrated lymph nodes, in the mask processing screen 40 shown in FIG. Alternatively, a pull-down menu for selecting whether to add spinous processes may be displayed. Further, in addition to the scale 42 shown in FIG. 8, a pull-down menu for selecting whether or not to add spinous processes may be displayed. In this case, the three-dimensional model 41 on the mask processing screen 40 has the infiltrated lymph nodes 43 added thereto as shown in FIG. It will be added.

また、血管浸潤のような小さな突起を有するマスクを生成するために、図6に示すマスク加工画面40において、直腸がんのステージを選択するプルダウンメニュー26に加えて、またはこれに代えて突起の付与の有無を選択するためのプルダウンメニューを表示するようにしてもよい。また、図8に示すスケール42に加えて、突起の付与の有無を選択するためのプルダウンメニューを表示するようにしてもよい。なお、直腸がんにおける突起を付与する位置および突起の先端位置は操作者が入力デバイス15を用いて指定することとなる。この場合、マスク加工画面40の3次元モデル41は、図10に示すように突起を付与する位置および突起の先端位置が例えばスプライン補間等により補間されて、血管浸潤44が付与されたものとなる。なお、図10に示す3次元モデル41においては、2つの血管浸潤が付与されている。また、疑似マスク画像Mf0は直腸がんのマスクに2つの血管浸潤44の領域が追加されたものとなる。 In order to generate a mask having small protrusions such as vascular invasion, in addition to or in place of the pull-down menu 26 for selecting the stage of rectal cancer, in the mask processing screen 40 shown in FIG. A pull-down menu may be displayed for selecting whether to grant or not. Furthermore, in addition to the scale 42 shown in FIG. 8, a pull-down menu for selecting whether or not to provide protrusions may be displayed. Note that the position where the protrusion is to be provided and the position of the tip of the protrusion in rectal cancer are specified by the operator using the input device 15. In this case, the three-dimensional model 41 on the mask processing screen 40 has a vascular invasion 44 added thereto by interpolating the protrusion placement position and the tip position of the protrusion by, for example, spline interpolation, as shown in FIG. . Note that in the three-dimensional model 41 shown in FIG. 10, two blood vessel invasions are added. Further, the pseudo mask image Mf0 is obtained by adding two areas of blood vessel invasion 44 to the rectal cancer mask.

また、疑似マスク導出部22は、導出された疑似マスク画像Mf0についての直腸がんのステージを表す情報を導出する。ここで、図6に示すマスク加工画面40においては直腸がんのステージが操作者によりプルダウンメニュー26から選択されているため、選択された直腸がんのステージをそのまま用いればよい。一方、図8に示すマスク加工画面40Aにおいては、加工の程度が操作者により指示されている。このため、疑似マスク導出部22は、疑似マスク画像Mf0に含まれる直腸がんについて、マスクMsf0の粘膜層31からの深さに応じてステージを判定し、ステージを表す情報を疑似マスク画像Mf0に付与する。なお、疑似マスク画像Mf0における直腸がんのステージを表す情報は、操作者による入力デバイス15からの入力に基づくものであってもよい。 Further, the pseudo mask deriving unit 22 derives information representing the stage of rectal cancer for the derived pseudo mask image Mf0. Here, in the mask processing screen 40 shown in FIG. 6, since the stage of rectal cancer is selected by the operator from the pull-down menu 26, the selected stage of rectal cancer may be used as is. On the other hand, on the mask processing screen 40A shown in FIG. 8, the degree of processing is instructed by the operator. Therefore, the pseudo-mask deriving unit 22 determines the stage of the rectal cancer included in the pseudo-mask image Mf0 according to the depth of the mask Msf0 from the mucous membrane layer 31, and adds information representing the stage to the pseudo-mask image Mf0. Give. Note that the information representing the stage of rectal cancer in the pseudo mask image Mf0 may be based on input from the input device 15 by the operator.

疑似画像導出部23は、マスク加工画面40において変換ボタン28が選択されると、原画像G0および疑似マスク画像Mf0に基づいて、疑似マスク画像Mf0に含まれるマスクに基づく領域を有する疑似画像を導出する。このために、疑似画像導出部23は、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)を用いて学習がなされたジェネレータ50を有する。ジェネレータ50は直腸がんを含む原画像G0およびマスク画像が入力されると、マスク画像に含まれるマスクに基づく領域を有する疑似画像を出力するように学習がなされることにより構築される。 When the conversion button 28 is selected on the mask processing screen 40, the pseudo image deriving unit 23 derives a pseudo image having a region based on the mask included in the pseudo mask image Mf0, based on the original image G0 and the pseudo mask image Mf0. do. For this purpose, the pseudo image deriving unit 23 includes a generator 50 trained using Generative Adversarial Networks (GAN). The generator 50 is constructed by learning to output a pseudo image having a region based on the mask included in the mask image when the original image G0 containing rectal cancer and a mask image are input.

本実施形態においては、疑似画像とは、原画像G0を取得したモダリティにより取得される画像と同一の表現形式を有する画像を意味する。すなわち、原画像G0がMRI撮影装置により取得されたMRI画像である場合、疑似画像とは、MRI画像と同一の表現形式を有する画像を意味する。ここで、表現形式が同一であるとは、同一の組成を有する構造物については、同一の濃度あるいは輝度で表されることを意味する。 In this embodiment, a pseudo image means an image having the same expression format as the image acquired by the modality that acquired the original image G0. That is, when the original image G0 is an MRI image acquired by an MRI imaging device, the pseudo image means an image having the same expression format as the MRI image. Here, the expression format is the same means that structures having the same composition are expressed with the same density or brightness.

ここで、ジェネレータ50は、例えば「Semantic Image Synthesis with Spatially-Adaptive Normalization、Parkら、arXiv:1903.07291v2 [cs.CV] 5 Nov 2019」に記載されたマスク画像から疑似画像を生成するSPADEの手法により構築されたジェネレータを用いることができる。 Here, the generator 50 uses, for example, the SPADE method of generating a pseudo image from a mask image described in "Semantic Image Synthesis with Spatially-Adaptive Normalization, Park et al., arXiv:1903.07291v2 [cs.CV] 5 Nov 2019". A constructed generator can be used.

図11はジェネレータおよびその学習を模式的に示す図である。図11に示すように、ジェネレータ50は、エンコーダ51およびデコーダ52を有する。本実施形態においては、ジェネレータ50は後述するディスクリミネータ53とともに敵対的生成ネットワーク(GAN)を構成する。なお、図11に示す例においては、直腸を含むMRI画像である学習用画像S1および学習用画像S1における直腸がん、粘膜層、粘膜下層、固有筋層および漿膜下層にマスクが付与された学習用マスク画像S2からなる教師データS0が用意される。 FIG. 11 is a diagram schematically showing a generator and its learning. As shown in FIG. 11, generator 50 includes an encoder 51 and a decoder 52. In this embodiment, the generator 50 constitutes a generative adversarial network (GAN) together with a discriminator 53, which will be described later. In the example shown in FIG. 11, the learning image S1 is an MRI image including the rectum, and the learning image in which masks are applied to the rectal cancer, mucosal layer, submucosal layer, muscularis propria, and subserosal layer in the learning image S1. Teacher data S0 consisting of a mask image S2 is prepared.

ジェネレータ50を構成するエンコーダ51は、複数の処理層が階層的に接続された多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))からなり、本実施形態においては、学習用画像S1が入力されると直腸を含むMRI画像の特徴量を表す潜在表現z0を出力する。 The encoder 51 constituting the generator 50 is a convolutional neural network (CNN), which is one of the multilayer neural networks in which a plurality of processing layers are hierarchically connected. When the image S1 is input, a latent expression z0 representing the feature amount of the MRI image including the rectum is output.

デコーダ52は、エンコーダ51が出力した潜在表現z0をエンコードしつつ、学習用マスク画像S2に含まれる個々の領域のマスクを適用して各マスクが表す領域を生成し、マスク画像に含まれるマスクのそれぞれに基づく領域を有し、学習用画像S1と同一の表現形式を有する疑似画像S3を出力する。 The decoder 52 encodes the latent expression z0 output by the encoder 51, applies the masks of the individual regions included in the learning mask image S2 to generate regions represented by each mask, and A pseudo image S3 having regions based on the respective regions and having the same expression format as the learning image S1 is output.

ディスクリミネータ53は、入力された画像が実画像であるかジェネレータ50により生成された疑似画像であるかを判別して判別結果TF0を出力する。ここで、実画像とは、ジェネレータ50が生成した画像ではなく、撮影装置3により被写体を撮影することにより取得された原画像である。これに対して、疑似画像はジェネレータ50によりマスク画像から生成された原画像と同一の表現形式を有する画像である。 The discriminator 53 determines whether the input image is a real image or a pseudo image generated by the generator 50, and outputs a determination result TF0. Here, the actual image is not an image generated by the generator 50, but an original image obtained by photographing a subject with the photographing device 3. On the other hand, the pseudo image is an image that has the same expression format as the original image generated from the mask image by the generator 50.

本実施形態においては、入力された画像が実画像であるか、ジェネレータ50により生成された疑似画像であるかの判別結果TF0を正解するように、ディスクリミネータ53が学習される。また、入力されたマスク画像から実画像に似せた疑似画像を導出し、ディスクリミネータ53が判別結果TF0を不正解とするように、ジェネレータ50が学習される。これにより、ジェネレータ50はディスクリミネータ53に識別されない、本物のMRI画像と同一の表現形式を有する疑似画像を生成できるようになる。 In this embodiment, the discriminator 53 is trained so as to correctly determine whether the input image is a real image or a pseudo image generated by the generator 50 as the determination result TF0. Further, the generator 50 is trained so that a pseudo image resembling the real image is derived from the input mask image, and the discriminator 53 determines that the determination result TF0 is incorrect. This allows the generator 50 to generate a pseudo image that is not identified by the discriminator 53 and has the same representation format as the real MRI image.

疑似画像導出部23は、このようにして構築されたジェネレータ50により、原画像G0および疑似マスク導出部22が導出した疑似マスク画像Mf0から疑似画像を導出する。例えば、ジェネレータ50は、原画像G0および図12に示すような疑似マスク画像Mf0が入力されると、原画像G0と同一の表現形式を有する疑似画像Gf0を出力する。導出された疑似画像Gf0は、疑似マスク画像Mf0および直腸がんのステージを表す情報と併せてストレージ13に保存される。ここで、本実施形態においては、本実施形態による画像生成装置により生成されたものではない、既存の画像すなわち原画像S0、原画像S0の直腸がんにマスクが付与されたマスク画像M0および直腸がんのステージを表す情報が、後述するセグメンテーションモデルを学習するための教師データとしてストレージ13に蓄積されている。そして、本実施形態においては、本実施形態による画像生成装置1により導出された、疑似画像Gf0、疑似マスク画像Mf0および直腸がんのステージを表す情報は、既存の教師データに加えてストレージ13に教師データとして蓄積される。また、疑似画像Gf0は、疑似マスク画像Mf0および直腸がんのステージを表す情報を画像保管サーバ4に送信し、ここで既存の教師データと併せて蓄積するようにしてもよい。 The pseudo image deriving unit 23 uses the generator 50 constructed in this manner to derive a pseudo image from the original image G0 and the pseudo mask image Mf0 derived by the pseudo mask deriving unit 22. For example, when the original image G0 and the pseudo mask image Mf0 as shown in FIG. 12 are input, the generator 50 outputs the pseudo image Gf0 having the same expression format as the original image G0. The derived pseudo image Gf0 is stored in the storage 13 together with the pseudo mask image Mf0 and information representing the stage of rectal cancer. Here, in the present embodiment, existing images that are not generated by the image generation device according to the present embodiment, that is, the original image S0, the mask image M0 in which the rectal cancer in the original image S0 is masked, and the rectal Information representing the stage of cancer is stored in the storage 13 as training data for learning a segmentation model to be described later. In the present embodiment, the pseudo image Gf0, the pseudo mask image Mf0, and the information representing the stage of rectal cancer derived by the image generation device 1 according to the present embodiment are stored in the storage 13 in addition to the existing training data. Accumulated as teacher data. Further, the pseudo image Gf0 may transmit the pseudo mask image Mf0 and information representing the stage of rectal cancer to the image storage server 4, where they may be stored together with existing teacher data.

学習部24は、直腸を含むMRI画像を複数の領域にセグメンテーションするセグメンテーションモデルを学習する。本実施形態においては、MRI画像を直腸がん、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のそれぞれの領域にセグメンテーションするセマンティックセグメンテーションモデルの学習を行い、学習済みのセマンティックセグメンテーションモデルを構築する。セマンティックセグメンテーションモデル(以下、SS(Semantic Segmentation)モデルとする)は、周知のように、入力画像の各画素に対して抽出対象物(クラス)を表すマスクを付与した出力画像を出力する機械学習モデルである。本実施形態においては、SSモデルへの入力画像は直腸の領域を含むMRI画像であり、出力画像はMRI画像における直腸がん、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のそれぞれの領域をそれぞれマスクしたマスク画像である。SSモデルは、ResNet(Residual Networks)、U-Net(U-shaped Networks)といった畳み込みニューラルネットワーク(CNN;Convolutional neural network)により構築される。 The learning unit 24 learns a segmentation model that segments an MRI image including the rectum into a plurality of regions. In this embodiment, we learn a semantic segmentation model that segments an MRI image into rectal cancer, the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and other background regions. and build a trained semantic segmentation model. As is well known, a semantic segmentation model (hereinafter referred to as SS (Semantic Segmentation) model) is a machine learning model that outputs an output image in which each pixel of an input image is given a mask representing the extraction target (class). It is. In this embodiment, the input image to the SS model is an MRI image including the rectal region, and the output image is the rectal cancer in the MRI image, the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, and the rectal region. This is a mask image in which the subserosa layer and other background areas are masked. The SS model is constructed using a convolutional neural network (CNN) such as ResNet (Residual Networks) or U-Net (U-shaped Networks).

SSモデルの学習に際しては、既存の教師データ、すなわち原画像G0および原画像G0のマスク画像M0の組み合わせからなる教師データに加えて、疑似マスク導出部22が導出した疑似マスク画像Mf0および疑似画像導出部23が導出した疑似画像Gf0の組み合わせからなる教師データが使用される。既存の教師データにおいては、原画像G0および疑似画像Gf0が学習用データであり、マスク画像M0および疑似マスク画像Mf0が正解データである。疑似画像Gf0および疑似マスク画像Mf0を含む教師データにおいては、疑似画像Gf0が学習用データであり、疑似マスク画像Mf0が正解データである。 When learning the SS model, in addition to existing training data, that is, training data consisting of a combination of the original image G0 and the mask image M0 of the original image G0, the pseudo mask image Mf0 and the pseudo image derived by the pseudo mask derivation unit 22 are used. Teacher data consisting of a combination of pseudo images Gf0 derived by the unit 23 is used. In the existing teacher data, the original image G0 and pseudo image Gf0 are learning data, and the mask image M0 and pseudo mask image Mf0 are correct data. In the teacher data including the pseudo image Gf0 and the pseudo mask image Mf0, the pseudo image Gf0 is the learning data, and the pseudo mask image Mf0 is the correct data.

学習の際にはSSモデルに原画像G0および疑似画像Gf0が入力され、これらの画像に含まれる物体がセグメンテーションされたマスク画像が出力される。次に、SSモデルが出力したマスク画像と正解データであるマスク画像M0および疑似マスク画像Mf0との相違が損失として導出される。そして、損失が小さくなるように複数の教師データを用いてSSモデルの学習が繰り返されて、SSモデルが構築される。 During learning, the original image G0 and pseudo image Gf0 are input to the SS model, and a mask image in which objects included in these images are segmented is output. Next, the difference between the mask image output by the SS model and the mask image M0 and pseudo mask image Mf0, which are correct data, is derived as a loss. Then, learning of the SS model is repeated using a plurality of pieces of training data so that the loss is small, and the SS model is constructed.

また、学習部24は、直腸を含むMRI画像について直腸がんのステージを判別する判別モデルの学習を行い、学習済みの判別モデルを構築する。本実施形態においては、判別モデルへの入力画像は直腸の領域を含むMRI画像およびMRI画像をセグメンテーションしたマスク画像であり、出力はMRI画像に含まれる直腸がんのステージである。判別モデルも、ResNet、U-Netといった畳み込みニューラルネットワークにより構築される。 The learning unit 24 also learns a discrimination model for determining the stage of rectal cancer for MRI images including the rectum, and constructs a learned discrimination model. In this embodiment, the input images to the discriminant model are an MRI image including the rectal region and a mask image obtained by segmenting the MRI image, and the output is the stage of rectal cancer included in the MRI image. The discriminant model is also constructed using a convolutional neural network such as ResNet or U-Net.

判別モデルの学習に際しては、既存の教師データすなわち原画像G0、原画像G0のマスク画像M0および原画像G0に含まれる直腸がんのステージを表す情報の組み合わせからなる教師データに加えて、疑似マスク導出部22が導出した疑似マスク画像Mf0、疑似画像導出部23が導出した疑似画像Gf0および疑似画像Gf0に含まれる直腸がんのステージを表す情報の組み合わせからなる教師データが使用される。既存の教師データにおいては、原画像G0およびマスク画像M0が学習用データであり、原画像G0の直腸がんのステージを表す情報が正解データである。疑似画像Gf0および疑似マスク画像Mf0を含む教師データにおいては、疑似画像Gf0および疑似マスク画像Mf0が学習用データであり、直腸がんのステージを表す情報が正解データである。 When learning the discriminant model, in addition to the existing training data, which is a combination of the original image G0, the mask image M0 of the original image G0, and the information representing the stage of rectal cancer included in the original image G0, a pseudo mask is used. The pseudo mask image Mf0 derived by the deriving unit 22, the pseudo image Gf0 derived by the pseudo image deriving unit 23, and the training data consisting of a combination of information representing the stage of rectal cancer included in the pseudo image Gf0 are used. In the existing teacher data, the original image G0 and the mask image M0 are learning data, and the information representing the stage of rectal cancer in the original image G0 is correct data. In the training data including pseudo image Gf0 and pseudo mask image Mf0, pseudo image Gf0 and pseudo mask image Mf0 are learning data, and information representing the stage of rectal cancer is correct data.

学習の際には判別モデルに原画像G0およびマスク画像M0、並びに疑似画像Gf0および疑似マスク画像Mf0が入力され、これらの画像に含まれる直腸がんのステージを表す情報が出力される。直腸がんのステージを表す情報としては、直腸がんの各ステージであることの確率である。確率は0~1の値をとる。次に、直腸がんの各ステージであることの確率と、正解データの直腸がんのステージとの相違が損失として導出される。ここで、判別モデルが出力した直腸がんのステージ(T1,T2,T3,T4)=(0.1,0.1,0.7,0.1)であり、正解データが(0,0,1,0)であるとすると、判別モデルが出力した直腸がんの各ステージの確率と正解データにおける直腸がんの各ステージの確率との相違が損失として導出される。そして、損失が小さくなるように複数の教師データを用いて判別モデルの学習が繰り返されて、判別モデルが構築される。 During learning, the original image G0 and mask image M0, as well as the pseudo image Gf0 and pseudo mask image Mf0, are input to the discriminant model, and information representing the stage of rectal cancer included in these images is output. Information representing the stage of rectal cancer is the probability of being at each stage of rectal cancer. Probability takes a value between 0 and 1. Next, the difference between the probability of each stage of rectal cancer and the stage of rectal cancer in the correct data is derived as a loss. Here, the stage of rectal cancer output by the discriminant model (T1, T2, T3, T4) = (0.1, 0.1, 0.7, 0.1), and the correct data is (0, 0 , 1, 0), the difference between the probability of each stage of rectal cancer output by the discriminant model and the probability of each stage of rectal cancer in the correct data is derived as a loss. Then, learning of the discriminant model is repeated using a plurality of pieces of training data so that the loss is small, and the discriminant model is constructed.

なお、入力画像についてのマスク画像のみが入力されると入力画像に含まれる直腸がんのステージを表す情報を出力するように判別モデルを構築してもよい。この場合、判別モデルの学習には、原画像G0についてのマスク画像M0を学習用データ、原画像G0に含まれる直腸がんのステージを表す情報を正解データとして含む教師データ、並びに疑似画像Gf0についての疑似マスク画像Mf0を学習用データ、疑似画像Gf0に含まれる直腸がんのステージを表す情報を正解データとして含む教師データが使用される。 Note that the discrimination model may be constructed so that when only the mask image for the input image is input, information representing the stage of rectal cancer included in the input image is output. In this case, for learning the discriminant model, training data includes a mask image M0 for the original image G0, teacher data including information representing the stage of rectal cancer included in the original image G0 as correct data, and training data for the pseudo image Gf0. The pseudo mask image Mf0 of is used as learning data, and the teacher data including information representing the stage of rectal cancer included in the pseudo image Gf0 as correct data is used.

次いで、本実施形態による画像処理装置について説明する。図13は、本実施形態による画像処理装置のハードウェア構成を示す図である。図13に示すように、画像処理装置60は、CPU61、不揮発性のストレージ63、および一時記憶領域としてのメモリ66を含む。また、画像処理装置60は、液晶ディスプレイ等のディスプレイ64、キーボードとマウス等の入力デバイス65、およびネットワーク5に接続されるネットワークI/F(InterFace)67を含む。CPU61、ストレージ63、ディスプレイ64、入力デバイス65、メモリ66およびネットワークI/F67は、バス68に接続される。なお、CPU61は、本開示におけるプロセッサの一例である。 Next, an image processing apparatus according to this embodiment will be explained. FIG. 13 is a diagram showing the hardware configuration of the image processing device according to this embodiment. As shown in FIG. 13, the image processing device 60 includes a CPU 61, a nonvolatile storage 63, and a memory 66 as a temporary storage area. The image processing device 60 also includes a display 64 such as a liquid crystal display, an input device 65 such as a keyboard and a mouse, and a network I/F (InterFace) 67 connected to the network 5. The CPU 61, storage 63, display 64, input device 65, memory 66, and network I/F 67 are connected to a bus 68. Note that the CPU 61 is an example of a processor in the present disclosure.

ストレージ63には、画像処理プログラム62が記憶される。CPU61は、ストレージ63から画像処理プログラム62を読み出してメモリ66に展開し、展開した画像処理プログラム62を実行する。 An image processing program 62 is stored in the storage 63. The CPU 61 reads the image processing program 62 from the storage 63, loads it into the memory 66, and executes the loaded image processing program 62.

次いで、本実施形態による画像処理装置の機能的な構成を説明する。図14は、本実施形態による画像処理装置の機能的な構成を示す図である。図14に示すように画像処理装置60は、画像取得部71、セグメンテーション部72、判別部73および表示制御部74を備える。そして、CPU61が画像処理プログラム62を実行することにより、CPU61は、画像取得部71、セグメンテーション部72、判別部73および表示制御部74として機能する。 Next, the functional configuration of the image processing apparatus according to this embodiment will be explained. FIG. 14 is a diagram showing the functional configuration of the image processing device according to this embodiment. As shown in FIG. 14, the image processing device 60 includes an image acquisition section 71, a segmentation section 72, a discrimination section 73, and a display control section 74. When the CPU 61 executes the image processing program 62, the CPU 61 functions as an image acquisition section 71, a segmentation section 72, a discrimination section 73, and a display control section 74.

画像取得部71は、処理の対象となる対象画像T0を画像保管サーバ4から取得する。対象画像T0は患者の直腸を含むMRI画像である。 The image acquisition unit 71 acquires a target image T0 to be processed from the image storage server 4. The target image T0 is an MRI image including the patient's rectum.

セグメンテーション部72は、対象画像T0に含まれる物体の領域をセグメンテーションして、対象画像T0に含まれる物体の領域をマスクしたマスク画像TM0を導出する。本実施形態においては、対象画像T0に含まれる直腸がん、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のそれぞれの領域をセグメンテーションし、各領域にマスクを付与したマスク画像TM0を導出する。このために、セグメンテーション部72は、本実施形態による学習装置によって構築されたSSモデル72Aが適用されている。 The segmentation unit 72 segments the object region included in the target image T0 and derives a mask image TM0 in which the object region included in the target image T0 is masked. In this embodiment, each region of the rectal cancer, the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and the background other than these, which are included in the target image T0, is segmented. A mask image TM0 in which a mask is applied to a region is derived. For this purpose, an SS model 72A constructed by the learning device according to the present embodiment is applied to the segmentation unit 72.

判別部73は、対象画像T0に含まれる直腸がんのステージを判別し、判別結果を出力する。このために、判別部73は、本実施形態による学習装置によって構築された判別モデル73Aが適用されている。判別モデル73Aには対象画像T0およびセグメンテーション部72が導出した対象画像T0のマスク画像TM0が入力され、対象画像T0に含まれる直腸がんのステージの判別結果を出力する。 The determining unit 73 determines the stage of rectal cancer included in the target image T0, and outputs the determination result. For this purpose, the discrimination model 73A constructed by the learning device according to the present embodiment is applied to the discrimination unit 73. The target image T0 and the mask image TM0 of the target image T0 derived by the segmentation unit 72 are input to the discrimination model 73A, and outputs the determination result of the stage of rectal cancer included in the target image T0.

表示制御部74は、セグメンテーション部72が導出したマスク画像TM0および判別部73が導出した直腸がんのステージの判別結果をディスプレイ64に表示する。図15は、マスク画像TM0および判別結果の表示画面を示す図である。図15に示すように表示画面80には、対象画像T0、マスク画像TM0および判別結果81が表示される。なお、図15においては判別結果は「ステージT3」である。 The display control unit 74 displays on the display 64 the mask image TM0 derived by the segmentation unit 72 and the determination result of the stage of rectal cancer derived by the determination unit 73. FIG. 15 is a diagram showing a display screen of the mask image TM0 and the discrimination results. As shown in FIG. 15, the target image T0, mask image TM0, and determination result 81 are displayed on the display screen 80. In addition, in FIG. 15, the determination result is "stage T3".

次いで、本実施形態において行われる処理について説明する。図16は本実施形態における画像生成処理のフローチャートである。まず,情報取得部21が画像保管サーバ4から原画像G0およびマスク画像M0を取得する(ステップST1)。次いで、疑似マスク導出部22がマスクを加工することにより疑似マスク画像Mf0を導出する(ステップST2)。そして、疑似画像導出部23が疑似マスクに基づく領域を有する疑似画像Gf0を導出し(ステップST3)、疑似画像Gf0、疑似マスク画像Mf0および疑似画像Gf0に含まれる直腸がんのステージを表す情報を、教師データとしてストレージ13あるいは画像保管サーバ4に、既存の教師データと併せて蓄積し(ステップST4)、処理を終了する。 Next, the processing performed in this embodiment will be explained. FIG. 16 is a flowchart of image generation processing in this embodiment. First, the information acquisition unit 21 acquires the original image G0 and the mask image M0 from the image storage server 4 (step ST1). Next, the pseudo mask deriving unit 22 derives a pseudo mask image Mf0 by processing the mask (step ST2). Then, the pseudo image deriving unit 23 derives a pseudo image Gf0 having a region based on the pseudo mask (step ST3), and extracts information representing the stage of rectal cancer included in the pseudo image Gf0, the pseudo mask image Mf0, and the pseudo image Gf0. , is stored as teacher data in the storage 13 or the image storage server 4 together with existing teacher data (step ST4), and the process ends.

図17は本実施形態における学習処理のフローチャートである。まず、学習部24が、疑似画像Gf0および疑似マスク画像Mf0の組み合わせからなる教師データを取得する(ステップST11)。そして学習部24は、教師データを用いてSSモデルの学習を行う(ステップST12)。これにより学習済みのSSモデルが構築される。 FIG. 17 is a flowchart of learning processing in this embodiment. First, the learning unit 24 acquires teacher data consisting of a combination of the pseudo image Gf0 and the pseudo mask image Mf0 (step ST11). The learning unit 24 then learns the SS model using the teacher data (step ST12). As a result, a trained SS model is constructed.

図18は本実施形態における画像処理のフローチャートである。まず、画像取得部71が画像保管サーバ4から処理の対象となる対象画像T0を取得する(ステップST21)。そして、セグメンテーション部72がSSモデル72Aにより対象画像T0をセグメンテーションしてマスク画像TM0を導出する(ステップST22)。次いで、判別部73が判別モデル73Aにより対象画像T0に含まれる直腸がんのステージの判別結果を導出する(ステップST23)。そして、表示制御部74がマスク画像TM0および判別結果の表示画面を表示し(ステップST24)、処理を終了する。 FIG. 18 is a flowchart of image processing in this embodiment. First, the image acquisition unit 71 acquires the target image T0 to be processed from the image storage server 4 (step ST21). Then, the segmentation unit 72 segments the target image T0 using the SS model 72A to derive a mask image TM0 (step ST22). Next, the discrimination unit 73 derives the discrimination result of the stage of rectal cancer included in the target image T0 using the discrimination model 73A (step ST23). Then, the display control unit 74 displays the mask image TM0 and the discrimination result on the display screen (step ST24), and the process ends.

ここで、進行がんのような出現頻度が少ない稀少疾患は症例が少ないため、セグメンテーションおよびステージの判別を行うための機械学習モデルを構築するための十分な量の教師データを用意することができない。このため、稀少疾患を精度よくセグメンテーションしたり、進行がんのステージのような稀少疾患のクラスを精度よく判別したりすることが可能な機械学習モデルを提供することが難しい。 Here, because there are few cases of rare diseases such as advanced cancer that occur less frequently, it is not possible to prepare a sufficient amount of training data to build a machine learning model for segmentation and stage discrimination. . For this reason, it is difficult to provide a machine learning model that can accurately segment rare diseases or accurately distinguish classes of rare diseases, such as stages of advanced cancer.

本実施形態においては、原画像G0についてのマスク画像M0におけるマスクを加工することにより疑似マスク画像Mf0を導出し、疑似マスク画像Mf0に基づく領域を有する疑似画像Gf0を導出するようにした。これにより、セグメンテーションモデルを構築するための既存の教師データにはないか、または全くないクラスの対象物体を含む教師データを用意することができる。例えば、進行した直腸がんを含む疑似画像Gf0を教師データとして用意することができる。このため、稀少疾患についての疑似画像Gf0を導出し、これを既存の教師データとともに蓄積して、セグメンテーションおよびステージの判別を行うための学習モデルの学習に用いることにより、稀少疾患についても精度よくセグメンテーションができるような十分な量の教師データを用意することができる。したがって、処理対象となる対象画像について、稀少疾患を精度よくセグメンテーションしたり、進行がんのステージのような稀少疾患のクラスを精度よく判別したりすることが可能な機械学習モデルを提供することが可能となる。 In this embodiment, the pseudo mask image Mf0 is derived by processing the mask in the mask image M0 for the original image G0, and the pseudo image Gf0 having a region based on the pseudo mask image Mf0 is derived. As a result, it is possible to prepare training data for constructing a segmentation model that includes a target object of a class that is not present in existing training data or is not present at all. For example, a pseudo image Gf0 including advanced rectal cancer can be prepared as training data. Therefore, by deriving a pseudo image Gf0 for rare diseases, accumulating it together with existing training data, and using it to train a learning model for segmentation and stage discrimination, it is possible to accurately segment rare diseases. A sufficient amount of training data can be prepared to enable the Therefore, it is possible to provide a machine learning model that can accurately segment rare diseases and accurately discriminate classes of rare diseases, such as stages of advanced cancer, for target images to be processed. It becomes possible.

なお、上記実施形態においては、対象物体を直腸がんとしているが、これに限定されるものではない。直腸以外の他の臓器または構造のがんあるいは腫瘍等の病変を対象物体とすることができる。例えば、関節にある骨棘を対象物体として疑似マスクおよび疑似画像の導出、並びにSSモデルの構築を行うことができる。以下、これを他の実施形態として説明する。 Note that in the above embodiment, the target object is rectal cancer, but the present invention is not limited to this. The target object can be a lesion such as cancer or tumor in an organ or structure other than the rectum. For example, a pseudo mask and a pseudo image can be derived, and an SS model can be constructed using a bone spur in a joint as a target object. This will be described below as another embodiment.

ここで、骨棘とは、関節面の軟骨が肥大増殖し、次第に硬くなって骨化して「とげ」のようになったものであり、関節面周辺にできる変形性関節症の特徴的な所見の1つである。このような場合、関節を構成する骨を対象物体として骨棘を形成するように疑似マスクを導出し、関節を構成する骨に骨棘が形成された疑似画像を導出するようにすればよい。 Here, osteophytes are cartilage on articular surfaces that enlarge and proliferate, gradually becoming hard and ossified into "thorns", and are a characteristic finding of osteoarthritis that occurs around articular surfaces. It is one of the In such a case, a pseudo mask may be derived so as to form osteophytes using the bones forming the joint as target objects, and a pseudo image in which osteophytes are formed on the bones forming the joint may be derived.

図19は骨棘についてのマスク加工画面を示す図である。図19に示すようにマスク加工画面90には、マスク画像M0、マスク画像M0におけるマスクが加工された疑似マスク画像Mf0、原画像G0に含まれる膝関節の3次元モデル91、および3次元モデル91の変形の程度を調整するためのスケール92が表示されている。ここで、原画像G0は患者の膝関節のMRI画像である。また、膝関節の3次元モデル91は脛骨の関節付近を表すものとなっている。なお、原画像G0においては関節に骨棘は形成されていない。 FIG. 19 is a diagram showing a mask processing screen for bone spurs. As shown in FIG. 19, the mask processing screen 90 includes a mask image M0, a pseudo mask image Mf0 obtained by processing the mask in the mask image M0, a three-dimensional model 91 of the knee joint included in the original image G0, and a three-dimensional model 91. A scale 92 for adjusting the degree of deformation is displayed. Here, the original image G0 is an MRI image of the patient's knee joint. Furthermore, the three-dimensional knee joint model 91 represents the vicinity of the tibia joint. Note that no osteophyte is formed in the joint in the original image G0.

なお、ここでは説明のために、図19に示すマスク画像M0には加工を行う脛骨の領域にのみマスクMs0を付与している。また、疑似マスク画像Mf0には加工される脛骨のマスクMsf0のみに参照符号を付与している。図19に示すマスク画像M0と疑似マスク画像Mf0とはマスクの加工前であるため、それぞれに付与されたマスクは同一のものとなっている。 Note that for the purpose of explanation, a mask Ms0 is provided only to the region of the tibia to be processed in the mask image M0 shown in FIG. 19. Further, in the pseudo mask image Mf0, only the mask Msf0 of the tibia to be processed is given a reference numeral. Since the mask image M0 and the pseudo mask image Mf0 shown in FIG. 19 are before mask processing, the masks applied to each are the same.

3次元モデル91は、原画像G0における脛骨の関節付近の領域のみを抽出してボリュームレンダリングすることにより導出された3次元的な画像である。操作者は入力デバイス15を操作することにより、3次元モデル91の全方向の向きを変更することができる。また、入力デバイス15を用いて3次元モデル91における所望とされる位置を指定することによりマスクの加工場所を指定する。そして、入力デバイス15を用いてスケール92の摘子92Aを移動させることにより、マスクの加工の程度を指定する。これにより疑似マスク導出部22は、図20に示すように指定された位置を起点として3次元モデル91を延ばすように加工し、さらに疑似マスク画像Mf0に付与されているマスクMsf0に対して、3次元モデル91の形状に適合するようにマスクMsf1を付与する。 The three-dimensional model 91 is a three-dimensional image derived by extracting only the region near the tibia joint in the original image G0 and performing volume rendering. By operating the input device 15, the operator can change the orientation of the three-dimensional model 91 in all directions. Furthermore, the mask processing location is designated by designating a desired position in the three-dimensional model 91 using the input device 15. Then, by moving the knob 92A of the scale 92 using the input device 15, the degree of mask processing is specified. As a result, the pseudo mask deriving unit 22 processes the three-dimensional model 91 to extend it from the specified position as the starting point, as shown in FIG. A mask Msf1 is provided to match the shape of the dimensional model 91.

この際、疑似マスク導出部22は、脛骨に付与されたマスクの3次元的な連続性を保持しつつマスクを加工する。例えば、3次元モデル91における指定された位置を延ばすように変形する際に、3次元モデル91における指定された位置から離れるほど変形の程度を小さくする。これにより、元の3次元モデル91における3次元的な連続性を保持しつつ3次元モデル91を変形することができ、その結果、脛骨に付与されたマスクの3次元的な連続性を保持しつつ、骨棘が形成されたものとなるようにマスクを加工することができる。 At this time, the pseudo mask deriving unit 22 processes the mask while maintaining the three-dimensional continuity of the mask applied to the tibia. For example, when deforming the three-dimensional model 91 to extend a designated position, the degree of deformation is made smaller as the distance from the designated position in the three-dimensional model 91 increases. As a result, the three-dimensional model 91 can be transformed while maintaining the three-dimensional continuity of the original three-dimensional model 91, and as a result, the three-dimensional continuity of the mask applied to the tibia can be maintained. However, the mask can be processed to have bone spurs formed therein.

疑似画像導出部23は、骨棘が形成された疑似マスク画像Mf0から骨棘が形成された脛骨を含む疑似画像Gf0を導出する。そして、学習部24は、骨棘が形成された疑似マスク画像Mf0および疑似画像Gf0を教師データとして用いてSSモデルを学習する。これにより、膝関節を含むMRI画像において、骨棘を精度よくセグメンテーションすることが可能な学習済みのSSモデルを構築することができる。したがって、このように構築したSSモデルを本実施形態による画像処理装置のセグメンテーション部72に適用することにより、膝関節を含むMRI画像において骨棘の領域を精度よくセグメンテーションすることができる。 The pseudo-image deriving unit 23 derives a pseudo-image Gf0 including the tibia on which osteophytes are formed from the pseudo-mask image Mf0 on which osteophytes are formed. The learning unit 24 then learns the SS model using the pseudo mask image Mf0 and the pseudo image Gf0 in which bone spurs are formed as teacher data. Thereby, it is possible to construct a trained SS model that can accurately segment osteophytes in an MRI image including a knee joint. Therefore, by applying the SS model constructed in this manner to the segmentation unit 72 of the image processing apparatus according to this embodiment, it is possible to precisely segment the osteophyte region in an MRI image including the knee joint.

また、関節に骨棘が形成された脛骨を含む疑似画像Gf0を教師データとして用いることにより、脛骨の関節を含むMRI画像について、骨棘の有無を判別する判別モデルを構築することも可能である。骨棘の有無を判別する判別モデルを構築する際には、骨棘が形成されていない脛骨を含む原画像も教師データとして用いる。 Furthermore, by using the pseudo image Gf0 that includes the tibia with osteophytes formed in the joint as training data, it is also possible to construct a discriminant model that determines the presence or absence of osteophytes in MRI images that include the tibia joint. . When constructing a discriminant model that determines the presence or absence of osteophytes, the original image that includes the tibia without osteophytes is also used as training data.

なお、上記他の実施形態においては、骨棘を含まない原画像G0を加工することにより、疑似マスク画像Mf0さらには疑似画像Gf0を導出しているが、追加される病変は骨棘に限定されるものではない。任意の病変の追加の対象となる臓器を含み、かつ病変を含まない原画像G0に対して、病変を追加するように原画像G0を加工して、疑似マスク画像Mf0さらには疑似画像Gf0を導出するようにしてもよい。
クを変換する実施形態を後で書く。
Note that in the other embodiments described above, the pseudo mask image Mf0 and further pseudo image Gf0 are derived by processing the original image G0 that does not include osteophytes, but the added lesions are limited to osteophytes. It's not something you can do. A pseudo mask image Mf0 and a pseudo image Gf0 are derived by processing the original image G0 so as to add a lesion to the original image G0, which includes an organ to which an arbitrary lesion is to be added but does not contain a lesion. You may also do so.
I will write an embodiment for converting the code later.

なお、上記各実施形態において、疑似マスク導出部22がマスクを加工して疑似マスク画像Mf0を導出するに際しては、マスクの変形に対して拘束条件を設定し、拘束条件に従ってマスクの加工の程度の指定を受け付けるようにしてもよい。図21はマスク加工画面の他の例を示す図である。図21に示すマスク加工画面100は、疑似マスク画像Mf0、拘束条件を設定するための条件リスト101、マスクの変形の程度を設定するためのプルダウンメニュー102および疑似画像の導出を実行させるための変換ボタン103が表示されている。 In each of the embodiments described above, when the pseudo mask deriving unit 22 processes a mask to derive the pseudo mask image Mf0, a constraint condition is set for the deformation of the mask, and the degree of processing of the mask is determined according to the constraint condition. It may also be possible to accept specifications. FIG. 21 is a diagram showing another example of the mask processing screen. The mask processing screen 100 shown in FIG. 21 includes a pseudo mask image Mf0, a condition list 101 for setting constraint conditions, a pull-down menu 102 for setting the degree of mask deformation, and a conversion for deriving a pseudo image. A button 103 is displayed.

図21に示すマスク加工画面100に表示された疑似マスク画像Mf0においては、直腸がんの領域にマスクMsf0が付与され、直腸の領域にマスクMsf1が付与されている。マスク加工画面100に表示された疑似マスク画像Mf0に含まれるマスクMsf0,Msf1に対しては、加工するか否かを設定可能とされている。例えば、マウスカーソルを所望とするマスク上に移動させて右クリックする等の予め定められた操作により、選択したマスクを加工するか否かを設定可能とされている。本実施形態においては、直腸のマスクMsf1は加工せず、直腸がんのマスクMsf0を加工するように設定したものとする。なお、以降の説明においては加工しないように設定したマスクを固定マスクと称する。 In the pseudo mask image Mf0 displayed on the mask processing screen 100 shown in FIG. 21, a mask Msf0 is applied to the rectal cancer area, and a mask Msf1 is applied to the rectal area. It is possible to set whether or not to process the masks Msf0 and Msf1 included in the pseudo mask image Mf0 displayed on the mask processing screen 100. For example, by a predetermined operation such as moving the mouse cursor over a desired mask and right-clicking, it is possible to set whether or not to process the selected mask. In this embodiment, it is assumed that the rectal mask Msf1 is not processed and the rectal cancer mask Msf0 is processed. Note that in the following description, a mask set not to be processed will be referred to as a fixed mask.

条件リスト101には、加工するマスクの変形に対する拘束条件がチェックボックスにより選択可能に表示されている。図21に示すように、拘束条件としては、例えば「固定マスクの中心に回転」、「固定マスクに内接」、「固定マスクからの距離が□mm」、「固定マスクの重心に合わせた回転」および「固定マスクの淵に沿った回転」が表示されている。操作者は、条件リスト101から所望とする1以上の拘束条件を選択することができる。なお、「固定マスクからの距離が□mm」の拘束条件については距離の数値を入力可能とされている。本実施形態において、拘束条件として「固定マスクの重心中心に回転」が選択されたとする。また、プルダウンメニュー102は、図6に示すプルダウンメニュー26と同様に、直腸がんのステージT1、T2、T3ab、T3cd、T3MRF+、T4aおよびT4bを選択可能となっている。 In the condition list 101, constraint conditions for deformation of the mask to be processed are displayed in a selectable manner using check boxes. As shown in Figure 21, the constraint conditions include, for example, "rotation around the center of the fixed mask", "inscribed in the fixed mask", "distance from the fixed mask is □mm", and "rotation according to the center of gravity of the fixed mask". ” and “Rotation along edge of fixed mask” are displayed. The operator can select one or more desired constraint conditions from the condition list 101. Note that for the constraint condition "distance from the fixed mask is □mm", it is possible to input a numerical value of the distance. In this embodiment, it is assumed that "rotation around the center of gravity of the fixed mask" is selected as the constraint condition. Further, in the pull-down menu 102, similarly to the pull-down menu 26 shown in FIG. 6, the stages of rectal cancer T1, T2, T3ab, T3cd, T3MRF+, T4a, and T4b can be selected.

拘束条件として「固定マスクの中心に回転」が選択されると、固定マスクである直腸のマスクMsf1の重心C0が疑似マスク画像Mf0に表示される。これにより、操作者がマスクMfs0を入力デバイス15を用いて変形して加工する際に、マスクMsf0は固定マスクMsf1の重心C0を中心とした回転のみが可能なようにその変形が拘束される。図22にはマスクMsf0を回転させた状態を示す。なお、図22には変形前のマスクMsf0を仮想線で示している。また、操作者はプルダウンメニュー102において直腸がんのステージを選択することができる。図22においては現在表示されている直腸がんと同一のステージであるT3abが表示されている。 When "rotate around the center of the fixed mask" is selected as the constraint condition, the center of gravity C0 of the rectal mask Msf1, which is the fixed mask, is displayed on the pseudo mask image Mf0. Thereby, when the operator deforms and processes the mask Mfs0 using the input device 15, the deformation of the mask Msf0 is restricted so that it can only rotate about the center of gravity C0 of the fixed mask Msf1. FIG. 22 shows a state in which the mask Msf0 is rotated. Note that in FIG. 22, the mask Msf0 before deformation is shown by a virtual line. Further, the operator can select the stage of rectal cancer from the pull-down menu 102. In FIG. 22, T3ab, which is the same stage as the currently displayed rectal cancer, is displayed.

そしてマスクMsf0が加工されて疑似マスク画像Mf0が導出された後、変換ボタン103が選択されると、疑似画像導出部23は、加工されたマスクMsf0および選択された直腸がんのステージに応じた疑似画像Gf0を導出する。 After the mask Msf0 is processed and the pseudo mask image Mf0 is derived, when the conversion button 103 is selected, the pseudo image derivation unit 23 converts the processed mask Msf0 and the selected stage of rectal cancer. A pseudo image Gf0 is derived.

図23はマスク加工画面の他の例を示す図である。図23に示すマスク加工画面105に表示された疑似マスク画像Mf0においては、図21に示すマスクMfs0のうちの直腸と重なる領域が固定されたマスクMfs2として設定されている。これにより、直腸から外れた領域に存在するマスクMfs0のみが変形可能とされている。また、ここでは拘束条件として「固定マスクからの距離が□mm」が選択され、距離として3mmが入力されたものとする。これにより、操作者が入力デバイス15を用いてマスクMfs0を変形して加工する際に、マスクMsf0は固定マスクから最も離れた位置が3mm以下となるようにその変形が拘束される。図24にはマスクMsf0を変形させた状態を示す。図24に示すようにマスクMsf0における突出部分は固定マスクMsf1,Msf2からの距離が指定された距離(すなわち3mm)となるように変形されている。なお、変形のマスクMsf0の輪郭は仮想線で示している。 FIG. 23 is a diagram showing another example of the mask processing screen. In the pseudo mask image Mf0 displayed on the mask processing screen 105 shown in FIG. 23, the region of the mask Mfs0 shown in FIG. 21 that overlaps with the rectum is set as a fixed mask Mfs2. As a result, only the mask Mfs0 existing in the region outside the rectum can be deformed. Further, here, it is assumed that "the distance from the fixed mask is □ mm" is selected as the constraint condition, and 3 mm is input as the distance. Thereby, when the operator deforms and processes the mask Mfs0 using the input device 15, the deformation of the mask Msf0 is restrained so that the farthest position from the fixed mask is 3 mm or less. FIG. 24 shows a state in which the mask Msf0 is deformed. As shown in FIG. 24, the protruding portion of the mask Msf0 is deformed so that the distance from the fixed masks Msf1 and Msf2 is a specified distance (ie, 3 mm). Note that the outline of the deformation mask Msf0 is shown by a virtual line.

そしてマスクMsf0が加工されて疑似マスク画像Mf0が導出された後、変換ボタン103が選択されると、疑似画像導出部23は、加工されたマスクMsf0および選択された直腸がんのステージに応じた疑似画像Gf0を導出する。 After the mask Msf0 is processed and the pseudo mask image Mf0 is derived, when the conversion button 103 is selected, the pseudo image derivation unit 23 converts the processed mask Msf0 and the selected stage of rectal cancer. A pseudo image Gf0 is derived.

図25はマスク加工画面の他の例を示す図である。図25に示すマスク加工画面106に表示されたマスク画像Mf0においては、図21と同様のマスクMfs0,Msf1が設定されている。そして、条件リスト101において、「固定マスクの淵に沿った回転」が選択されたものとする。条件リスト101において、「固定マスクの淵に沿った回転」が選択されると、疑似マスク画像Mf0には固定マスクである直腸のマスクMsf1の輪郭とマスクMsf0の輪郭との交点C2,C3が表示される。これにより、操作者がマスクMfs0を入力デバイス15を用いて変形して加工する際に、マスクMsf0は固定マスクMsf1の縁に沿った回転のみが可能なようにその変形が拘束される。図26にはマスクMsf0を回転させた状態を示す。 FIG. 25 is a diagram showing another example of the mask processing screen. In the mask image Mf0 displayed on the mask processing screen 106 shown in FIG. 25, masks Mfs0 and Msf1 similar to those in FIG. 21 are set. It is assumed that "rotation along the edge of fixed mask" is selected in the condition list 101. When "rotation along the edge of the fixed mask" is selected in the condition list 101, the intersection points C2 and C3 between the outline of the rectal mask Msf1, which is a fixed mask, and the outline of the mask Msf0 are displayed in the pseudo mask image Mf0. be done. Thereby, when the operator deforms and processes the mask Mfs0 using the input device 15, the deformation of the mask Msf0 is restricted so that it can only rotate along the edge of the fixed mask Msf1. FIG. 26 shows a state in which the mask Msf0 is rotated.

そしてマスクMsf0が加工されて疑似マスク画像Mf0が導出された後、変換ボタン103が選択されると、疑似画像導出部23は、加工されたマスクMsf0および選択された直腸がんのステージに応じた疑似画像Gf0を導出する。 After the mask Msf0 is processed and the pseudo mask image Mf0 is derived, when the conversion button 103 is selected, the pseudo image derivation unit 23 converts the processed mask Msf0 and the selected stage of rectal cancer. A pseudo image Gf0 is derived.

図27はマスク加工画面の他の例を示す図である。上記図8に示す加工画面においては、スケール42を用いてマスクMsf0を変形していたが、図27に示すマスク加工画面107においては、操作者が入力デバイス15を操作してマスクMsf0を直接変形するようにしたものである。この場合、操作者は入力デバイス15を用いてマスクMsf0の端部の点C4を点C5に向けてドラッグすることにより、図28に示すようにマスクMsf0を変形して加工することができる。なお、この場合、点C4のドラッグに代えて、点C5のみを入力デバイス15を用いて指定できるようにしてもよい。例えば、点C5の位置をダブルクリックすることにより点C5の位置を指定できるようにしてもよい。この場合、点C5の指定とともにマスクMsf0が図28に示すように変形されて加工されることとなる。 FIG. 27 is a diagram showing another example of the mask processing screen. In the processing screen shown in FIG. 8 above, the mask Msf0 is transformed using the scale 42, but in the mask processing screen 107 shown in FIG. 27, the operator directly transforms the mask Msf0 by operating the input device 15. It was designed to do so. In this case, the operator can deform and process the mask Msf0 as shown in FIG. 28 by dragging the point C4 at the end of the mask Msf0 toward the point C5 using the input device 15. In this case, instead of dragging the point C4, only the point C5 may be specified using the input device 15. For example, the position of point C5 may be specified by double-clicking the position of point C5. In this case, the mask Msf0 is deformed and processed as shown in FIG. 28 along with the designation of the point C5.

なお、図28に示すマスク加工画面107においては、変形したマスクMsf0の突端の形状を設定できるようにしてもよい。例えば、上記図9に示す棘状突起を有するマスクを生成可能なように、棘状突起の付与の有無を選択するためのプルダウンメニューを表示するようにしてもよい。図29は棘状突起の有無を選択するためのプルダウンメニューが表示されたマスク加工画面を示す図である。図29に示すように棘状突起のプルダウンメニュー109において「有」が選択されると、操作者がマスクMsf0の端部の点C4を点C5に向けてドラッグすると、移動先の点C4,C5の先端に棘状突起を有するマスクが追加されるようにマスクMsf0が変形されて加工される。 Note that in the mask processing screen 107 shown in FIG. 28, the shape of the tip of the deformed mask Msf0 may be set. For example, a pull-down menu for selecting whether to add spinous processes may be displayed so that a mask having spinous processes shown in FIG. 9 can be generated. FIG. 29 is a diagram showing a mask processing screen on which a pull-down menu for selecting the presence or absence of spinous processes is displayed. As shown in FIG. 29, when "Present" is selected in the spinous process pull-down menu 109, when the operator drags the point C4 at the end of the mask Msf0 toward the point C5, the destination points C4, C5 The mask Msf0 is modified and processed so that a mask having a spinous process is added to the tip of the mask.

また、上記各実施形態においては、直腸がんを大きくするように変形させたり、骨棘を追加したりすることにより疑似マスク画像Mf0を導出しているが、これに限定されるものではない。収縮されるような疾患についての疑似画像Gf0を導出する場合にも本開示の技術を適用できる。 Further, in each of the embodiments described above, the pseudo mask image Mf0 is derived by deforming the rectal cancer to enlarge it or adding bone spurs, but the present invention is not limited to this. The technology of the present disclosure can also be applied when deriving a pseudo image Gf0 for a disease that causes contraction.

例えば、血管狭窄の疾患を含む疑似画像Gf0を導出する場合、血管狭窄を含まない原画像G0の血管のマスクが細くなるように加工することにより疑似マスク画像Mf0を導出すれば、血管狭窄を含む疑似画像Gf0を導出することが可能である。 For example, when deriving a pseudo image Gf0 that includes a disease of vascular stenosis, if the pseudo mask image Mf0 is derived by processing the original image G0 that does not include vascular stenosis so that the blood vessel mask becomes thinner, then It is possible to derive a pseudo image Gf0.

また、上記実施形態においては、疑似画像導出部23は原画像G0と同一の表現形式を有する疑似画像Gf0を導出しているが、これに限定されるものではない。疑似画像導出部23が疑似画像を導出する際に、疑似画像Gf0の濃度、色およびテクスチャの少なくとも1つを変更するようにしてもよい。この場合、予め定められた濃度、色およびテクスチャを有する複数のスタイル画像をストレージ13に保存しておき、複数のスタイル画像から選択された濃度、色またはテクスチャを有するように疑似画像Gf0を導出すればよい。図30は複数のスタイル画像が表示されたマスク加工画面を示す図である。なお、図30に示すマスク加工画面120は、図6,7に示すマスク加工画面40に複数のスタイル画像を含むスタイル画像リスト122を表示し、かつ疑似画像Gf0を表示するようにしたものである。 Further, in the above embodiment, the pseudo image deriving unit 23 derives the pseudo image Gf0 having the same expression format as the original image G0, but the present invention is not limited to this. When the pseudo image derivation unit 23 derives the pseudo image, at least one of the density, color, and texture of the pseudo image Gf0 may be changed. In this case, a plurality of style images having predetermined density, color, and texture are stored in the storage 13, and a pseudo image Gf0 is derived to have density, color, or texture selected from the plurality of style images. Bye. FIG. 30 is a diagram showing a mask processing screen on which a plurality of style images are displayed. Note that the mask processing screen 120 shown in FIG. 30 displays a style image list 122 including a plurality of style images on the mask processing screen 40 shown in FIGS. 6 and 7, and also displays a pseudo image Gf0. .

図30に示すマスク加工画面120に表示されたスタイル画像リスト122は6つの異なるスタイルのスタイル画像を含む。リスト122の上段は3種類の異なる色のスタイル画像123A,123B,123C、下段は3種類の異なるテクスチャのスタイル画像123A,124B,124Cである。なお、色およびテクスチャに加えて濃度のスタイル画像を含めてもよく、濃度、色およびテクスチャのうちの2つまたは全部のスタイル画像を含めてもよい。マスクMsf0が加工されて疑似マスク画像Mf0が導出された後、操作者は実行ボタン29を選択する前に、スタイル画像リスト122から所望とする色およびテクスチャのスタイル画像を選択する。ここでは、色のスタイル画像123Bが選択されたものとする。スタイル画像の選択後、操作者が実行ボタン29を選択すると、疑似画像導出部23が、選択されたスタイル画像に応じた色の直腸がんを含む疑似画像Gf0を導出する。 The style image list 122 displayed on the mask processing screen 120 shown in FIG. 30 includes style images of six different styles. The upper row of the list 122 is style images 123A, 123B, 123C of three different colors, and the lower row is style images 123A, 124B, 124C of three different textures. Note that a style image of density may be included in addition to color and texture, or style images of two or all of density, color, and texture may be included. After the mask Msf0 is processed and the pseudo mask image Mf0 is derived, the operator selects a style image with a desired color and texture from the style image list 122 before selecting the execution button 29. Here, it is assumed that the color style image 123B is selected. After selecting the style image, when the operator selects the execution button 29, the pseudo image derivation unit 23 derives a pseudo image Gf0 containing rectal cancer in a color corresponding to the selected style image.

また、上記実施形態において、例えば、画像生成装置20の情報取得部21、疑似マスク導出部22、疑似画像導出部23および学習部24、並びに画像処理装置60の画像取得部71、セグメンテーション部72、判別部73および表示制御部74といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサで
ある専用電気回路等が含まれる。
Further, in the above embodiment, for example, the information acquisition unit 21, pseudo mask derivation unit 22, pseudo image derivation unit 23, and learning unit 24 of the image generation device 20, the image acquisition unit 71, the segmentation unit 72, As a hardware structure of a processing unit (Processing Unit) such as the determination unit 73 and the display control unit 74 that executes various processes, the following various processors can be used. As mentioned above, the various processors mentioned above include the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as well as circuits such as FPGA (Field Programmable Gate Array) after manufacturing. A programmable logic device (PLD), which is a processor whose configuration can be changed, and a dedicated electrical device, which is a processor with a circuit configuration specifically designed to execute a specific process, such as an ASIC (Application Specific Integrated Circuit) Includes circuits, etc.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various types of processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). ). Further, the plurality of processing units may be configured with one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with one processor, firstly, as typified by computers such as a client and a server, one processor is configured with a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Second, there are processors that use a single IC (Integrated Circuit) chip to implement the functions of an entire system including multiple processing units, as typified by System On Chip (SoC). be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。 Furthermore, as the hardware structure of these various processors, more specifically, an electric circuit (Circuitry) that is a combination of circuit elements such as semiconductor elements can be used.

1,2 コンピュータ
3 撮影装置
4 画像保管サーバ
5 ネットワーク
11,61 CPU
12A 画像生成プログラム
12B 学習プログラム
13,63 ストレージ
14,64 ディスプレイ
15,65 入力デバイス
16,66 メモリ
17,67 ネットワークI/F
18,68 バス
20 画像処理装置
21 情報取得部
22 疑似マスク導出部
23 疑似画像導出部
24 学習部
26,102 プルダウンメニュー
27 加工ボタン
28,103 変換ボタン
30 直腸
31 粘膜層
32 粘膜下層
33 固有筋層
34 漿膜下層
35 直腸がん
40,90,100,105,106,107,120 マスク加工画面
41,91 3次元モデル
41A 付加された領域
42,92 スケール
42A,92A 摘子
43 浸潤リンパ節
44 血管浸潤
50 ジェネレータ
51 エンコーダ
52 デコーダ
53 ディスクリミネータ
62 画像処理プログラム
71 画像取得部
72 セグメンテーション部
72A セグメンテーションモデル
73 判別部
73A 判別モデル
74 表示制御部
80 表示画面
81 判別結果
101 条件リスト
122 スタイル画像リスト
123A~123C、124A~124C スタイル画像
C0 重心
C2~C5 点
G0 原画像
Gf0 疑似画像
M0 マスク画像
M1~M8,Ms0,Msf0,Msf1 マスク
Mf0 疑似マスク画像
S0 教師データ
S1 学習用画像
S2 学習用マスク画像
S3 疑似画像
T0 対象画像
TF0 判別結果
TM0 マスク画像
z0 潜在表現
1, 2 Computer 3 Photographing device 4 Image storage server 5 Network 11, 61 CPU
12A Image generation program 12B Learning program 13, 63 Storage 14, 64 Display 15, 65 Input device 16, 66 Memory 17, 67 Network I/F
18, 68 Bus 20 Image processing device 21 Information acquisition section 22 Pseudo-mask derivation section 23 Pseudo-image derivation section 24 Learning section 26, 102 Pull-down menu 27 Processing button 28, 103 Conversion button 30 Rectum 31 Mucosal layer 32 Submucosal layer 33 Muscular layer propria 34 Subserosa layer 35 Rectal cancer 40, 90, 100, 105, 106, 107, 120 Mask processing screen 41, 91 3D model 41A Added area 42, 92 Scale 42A, 92A Pump 43 Infiltrated lymph node 44 Vascular invasion 50 Generator 51 Encoder 52 Decoder 53 Discriminator 62 Image processing program 71 Image acquisition section 72 Segmentation section 72A Segmentation model 73 Discrimination section 73A Discrimination model 74 Display control section 80 Display screen 81 Discrimination result 101 Condition list 122 Style image list 123A to 123C , 124A to 124C Style image C0 Center of gravity C2 to C5 points G0 Original image Gf0 Pseudo image M0 Mask image M1 to M8, Ms0, Msf0, Msf1 Mask Mf0 Pseudo mask image S0 Teacher data S1 Learning image S2 Learning mask image S3 Pseudo image T0 Target image TF0 Discrimination result TM0 Mask image z0 Latent expression

Claims (27)

少なくとも1つのプロセッサを備え、
前記プロセッサは、
原画像および前記原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得し、
前記マスク画像におけるマスクを加工することにより疑似マスク画像を導出し、
前記原画像および前記疑似マスク画像に基づいて、前記疑似マスク画像に含まれるマスクに基づく領域を有し、かつ前記原画像と同一の表現形式を有する疑似画像を導出する画像生成装置。
comprising at least one processor;
The processor includes:
Obtaining an original image and a mask image in which a mask is applied to one or more areas representing each of one or more objects including the target object in the original image,
Deriving a pseudo mask image by processing the mask in the mask image,
An image generation device that derives, based on the original image and the pseudo mask image, a pseudo image that has a region based on a mask included in the pseudo mask image and has the same expression format as the original image.
前記疑似マスク画像および前記疑似画像は、画像に含まれる前記物体をセグメンテーションするセグメンテーションモデルを学習するための教師データとして使用される請求項1に記載の画像生成装置。 The image generation device according to claim 1, wherein the pseudo mask image and the pseudo image are used as training data for learning a segmentation model that segments the object included in an image. 前記プロセッサは、前記疑似マスク画像および前記疑似画像を前記教師データとして蓄積する請求項2に記載の画像生成装置。 The image generation device according to claim 2, wherein the processor accumulates the pseudo mask image and the pseudo image as the teacher data. 前記プロセッサは、前記対象物体が示すクラスとは異なるクラスの対象物体を含む前記疑似画像を生成可能な前記疑似マスク画像を導出する請求項1に記載の画像生成装置。 The image generation device according to claim 1, wherein the processor derives the pseudo mask image capable of generating the pseudo image including a target object of a class different from a class indicated by the target object. 前記プロセッサは、医用画像に関して、臨床において評価指標となっている病変形状評価指標に基づいて、病変の形状および進行度の少なくとも一方が前記原画像に含まれる病変とは異なるものとなるように前記マスクを加工することにより前記疑似マスク画像を導出する請求項1に記載の画像生成装置。 With respect to the medical image, the processor is configured to process the medical image so that at least one of the shape and degree of progression of the lesion is different from that of the lesion included in the original image, based on a lesion shape evaluation index that is an evaluation index in clinical practice. The image generation device according to claim 1, wherein the pseudo mask image is derived by processing a mask. 前記プロセッサは、医用画像に関して、正常な臓器を臨床の計測指標に基づいて病変と評価される形状となるまで前記マスクを加工することにより前記疑似マスク画像を導出する請求項1に記載の画像生成装置。 Image generation according to claim 1, wherein the processor derives the pseudo mask image by processing the mask until a normal organ has a shape that is evaluated as a lesion based on a clinical measurement index with respect to a medical image. Device. 前記プロセッサは、予め定められた濃度、色またはテクスチャを有する少なくとも1つのスタイル画像を参照して、前記スタイル画像に応じた濃度、色またはテクスチャを有する前記疑似画像を生成する請求項1に記載の画像生成装置。 2. The pseudo image according to claim 1, wherein the processor refers to at least one style image having a predetermined density, color, or texture, and generates the pseudo image having a density, color, or texture according to the style image. Image generation device. 前記プロセッサは、前記マスクの加工の程度の指示を受け付け、前記指示に基づいて前記マスクを加工することにより前記疑似マスク画像を導出する請求項1に記載の画像生成装置。 The image generation device according to claim 1, wherein the processor receives an instruction regarding the degree of processing of the mask, and derives the pseudo mask image by processing the mask based on the instruction. 前記プロセッサは、加工後の前記マスクの端点の位置の指定および加工量の指定を前記加工の程度の指示として受け付ける請求項8に記載の画像生成装置。 The image generation device according to claim 8, wherein the processor receives a designation of a position of an end point of the mask after processing and a designation of a processing amount as an instruction of the degree of processing. 前記プロセッサは予め設定された拘束条件に従って前記マスクの加工の程度の指示を受け付ける請求項8に記載の画像生成装置。 9. The image generation device according to claim 8, wherein the processor receives an instruction regarding the degree of processing of the mask according to preset constraint conditions. 前記原画像が複数の前記物体を含み、前記対象物体と前記対象物体以外の他の物体の一部の領域が互いに包含関係にある場合、前記マスク画像には、前記包含関係にある領域は前記包含関係にない領域とは異なるマスクが付与される請求項1に記載の画像生成装置。 If the original image includes a plurality of the objects, and some regions of the target object and other objects other than the target object are in an inclusive relationship with each other, the mask image includes the regions that have the inclusive relationship with each other. The image generation device according to claim 1, wherein a mask different from that for areas that are not in an inclusive relationship is provided. 前記包含関係にある前記他の物体が前記原画像内において固定された物体である場合、前記プロセッサは、前記対象物体に付与されたマスクを前記固定された物体に付与されたマスクの形状に合わせて加工することにより前記疑似マスク画像を導出する請求項11に記載の画像生成装置。 When the other object in the inclusion relationship is a fixed object in the original image, the processor adjusts the mask given to the target object to the shape of the mask given to the fixed object. The image generation device according to claim 11, wherein the pseudo mask image is derived by processing the pseudo mask image. 前記原画像が3次元画像である場合、前記プロセッサは、前記対象物体の領域に付与されたマスクの3次元的な連続性を保持しつつ前記マスクを加工することにより前記疑似マスク画像を導出する請求項1に記載の画像生成装置。 When the original image is a three-dimensional image, the processor derives the pseudo mask image by processing the mask while maintaining the three-dimensional continuity of the mask applied to the region of the target object. The image generation device according to claim 1. 前記原画像は3次元の医用画像であり、
前記対象物体は前記医用画像に含まれる病変である請求項1に記載の画像生成装置。
The original image is a three-dimensional medical image,
The image generation device according to claim 1, wherein the target object is a lesion included in the medical image.
前記医用画像は人体の直腸を含み、
前記対象物体は直腸がんであり、前記対象物体以外の他の物体は、直腸の粘膜層、直腸の粘膜下層、直腸の固有筋層、直腸の漿膜下層およびこれら以外の背景のうちの少なくとも1つである請求項14に記載の画像生成装置。
the medical image includes a rectum of a human body;
The target object is rectal cancer, and the other object other than the target object is at least one of the mucosal layer of the rectum, the submucosa of the rectum, the muscularis propria of the rectum, the subserosa of the rectum, and a background other than these. The image generation device according to claim 14.
前記医用画像は人体の関節を含み、
前記対象物体は関節を構成する骨であり、前記対象物体以外の他の物体は前記関節を構成する骨以外の背景である請求項14に記載の画像生成装置。
the medical image includes a joint of a human body;
15. The image generation device according to claim 14, wherein the target object is a bone forming a joint, and the object other than the target object is a background other than the bone forming the joint.
少なくとも1つのプロセッサを備え、
前記プロセッサは、
請求項1に記載の画像生成装置により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する学習装置。
comprising at least one processor;
The processor includes:
By performing machine learning using a set of a plurality of pseudo images and pseudo mask images generated by the image generation device according to claim 1 as training data, one or more objects including a target object included in an input image can be A learning device that builds a segmentation model that segments regions.
前記プロセッサは、
さらに複数の原画像およびマスク画像の組を教師データとして用いて機械学習を行うことにより前記セグメンテーションモデルを構築する請求項17に記載の学習装置。
The processor includes:
The learning device according to claim 17, further constructing the segmentation model by performing machine learning using a plurality of sets of original images and mask images as training data.
請求項17に記載の学習装置により構築されたセグメンテーションモデル。 A segmentation model constructed by the learning device according to claim 17. 少なくとも1つのプロセッサを備え、
前記プロセッサは、請求項19に記載のセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、前記対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する画像処理装置。
comprising at least one processor;
The processor segments one or more object regions including the target object included in the target image to be processed, using the segmentation model according to claim 19, thereby segmenting one or more object regions included in the target image to be processed. An image processing device that derives a mask image in which an object is masked.
前記プロセッサは、マスク画像に含まれる対象物体のクラスを判別する判別モデルを用いて、前記マスク画像においてマスクされた前記対象物体のクラスを判別する請求項20に記載の画像処理装置。 The image processing apparatus according to claim 20, wherein the processor determines the class of the target object masked in the mask image using a discriminant model that determines the class of the target object included in the mask image. 原画像および前記原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得し、
前記マスク画像におけるマスクを加工することにより疑似マスク画像を導出し、
前記原画像および前記疑似マスク画像に基づいて、前記疑似マスク画像に含まれるマスクに基づく領域を有し、かつ前記原画像と同一の表現形式を有する疑似画像を導出する画像生成方法。
Obtaining an original image and a mask image in which a mask is applied to one or more areas representing each of one or more objects including the target object in the original image,
Deriving a pseudo mask image by processing the mask in the mask image,
An image generation method that derives, based on the original image and the pseudo mask image, a pseudo image that has a region based on a mask included in the pseudo mask image and has the same expression format as the original image.
請求項22に記載の画像生成方法により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する学習方法。 By performing machine learning using a set of a plurality of pseudo images and pseudo mask images generated by the image generation method according to claim 22 as training data, one or more objects including the target object included in the input image are A learning method for building a segmentation model that segments regions. 請求項19に記載のセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、前記対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する画像処理方法。 The one or more objects included in the target image to be processed are masked by segmenting the region of one or more objects including the target object included in the target image to be processed using the segmentation model according to claim 19. An image processing method for deriving a mask image. 原画像および前記原画像において対象物体を含む1以上の物体のそれぞれを表す1以上の領域にマスクが付与されたマスク画像を取得する手順と、
前記マスク画像におけるマスクを加工することにより疑似マスク画像を導出する手順と、
前記原画像および前記疑似マスク画像に基づいて、前記疑似マスク画像に含まれるマスクに基づく領域を有し、かつ前記原画像と同一の表現形式を有する疑似画像を導出する手順とをコンピュータに実行させる画像生成プログラム。
a step of acquiring an original image and a mask image in which a mask is applied to one or more regions representing each of one or more objects including the target object in the original image;
a step of deriving a pseudo mask image by processing a mask in the mask image;
and causing a computer to execute a procedure for deriving a pseudo image having a region based on a mask included in the pseudo mask image and having the same expression format as the original image, based on the original image and the pseudo mask image. Image generation program.
請求項22に記載の画像生成方法により生成された複数の疑似画像および疑似マスク画像の組を教師データとして用いて機械学習を行うことにより、入力画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションするセグメンテーションモデルを構築する手順をコンピュータに実行させる学習プログラム。 By performing machine learning using a set of a plurality of pseudo images and pseudo mask images generated by the image generation method according to claim 22 as training data, one or more objects including the target object included in the input image are A learning program that causes a computer to execute the steps to build a segmentation model that segments an area. 請求項19に記載のセグメンテーションモデルを用いて、処理対象となる対象画像に含まれる対象物体を含む1以上の物体の領域をセグメンテーションすることにより、前記対象画像に含まれる1以上の物体がマスクされたマスク画像を導出する手順をコンピュータに実行させる画像処理プログラム。 The one or more objects included in the target image to be processed are masked by segmenting the region of one or more objects including the target object included in the target image to be processed using the segmentation model according to claim 19. An image processing program that causes a computer to execute the steps to derive a mask image.
JP2022150250A 2022-03-25 2022-09-21 Image generation device, method and program, learning device, method and program, segmentation model, and image processing device, method and program Pending JP2023143628A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/170,532 US20230306605A1 (en) 2022-03-25 2023-02-17 Image generation apparatus, method, and program, learning apparatus, method, and program, segmentation model, and image processing apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022050635 2022-03-25
JP2022050635 2022-03-25

Publications (1)

Publication Number Publication Date
JP2023143628A true JP2023143628A (en) 2023-10-06

Family

ID=88220265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022150250A Pending JP2023143628A (en) 2022-03-25 2022-09-21 Image generation device, method and program, learning device, method and program, segmentation model, and image processing device, method and program

Country Status (1)

Country Link
JP (1) JP2023143628A (en)

Similar Documents

Publication Publication Date Title
US9697639B2 (en) Three-dimensional model data generation device, method and program
CN105184086B (en) For the method and system that improved Hemodynamics calculates in coronary artery
US8538105B2 (en) Medical image processing apparatus, method, and program
JP2015080720A (en) Apparatus and method for computer-aided diagnosis
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
JP2024009342A (en) Document preparation supporting device, method, and program
US11715279B2 (en) Weighted image generation apparatus, method, and program, determiner learning apparatus, method, and program, region extraction apparatus, method, and program, and determiner
Abdoulaev et al. ViVa: The virtual vascular project
JP7007469B2 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
JP2023143628A (en) Image generation device, method and program, learning device, method and program, segmentation model, and image processing device, method and program
JP7431317B2 (en) Document creation support device, method and program
WO2021193548A1 (en) Document creation assistance device, method, and program
US11244458B2 (en) Image processing apparatus, image processing method, and program
JP5586953B2 (en) Access to medical image database using anatomical shape information
US20230306605A1 (en) Image generation apparatus, method, and program, learning apparatus, method, and program, segmentation model, and image processing apparatus, method, and program
WO2021256096A1 (en) Region correction device, method, and program
JP7368592B2 (en) Document creation support device, method and program
Tyfa et al. MeMoS—A software tool for extraction of anatomical structures data from 3D medical images
Wang et al. Comparisons of centerline extraction methods for liver blood vessels in imageJ and 3D slicer
JP7436698B2 (en) Medical image processing device, method and program
JP7299314B2 (en) Medical documentation device, method and program, learning device, method and program, and trained model
JP6832479B1 (en) Image processing method, image processing program, and image processing device that divides a solid by a narrow part of the shape.
US20220230367A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
JP7436628B2 (en) Information storage device, method and program, and analysis record generation device, method and program
JP2024018562A (en) Image processing device, method, and program