JP2021018582A - Learning device, determination device, microscope, trained model, and program - Google Patents

Learning device, determination device, microscope, trained model, and program Download PDF

Info

Publication number
JP2021018582A
JP2021018582A JP2019133641A JP2019133641A JP2021018582A JP 2021018582 A JP2021018582 A JP 2021018582A JP 2019133641 A JP2019133641 A JP 2019133641A JP 2019133641 A JP2019133641 A JP 2019133641A JP 2021018582 A JP2021018582 A JP 2021018582A
Authority
JP
Japan
Prior art keywords
image
learning
similar
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019133641A
Other languages
Japanese (ja)
Other versions
JP7477269B2 (en
Inventor
功記 小西
Koki Konishi
功記 小西
友香 鈴木
Yuka Suzuki
友香 鈴木
三雄 須賀
Mitsuo Suga
三雄 須賀
秀夫 西岡
Hideo Nishioka
秀夫 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jeol Ltd
Nikon Corp
Original Assignee
Jeol Ltd
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jeol Ltd, Nikon Corp filed Critical Jeol Ltd
Priority to JP2019133641A priority Critical patent/JP7477269B2/en
Publication of JP2021018582A publication Critical patent/JP2021018582A/en
Application granted granted Critical
Publication of JP7477269B2 publication Critical patent/JP7477269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a learning device, determination device, microscope, trained model, and program that can prevent deterioration in accuracy of segmentation.SOLUTION: In an image processing system, a learning execution unit 13 of a learning unit 1 includes: a similar image learning unit 130 that executes first learning based on a similar image, which is an image of a similar object, an object having a similar appearance to a target object, which is a target to be determined; and a target image learning unit 132 that executes second learning based on teacher data which is a set of a target image, which is an image obtained by capturing an image of the target, and a correct image, which is an image showing the target object in the target image, and a result of the first learning by the similar image learning unit.SELECTED DRAWING: Figure 2

Description

本発明は、学習装置、判定装置、顕微鏡、学習済みモデル、及びプログラムに関する。 The present invention relates to learning devices, determination devices, microscopes, trained models, and programs.

医療において細胞や組織が撮像された画像が診断に用いられることがある。コンピュータによる画像認識によって、それらの画像に撮像されている組織や細胞を判定することが行われる。
画像認識において優れた性能をもつ深層学習の手法として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が知られている(非特許文献1)。CNNは画像認識において優れた性能を発揮するものの、膨大な数の教師データを学習に必要とする。
In medicine, images of cells and tissues may be used for diagnosis. Image recognition by a computer is used to determine the tissues and cells imaged in those images.
A convolutional neural network (CNN: Convolutional Neural Network) is known as a deep learning method having excellent performance in image recognition (Non-Patent Document 1). Although CNN has excellent performance in image recognition, it requires a huge amount of teacher data for learning.

CNNなどの深層学習を用いたセグメンテーション手法において、教師データが十分な数ない場合、あるいは十分な数用意するのが困難な場合、学習器の汎化性能が低くなることが知られている。学習器の汎化性能が低くなることは、セグメンテーションの精度が低下することを意味する。 In a segmentation method using deep learning such as CNN, it is known that the generalization performance of the learner becomes low when there are not enough teacher data or when it is difficult to prepare a sufficient number of teacher data. The low generalization performance of the learner means that the accuracy of segmentation is reduced.

Olaf Ronneberger, Philipp Fischer, Thomas Brox、“U−Net: Convolutional Networks for Biomedical Image Segmentation”、[online]、2015年5月18日、インターネット〈URL:https://arxiv.org/abs/1505.04597〉Oraf Ronneberger, Philipp Fisher, Thomas Brox, "U-Net: Convolutional Networks for Biomedical Image Segmentation", [online], May 18, 2015, Internet org / abs / 1505.04597>

本発明の一態様は、判定の対象である対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて第1の学習を実行する類似画像学習部と、前記対象物体が撮像された画像である対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習部による前記第1の学習の結果とに基づいて第2の学習を実行する対象画像学習部と、を備える学習装置である。 One aspect of the present invention includes a similar image learning unit that executes the first learning based on a similar image that is an image of a similar object that is an object similar in appearance to the target object to be determined, and the target object. The teacher data, which is a set of the target image which is the image captured by, and the correct answer image which is the image in which the target object is shown in the target image, and the result of the first learning by the similar image learning unit. It is a learning device including a target image learning unit that executes a second learning based on the above.

本発明の一態様は、上記の学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える判定装置である。 One aspect of the present invention is a determination device including a determination unit that determines the target object in the target image based on the learning result by the learning device.

本発明の一態様は、上記の学習装置を備える顕微鏡である。 One aspect of the present invention is a microscope provided with the above learning device.

本発明の一態様は、上記の判定装置を備える顕微鏡である。 One aspect of the present invention is a microscope provided with the above-mentioned determination device.

本発明の一態様は、上記の学習装置によって学習された学習済みモデルである。 One aspect of the present invention is a trained model trained by the learning device described above.

本発明の一態様は、コンピュータに、判定の対象である対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて第1の学習を実行する類似画像学習ステップと、前記対象物体が撮像された画像である対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習ステップの学習結果とに基づいて第2の学習を実行する対象画像学習ステップとを実行させるためのプログラムである。 One aspect of the present invention comprises a similar image learning step in which a computer performs a first learning based on a similar image which is an image of a similar object which is an object similar in appearance to the target object to be determined. Based on the teacher data which is a set of the target image which is the image of the target object and the correct image which is the image showing the target object in the target image, and the learning result of the similar image learning step. This is a program for executing the target image learning step for executing the second learning.

本発明の一態様は、コンピュータに、上記のプログラムによる学習結果に基づいて前記対象画像において前記対象物体を判定する判定ステップを実行させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to execute a determination step of determining the target object in the target image based on the learning result of the above program.

第1の実施形態に係る画像処理システムの一例を示す図である。It is a figure which shows an example of the image processing system which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る深層学習におけるデータの流れの一例を示す図である。It is a figure which shows an example of the data flow in the deep learning which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置の機械学習の処理の一例を示す図である。It is a figure which shows an example of the machine learning processing of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る学習処理の一例を示す図である。It is a figure which shows an example of the learning process which concerns on 1st Embodiment. 第1の実施形態に係る類似度の算出方法の一例を示す図である。It is a figure which shows an example of the calculation method of the degree of similarity which concerns on 1st Embodiment. 第1の実施形態に係る各画像と学習処理との関係の一例を示す図である。It is a figure which shows an example of the relationship between each image which concerns on 1st Embodiment, and learning processing. 第1の実施形態に係る判定処理の一例を示す図である。It is a figure which shows an example of the determination process which concerns on 1st Embodiment. 第1の実施形態に係るセグメンテーション結果の一例を示す図である。It is a figure which shows an example of the segmentation result which concerns on 1st Embodiment. 第1の実施形態に係る類似画像の類似度と判定精度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the similarity degree of the similar image which concerns on 1st Embodiment, and the determination accuracy. 第1の実施形態に係る類似画像における類似物体の空間密度と判定精度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the spatial density of a similar object in the similar image which concerns on 1st Embodiment, and the determination accuracy. 第2の実施形態に係る画像処理システムの一例を示す図である。It is a figure which shows an example of the image processing system which concerns on 2nd Embodiment. 第2の実施形態に係る画像と学習処理との関係の一例を示す図である。It is a figure which shows an example of the relationship between the image which concerns on 2nd Embodiment, and learning processing. 第2の実施形態に係る判定画像の一例を示す図である。It is a figure which shows an example of the determination image which concerns on 2nd Embodiment. 第2の実施形態に係る判定精度の一例を示す図である。It is a figure which shows an example of the determination accuracy which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理システムの一例を示す図である。It is a figure which shows an example of the image processing system which concerns on 3rd Embodiment. 第4の実施形態に係る画像処理システムの一例を示す図である。It is a figure which shows an example of the image processing system which concerns on 4th Embodiment. 実施形態の変形例に係る対象物体と類似度との対応の一例を示す図である。It is a figure which shows an example of correspondence with a target object which concerns on a modification of embodiment, and the degree of similarity. 実施形態の変形例に係る血管様画像の画像セット間距離の算出処理の一例を示す図である。It is a figure which shows an example of the calculation process of the distance between image sets of the blood vessel-like image which concerns on the modification of embodiment. 実施形態の変形例に係る血管画像及び血管様画像の一例を示す図である。It is a figure which shows an example of the blood vessel image and the blood vessel-like image which concerns on the modification of embodiment.

(第1の実施形態)
以下、図面を参照しながら第1の実施形態について詳しく説明する。図1は、本実施形態に係る画像処理システムSTの一例を示す図である。画像処理システムSTは、一例として、電子顕微鏡M2と、光学顕微鏡M1と、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1と、画像処理装置T1とを備える。
(First Embodiment)
Hereinafter, the first embodiment will be described in detail with reference to the drawings. FIG. 1 is a diagram showing an example of an image processing system ST according to the present embodiment. As an example, the image processing system ST includes an electron microscope M2, an optical microscope M1, an electron microscope image database DB2, a DAPI image database DB1, and an image processing device T1.

画像処理システムSTでは、電子顕微鏡M2によって脳組織の細胞核である脳組織細胞核A2が撮像される。脳組織細胞核A2は、一例として、マウスの小脳の顆粒細胞核である。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、対象画像PA1として、電子顕微鏡画像データベースDB2から画像処理装置T1に供給される。画像処理装置T1に供給される対象画像PA1の一部は、画像処理装置T1の学習部1に供給され学習処理に用いられ、残りの一部は画像処理装置T1の判定部2に供給され判定処理に用いられる。 In the image processing system ST, the brain tissue cell nucleus A2, which is the cell nucleus of the brain tissue, is imaged by the electron microscope M2. The brain tissue cell nucleus A2 is, for example, the granule cell nucleus of the mouse cerebellum. The image of the brain tissue cell nucleus A2 captured by the electron microscope M2 is supplied to the image processing device T1 from the electron microscope image database DB2 as the target image PA1. A part of the target image PA1 supplied to the image processing device T1 is supplied to the learning unit 1 of the image processing device T1 and used for learning processing, and the remaining part is supplied to the determination unit 2 of the image processing device T1 for determination. Used for processing.

画像処理装置T1は、一例として、コンピュータである。画像処理装置T1は、対象画像PA1において脳組織細胞核A2の画像を判定し、対象画像PA1に含まれる領域を脳組織細胞核A2の画像の領域と、それ以外の領域とに分類する。つまり、画像処理装置T1は、対象画像PA1に対してセグメンテーションを行う。脳組織細胞核A2は、判定の対象である対象物体の一例である。 The image processing device T1 is, for example, a computer. The image processing device T1 determines the image of the brain tissue cell nucleus A2 in the target image PA1, and classifies the region included in the target image PA1 into an image region of the brain tissue cell nucleus A2 and a region other than that. That is, the image processing device T1 performs segmentation on the target image PA1. The brain tissue cell nucleus A2 is an example of a target object to be determined.

画像処理装置T1は、深層学習に基づいてセグメンテーションを行う。画像処理装置T1は、学習部1と、判定部2とを備える。学習部1は、深層学習に基づいて学習を実行する。判定部2は、学習部1が学習した結果に基づいて対象画像PA1において対象物体の画像の領域を判定する。
学習部1は、対象画像PA1と、核正解画像PT2との組である教師データLDに基づいて学習を実行する。ここで核正解画像PT2とは、対象画像PA1において予め脳組織細胞核A2の画像の領域が示された画像である。
The image processing device T1 performs segmentation based on deep learning. The image processing device T1 includes a learning unit 1 and a determination unit 2. The learning unit 1 executes learning based on deep learning. The determination unit 2 determines the region of the image of the target object in the target image PA1 based on the result learned by the learning unit 1.
The learning unit 1 executes learning based on the teacher data LD, which is a set of the target image PA1 and the nuclear correct answer image PT2. Here, the nuclear correct answer image PT2 is an image in which the region of the image of the brain tissue cell nucleus A2 is shown in advance in the target image PA1.

核正解画像PT2は、対象画像PA1において脳組織細胞核A2を示す領域について、例えば医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって、対象画像PA1に基づいて作成される。核正解画像PT2の作成には手間と時間を要するため、核正解画像PT2を十分な数だけ準備できない場合がある。つまり、画像処理装置T1が学習を行うために十分な数の教師データLDを準備できない場合がある。 The nuclear correct image PT2 is a target image PA1 in which the region showing the brain tissue cell nucleus A2 is painted by, for example, a human with medical knowledge, the inside of this region is painted or the outline of this region is drawn. Created based on image PA1. Since it takes time and effort to create the nuclear correct image PT2, it may not be possible to prepare a sufficient number of nuclear correct images PT2. That is, the image processing device T1 may not be able to prepare a sufficient number of teacher data LDs for learning.

画像処理システムSTでは、教師データLDを画像処理装置T1が学習を行うために十分な数だけ準備できない場合であっても、学習部1が類似画像PR1を学習に用いることによって学習の汎化性能の低下を抑制する。ここで類似画像PR1は、対象物体と外観が類似した物体である類似物体についての画像である。対象物体と外観が類似した物体とは、例えば、対象物体と輪郭などの形状が類似した物体である。また、類似物体についての画像とは、例えば、撮像素子を備える顕微鏡などによって類似物体が撮像された画像である。 In the image processing system ST, even if the image processing device T1 cannot prepare a sufficient number of teacher data LDs for learning, the learning unit 1 uses the similar image PR1 for learning to perform generalization of learning. Suppress the decrease in. Here, the similar image PR1 is an image of a similar object which is an object similar in appearance to the target object. An object having a similar appearance to the target object is, for example, an object having a similar shape such as a contour to the target object. The image of a similar object is, for example, an image obtained by capturing a similar object with a microscope provided with an image sensor.

画像処理装置T1は、類似画像PR1を用いて類似物体の特徴量を学習する。画像処理システムSTでは、脳組織細胞核A2と形状が類似した類似物体の一例として、培養初期のヒトの人工多能性幹細胞(iPS細胞)の細胞核の蛍光像であるiPS細胞核A1が採用される。脳組織細胞核A2の形状は粒状であり、iPS細胞核A1の形状は粒状の形状と類似している。 The image processing device T1 learns the feature amount of the similar object by using the similar image PR1. In the image processing system ST, iPS cell nucleus A1, which is a fluorescent image of the cell nucleus of human induced pluripotent stem cells (iPS cells) in the early stage of culture, is adopted as an example of a similar object having a shape similar to that of brain tissue cell nucleus A2. The shape of the brain tissue cell nucleus A2 is granular, and the shape of the iPS cell nucleus A1 is similar to the granular shape.

なお、本実施形態では、類似物体が対象物体と形状が類似した物体である場合の一例について説明するが、これに限らない。類似物体は、対象物体と構造や模様などのパターンが類似した物体であってもよい。
また、本実施形態では、類似物体についての画像が、類似物体が撮像素子を備える顕微鏡によって撮像された画像である場合の一例について説明するが、これに限らない。類似物体についての画像は、外観が対象物体と類似していれば類似物体が紙面などに描かれた画像であってもよい。
In this embodiment, an example in which the similar object is an object having a shape similar to that of the target object will be described, but the present invention is not limited to this. The similar object may be an object having a similar pattern such as a structure or a pattern to the target object.
Further, in the present embodiment, an example in which the image of the similar object is an image captured by a microscope including an image sensor will be described, but the present invention is not limited to this. The image of the similar object may be an image in which the similar object is drawn on a paper surface or the like as long as the appearance is similar to the target object.

光学顕微鏡M1は、DAPI(4’,6−diamidino−2−phenylindole)によって染色されたiPS細胞核A1を、蛍光観察によって観察する。iPS細胞核A1は、光学顕微鏡M1によって撮像され、類似画像元画像PMとしてDAPI画像データベースDB1に蓄積される。学習部1は、画像認識によって類似画像元画像PMにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1を生成する。ここで核正解画像PT1とは、iPS細胞核A1が撮像された類似画像元画像PMにおいて、iPS細胞核A1の画像の領域が示された画像である。 The optical microscope M1 observes iPS cell nuclei A1 stained with DAPI (4', 6-diamidino-2-phenylindole) by fluorescence observation. The iPS cell nucleus A1 is imaged by the optical microscope M1 and accumulated in the DAPI image database DB1 as a similar image source image PM. The learning unit 1 selects an image region of the iPS cell nucleus A1 in the similar image source image PM by image recognition, and generates a nuclear correct image PT1 showing the selected region. Here, the nuclear correct answer image PT1 is an image in which the region of the image of the iPS cell nucleus A1 is shown in the similar image original image PM in which the iPS cell nucleus A1 is captured.

画像処理装置T1は、核正解画像PT1を用いてiPS細胞核A1の特徴量を学習する。ここでiPS細胞核A1の特徴量とは、粒状の形状である。iPS細胞核A1の形状と脳組織細胞核A2の形状とは、粒状である点において類似している。
画像処理装置T1は、学習した特徴量を先見情報として、対象物体である脳組織細胞核A2を抽出するための抽出器の学習を行う。ここで先見情報とは、対象物体を抽出するための抽出器の学習を実行するより前に、対象物体の外観と類似した特徴が学習された情報である。
The image processing device T1 learns the feature amount of the iPS cell nucleus A1 using the nuclear correct image PT1. Here, the feature amount of iPS cell nucleus A1 is a granular shape. The shape of the iPS cell nucleus A1 and the shape of the brain tissue cell nucleus A2 are similar in that they are granular.
The image processing device T1 learns an extractor for extracting the brain tissue cell nucleus A2, which is a target object, using the learned features as foresight information. Here, the foresight information is information in which features similar to the appearance of the target object are learned before the learning of the extractor for extracting the target object is executed.

画像処理システムSTでは、画像処理装置T1が深層学習の学習に用いる教師データLDの数が十分でない場合であっても、先見情報を学習に用いることができるため、学習の汎化性能の低下を抑制できる。つまり、画像処理システムSTでは、教師データLDの数が十分でない場合であっても、セグメンテーションの精度を高めることができる。 In the image processing system ST, even when the number of teacher data LDs used by the image processing device T1 for learning deep learning is not sufficient, foresight information can be used for learning, so that the generalization performance of learning is deteriorated. Can be suppressed. That is, in the image processing system ST, the accuracy of segmentation can be improved even when the number of teacher data LDs is not sufficient.

次に図2を参照し、画像処理装置T1の構成の詳細について説明する。図2は、本実施形態に係る画像処理装置T1の構成の一例を示す図である。学習部1は、学習装置の一例であり、判定部2は、判定装置の一例である。 Next, with reference to FIG. 2, the details of the configuration of the image processing device T1 will be described. FIG. 2 is a diagram showing an example of the configuration of the image processing device T1 according to the present embodiment. The learning unit 1 is an example of a learning device, and the determination unit 2 is an example of a determination device.

まず学習部1の構成について説明する。学習部1は、類似画像元画像取得部10と、類似物体抽出部11と、類似度算出部12と、学習実行部13と、教師データ取得部14と、学習結果出力部15とを備える。
類似画像元画像取得部10と、類似物体抽出部11と、類似度算出部12と、学習実行部13と、教師データ取得部14と、学習結果出力部15とは、それぞれ、画像処理装置T1のCPU(Central Processing Unit)がROM(Read Only Memory)からプログラムを読み込んで処理を実行することにより実現されるモジュールである。
First, the configuration of the learning unit 1 will be described. The learning unit 1 includes a similar image source image acquisition unit 10, a similar object extraction unit 11, a similarity calculation unit 12, a learning execution unit 13, a teacher data acquisition unit 14, and a learning result output unit 15.
The similar image source image acquisition unit 10, the similar object extraction unit 11, the similarity calculation unit 12, the learning execution unit 13, the teacher data acquisition unit 14, and the learning result output unit 15 are each an image processing unit T1. CPU (Central Processing Unit) is a module realized by reading a program from ROM (Read Only Memory) and executing processing.

ここで図2に加えて図3を参照しながら、類似画像元画像取得部10及び類似物体抽出部11について説明する。図3は、本実施形態に係る深層学習におけるデータの流れの一例を示す図である。 Here, the similar image source image acquisition unit 10 and the similar object extraction unit 11 will be described with reference to FIG. 3 in addition to FIG. FIG. 3 is a diagram showing an example of a data flow in deep learning according to the present embodiment.

類似画像元画像取得部10は、類似元画像データベース3から供給される類似画像元画像PMを取得する。図3の類似元画像データベース3は、本実施形態では一例として、図1のDAPI画像データベースDB1である。
なお、類似画像元画像取得部10は、類似元画像データベース3の代わりに、画像処理システムSTの外部のデータベースから類似画像元画像PMを取得してもよい。画像処理システムSTの外部のデータベースとは、例えば、ウェブ上に画像を公開している画像サーバなどの公共のデータベースである。
The similar image source image acquisition unit 10 acquires the similar image source image PM supplied from the similarity source image database 3. The similar original image database 3 of FIG. 3 is the DAPI image database DB1 of FIG. 1 as an example in this embodiment.
The similar image source image acquisition unit 10 may acquire the similar image source image PM from a database outside the image processing system ST instead of the similar image source image database 3. The external database of the image processing system ST is, for example, a public database such as an image server that publishes images on the web.

類似物体抽出部11は、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、抽出した類似物体に基づいて類似画像元画像PMから類似画像PRを生成する。 The similar object extraction unit 11 extracts a similar object from the similar image source image PM acquired by the similar image source image acquisition unit 10. The similar object extraction unit 11 generates a similar image PR from the similar image original image PM based on the extracted similar object.

図2に戻って学習部1の構成の説明を続ける。
類似度算出部12は、類似物体抽出部11が生成した類似画像PRと、対象画像取得部140が取得した対象画像PAとに基づいて、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度を算出する。類似度算出部12は、類似度を、一例として、対象物体の画像、及び対象物体の画像それぞれのHuモーメントの間のL1距離として算出する。本実施形態では、類似度は値が小さいほど、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像とは類似している。
Returning to FIG. 2, the description of the configuration of the learning unit 1 will be continued.
The similarity calculation unit 12 sets the image of the similar object in the similar image PR and the image of the similar object in the target image PA based on the similar image PR generated by the similar object extraction unit 11 and the target image PA acquired by the target image acquisition unit 140. The degree of similarity with the image of the target object is calculated. The similarity calculation unit 12 calculates the similarity as, for example, the L1 distance between the Hu moment of the image of the target object and the image of the target object. In the present embodiment, the smaller the similarity value, the more similar the image of the similar object in the similar image PR and the image of the target object in the target image PA.

学習実行部13は、深層学習に基づいて学習を実行する。以下では、学習実行部13が学習に用いる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を、ニューラルネットワークNNという。学習実行部13は、類似画像学習部130と、形状損失算出部131と、対象画像学習部132と、VAT(Virtual Adversarial Training)損失算出部133と、クロスエントロピー損失算出部134とを備える。
ここで再び図2に加えて図3を参照し、学習実行部13について説明する。
The learning execution unit 13 executes learning based on deep learning. In the following, the convolutional neural network (CNN: Convolutional Neural Network) used by the learning execution unit 13 for learning is referred to as a neural network NN. The learning execution unit 13 includes a similar image learning unit 130, a shape loss calculation unit 131, a target image learning unit 132, a VAT (Virtual Adversarial Training) loss calculation unit 133, and a cross entropy loss calculation unit 134.
Here, the learning execution unit 13 will be described with reference to FIG. 3 in addition to FIG.

類似画像学習部130は、類似物体抽出部11が生成した類似画像PRに基づいて第1の学習を実行する。ここで第1の学習とは、一例として、類似画像PRを入力に用いる畳み込みオートエンコーダ(CAE: Convolutional Auto Encoder)による学習である。類似画像学習部130は、類似画像PRを入力として用いてCAEを用いることによって、類似画像PRにおける類似物体の特徴を抽出する。以下では、類似画像学習部130が類似画像PRを入力に用いて学習させたCAEを、CAEfという。なお、CAEfは、ニューラルネットワークNNとは別のニューラルネットワークである。 The similar image learning unit 130 executes the first learning based on the similar image PR generated by the similar object extraction unit 11. Here, the first learning is, for example, learning by a convolutional autoencoder (CAE) that uses a similar image PR as an input. The similar image learning unit 130 extracts the characteristics of the similar object in the similar image PR by using the similar image PR as an input and using CAE. In the following, the CAE trained by the similar image learning unit 130 using the similar image PR as an input is referred to as CAEf. CAEf is a neural network different from the neural network NN.

形状損失算出部131は、対象画像学習部132によって算出される予測画像PPと、類似画像学習部130が学習させたCAEfとに基づいて、形状損失L3を算出する。予測画像PPとは、対象画像PAを入力とした場合のニューラルネットワークNNの出力である。 The shape loss calculation unit 131 calculates the shape loss L3 based on the predicted image PP calculated by the target image learning unit 132 and the CAEf learned by the similar image learning unit 130. The predicted image PP is an output of the neural network NN when the target image PA is input.

対象画像学習部132は、対象画像PAと、正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習の結果とに基づいて第2の学習を実行する。ここで、対象画像PAは、対象画像取得部140によって取得され、正解画像PTは、正解画像取得部141によって取得される。第2の学習とは、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理である。 The target image learning unit 132 executes the second learning based on the teacher data LD, which is a set of the target image PA and the correct image PT, and the result of the first learning by the similar image learning unit 130. Here, the target image PA is acquired by the target image acquisition unit 140, and the correct image PT is acquired by the correct image acquisition unit 141. In the second learning, the weight of the neural network NN that minimizes the loss function L is calculated using the teacher data LD, which is a set of the target image PA and the correct image PT, and the calculated weight is used as the neural network. This is a process for updating the weight of the network NN.

この損失関数Lは、クロスエントロピー損失L1に、VAT損失L2と、形状損失L3とがそれぞれに所定の重みを乗じて加算された量である。上述したように、形状損失L3は、類似画像学習部130が第1の学習によって生成したCAEfに基づいて算出されており、損失関数Lにはこの形状損失L3が加算されている。したがって、損失関数Lは、類似画像学習部130による第1の学習の結果に基づいている。 This loss function L is an amount obtained by multiplying the cross entropy loss L1, the VAT loss L2, and the shape loss L3 by predetermined weights. As described above, the shape loss L3 is calculated based on the CAEf generated by the similar image learning unit 130 in the first learning, and the shape loss L3 is added to the loss function L. Therefore, the loss function L is based on the result of the first learning by the similar image learning unit 130.

VAT損失算出部133は、対象画像取得部140が取得した対象画像PAに基づいてVAT損失L2を算出する。
クロスエントロピー損失算出部134は、対象画像PAを入力とした場合のニューラルネットワークNNの出力である予測画像PPと、正解画像取得部141が取得した正解画像PTとに基づいてクロスエントロピー損失L1を算出する。
The VAT loss calculation unit 133 calculates the VAT loss L2 based on the target image PA acquired by the target image acquisition unit 140.
The cross entropy loss calculation unit 134 calculates the cross entropy loss L1 based on the predicted image PP which is the output of the neural network NN when the target image PA is input and the correct image PT acquired by the correct image acquisition unit 141. To do.

図2に戻って学習部1の構成の説明を続ける。
教師データ取得部14は、教師データデータベース4から教師データLDを取得する。教師データ取得部14は、対象画像取得部140と、正解画像取得部141とを備える。
対象画像取得部140は、教師データデータベース4から対象画像PAを取得する。教師データデータベース4は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。対象画像PAは、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
Returning to FIG. 2, the description of the configuration of the learning unit 1 will be continued.
The teacher data acquisition unit 14 acquires the teacher data LD from the teacher data database 4. The teacher data acquisition unit 14 includes a target image acquisition unit 140 and a correct answer image acquisition unit 141.
The target image acquisition unit 140 acquires the target image PA from the teacher data database 4. The teacher data database 4 is the electron microscope image database DB2 of FIG. 1 as an example in this embodiment. The target image PA is a part of the target image PA1 stored in the electron microscope image database DB2.

正解画像取得部141は、教師データデータベース4から正解画像PTを取得する。正解画像PTは、対象画像PAに基づいて予め人間によって作成され電子顕微鏡画像データベースDB2に記憶される。正解画像PTは、例えば、図1の核正解画像PT2である。 The correct image acquisition unit 141 acquires the correct image PT from the teacher data database 4. The correct image PT is created in advance by a human based on the target image PA and stored in the electron microscope image database DB2. The correct image PT is, for example, the nuclear correct image PT2 of FIG.

学習結果出力部15は、学習実行部13の学習結果を判定部2に出力する。学習実行部13の学習結果とは、学習処理によって重みが更新されたニューラルネットワークNNである。 The learning result output unit 15 outputs the learning result of the learning execution unit 13 to the determination unit 2. The learning result of the learning execution unit 13 is a neural network NN whose weight is updated by the learning process.

次に、判定部2の構成について説明する。判定部2は、判定画像取得部20と、判定実行部21と、判定結果出力部22とを備える。
判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像データベース5は、本実施形態では一例として、図1の電子顕微鏡画像データベースDB2である。判定画像PEは、一例として、電子顕微鏡画像データベースDB2に記憶される対象画像PA1の一部である。
Next, the configuration of the determination unit 2 will be described. The determination unit 2 includes a determination image acquisition unit 20, a determination execution unit 21, and a determination result output unit 22.
The determination image acquisition unit 20 acquires the determination image PE from the determination image database 5. The determination image database 5 is the electron microscope image database DB2 of FIG. 1 as an example in the present embodiment. The determination image PE is, for example, a part of the target image PA1 stored in the electron microscope image database DB2.

判定実行部21は、判定画像取得部20が取得した判定画像PEと、学習実行部13によって学習処理によって重みが更新されたニューラルネットワークNNとに基づいて、対象画像PAにおいて対象物体の画像の領域を判定する。つまり、判定実行部21は、対象画像PAに対してセグメンテーションを行う。
判定結果出力部22は、判定実行部21が判定した結果であるセグメンテーション結果を、表示装置(不図示)に表示させる。
The determination execution unit 21 is based on the determination image PE acquired by the determination image acquisition unit 20 and the neural network NN whose weight is updated by the learning process by the learning execution unit 13, and is the area of the image of the target object in the target image PA. To judge. That is, the determination execution unit 21 performs segmentation on the target image PA.
The determination result output unit 22 displays the segmentation result, which is the result of the determination by the determination execution unit 21, on a display device (not shown).

図4から図8を参照し、画像処理システムSTの処理について説明する。
図4は、本実施形態に係る画像処理装置T1の機械学習の処理の一例を示す図である。図4に示す一例では、対象物体とは第2部位の細胞核である。また、第1部位の細胞核が、対象物体である第2部位の細胞核の類似物体として用いられる。一例として、第1部位の細胞核とはiPS細胞核A1であり、第2部位の細胞核とは脳組織細胞核A2である。また図4では、第1顕微鏡とは光学顕微鏡M1であり、第2顕微鏡とは電子顕微鏡M2である。
The processing of the image processing system ST will be described with reference to FIGS. 4 to 8.
FIG. 4 is a diagram showing an example of machine learning processing of the image processing device T1 according to the present embodiment. In the example shown in FIG. 4, the target object is the cell nucleus of the second site. Further, the cell nucleus of the first site is used as a similar object to the cell nucleus of the second site, which is the target object. As an example, the cell nucleus of the first site is the iPS cell nucleus A1, and the cell nucleus of the second site is the brain tissue cell nucleus A2. Further, in FIG. 4, the first microscope is an optical microscope M1 and the second microscope is an electron microscope M2.

ステップS10:第1顕微鏡において第1観察条件が設定される。第1観察条件とは、第1顕微鏡によって第1部位の細胞核を観察するための観察条件である。観察条件は、一例として、蛍光観察、明視野観察などの顕微鏡の観察方法、及び撮像画像のピクセル解像度などが含まれる。本実施形態の第1観察条件における観察条件とは、例えば、蛍光観察である。 Step S10: The first observation condition is set in the first microscope. The first observation condition is an observation condition for observing the cell nucleus of the first site with the first microscope. As an example, the observation conditions include a microscope observation method such as fluorescence observation and bright field observation, and pixel resolution of the captured image. The observation condition in the first observation condition of the present embodiment is, for example, fluorescence observation.

ステップS20:第1顕微鏡で第1部位の細胞核が撮像される。この一例では、光学顕微鏡M1で、DAPIによって染色されたiPS細胞核A1が蛍光観察によって観察される。第1顕微鏡は、第1部位の細胞核を撮像した結果に基づいて、類似画像元画像PMを生成する。 Step S20: The cell nucleus of the first site is imaged with the first microscope. In this example, the iPS cell nucleus A1 stained with DAPI is observed by fluorescence observation with an optical microscope M1. The first microscope generates a similar image source image PM based on the result of imaging the cell nucleus of the first site.

ステップS30:核正解画像PT1が生成される。本実施形態では、核正解画像PT1は画像処理装置T1の学習部1によって類似画像元画像PMから生成される。学習部1は、画像認識によって類似画像元画像PMにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1を生成する。 Step S30: The nuclear correct image PT1 is generated. In the present embodiment, the nuclear correct image PT1 is generated from the similar image source image PM by the learning unit 1 of the image processing device T1. The learning unit 1 selects an image region of the iPS cell nucleus A1 in the similar image source image PM by image recognition, and generates a nuclear correct image PT1 showing the selected region.

ステップS40:画像処理装置T1は、核正解画像PT1のピクセル解像度を第2観察条件が示すピクセル解像度に一致させるように変更する。このピクセル解像度の変更の処理とは、例えば、アップサンプリングまたはダウンサンプリングである。 Step S40: The image processing device T1 changes the pixel resolution of the nuclear correct image PT1 so as to match the pixel resolution indicated by the second observation condition. The processing of changing the pixel resolution is, for example, upsampling or downsampling.

ステップS50:画像処理装置T1は、核正解画像PT1を用いて類似物体の特徴を学習する。ここで類似物体の特徴の学習においては、例えばCAEが用いられる。 Step S50: The image processing device T1 learns the characteristics of a similar object using the nuclear correct image PT1. Here, for example, CAE is used in learning the characteristics of similar objects.

ステップS60:第2顕微鏡において第2観察条件が設定される。第2観察条件とは、第2顕微鏡によって第2部位の細胞核を観察するための観察条件である。 Step S60: The second observation condition is set in the second microscope. The second observation condition is an observation condition for observing the cell nucleus of the second site with a second microscope.

ステップS70:第2顕微鏡で第2部位の細胞核が撮像される。この一例では、電子顕微鏡M2で、脳組織細胞核A2が観察される。電子顕微鏡M2は、第2部位の細胞核を撮像した結果に基づいて、対象画像PAを生成する。 Step S70: The cell nucleus of the second site is imaged with the second microscope. In this example, the brain tissue cell nucleus A2 is observed with an electron microscope M2. The electron microscope M2 generates a target image PA based on the result of imaging the cell nucleus of the second site.

ステップS80:複数の対象画像PAが学習用の画像と、判定用の画像とに分割される。例えば、複数の対象画像PAのうち、所定の割合に対応する枚数が学習用の画像に用いられ、残りの枚数が判定用の画像に用いられる。 Step S80: The plurality of target image PAs are divided into an image for learning and an image for determination. For example, among the plurality of target image PAs, the number corresponding to a predetermined ratio is used for the learning image, and the remaining number is used for the determination image.

ステップS90:学習用の対象画像PAに対して、核正解画像PT2が作成される。ここで核正解画像PT2は、対象画像PA1において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。核正解画像PT2を作成する作業は、例えば、画像処理ソフトなどを用いて、タッチパネルやディスプレイに表示される核正解画像PT2の脳組織細胞核A2を示す領域がタッチペンやマウスなどによってなぞられることによって行われる。
学習用の対象画像PAと、核正解画像PT2との組は、画像処理装置T1が行う学習処理の教師データLDとして用いられる。
Step S90: A nuclear correct image PT2 is created for the target image PA for learning. Here, the nuclear correct answer image PT2 is created by painting the inside of the region showing the brain tissue cell nucleus A2 in the target image PA1 by a person having medical knowledge or drawing the outline of this region. Will be done. The work of creating the nuclear correct answer image PT2 is performed by, for example, using image processing software or the like to trace the region showing the brain tissue cell nucleus A2 of the nuclear correct answer image PT2 displayed on the touch panel or the display with a touch pen or a mouse. It is said.
The pair of the target image PA for learning and the nuclear correct image PT2 is used as the teacher data LD of the learning process performed by the image processing device T1.

ステップS100:画像処理装置T1は、学習用の対象画像PAと、核正解画像PT2との組を教師データLDとして用いて第2部位の細胞核の特徴量を、深層学習を用いて学習する。この深層学習においては、損失関数として、クロスエントロピー損失に形状損失、及びVAT損失が追加された関数が用いられる。 Step S100: The image processing device T1 learns the feature amount of the cell nucleus of the second site by using the pair of the target image PA for learning and the nuclear correct answer image PT2 as the teacher data LD by using deep learning. In this deep learning, as a loss function, a function in which shape loss and VAT loss are added to cross entropy loss is used.

ステップS110:画像処理装置T1は、学習結果に基づいて、判定用の画像について第2部位の細胞核の画像を判定する。 Step S110: The image processing device T1 determines the image of the cell nucleus of the second site with respect to the image for determination based on the learning result.

なお、本実施形態では、ステップS30において説明したように、核正解画像PT1が類似画像元画像PMから生成される場合の一例について説明したが、これに限らない。核正解画像PT1として類似画像元画像PMが用いられてもよい。例えば、核正解画像PT1としてDAPIによって染色されたiPS細胞核A1が蛍光観察によって観察された画像が、iPS細胞核A1の画像の領域が抽出されることなくそのまま用いられてもよい。 In this embodiment, as described in step S30, an example in which the nuclear correct image PT1 is generated from the similar image source image PM has been described, but the present invention is not limited to this. A similar image source image PM may be used as the nuclear correct image PT1. For example, the image in which the iPS cell nucleus A1 stained by DAPI is observed by fluorescence observation as the nuclear correct image PT1 may be used as it is without extracting the region of the image of the iPS cell nucleus A1.

次に図5を参照し、学習部1の学習処理について説明する。図5は、本実施形態に係る学習処理の一例を示す図である。 Next, the learning process of the learning unit 1 will be described with reference to FIG. FIG. 5 is a diagram showing an example of the learning process according to the present embodiment.

ステップS200:類似画像元画像取得部10は、類似元画像データベース3から供給される類似画像元画像PMを取得する。類似画像元画像取得部10は、取得した類似画像元画像PMを類似物体抽出部11に供給する。 Step S200: The similar image source image acquisition unit 10 acquires the similar image source image PM supplied from the similarity source image database 3. The similar image source image acquisition unit 10 supplies the acquired similar image source image PM to the similar object extraction unit 11.

ステップS210:教師データ取得部14は、教師データデータベース4から教師データLDを取得する。ここで対象画像取得部140は対象画像PAを取得し、一方、正解画像取得部141は正解画像PTを取得する。上述したように正解画像PTは、対象画像PAから作成されており、正解画像PTと対象画像PAとは対応づけられている。
対象画像取得部140は、取得した対象画像PAを、対象画像学習部132及びVAT損失算出部133に供給する。正解画像取得部141は、取得した正解画像PTを、クロスエントロピー損失算出部134、及び類似度算出部12に供給する。
Step S210: The teacher data acquisition unit 14 acquires the teacher data LD from the teacher data database 4. Here, the target image acquisition unit 140 acquires the target image PA, while the correct image acquisition unit 141 acquires the correct image PT. As described above, the correct image PT is created from the target image PA, and the correct image PT and the target image PA are associated with each other.
The target image acquisition unit 140 supplies the acquired target image PA to the target image learning unit 132 and the VAT loss calculation unit 133. The correct image acquisition unit 141 supplies the acquired correct image PT to the cross entropy loss calculation unit 134 and the similarity calculation unit 12.

ステップS220:類似物体抽出部11は、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、例えば、二値化処理や画像認識のアルゴリズムを用いて類似画像元画像PMから類似物体を抽出する。類似物体抽出部11は、画像認識のアルゴリズムとして、例えば、テンプレートマッチングを用いる。
類似物体抽出部11は、抽出した類似物体に基づいて類似画像元画像PMから類似画像PRを生成する。類似物体抽出部11は、生成した類似画像PRを、類似度算出部12及び類似画像学習部130に供給する。
Step S220: The similar object extraction unit 11 extracts a similar object from the similar image source image PM acquired by the similar image source image acquisition unit 10. The similar object extraction unit 11 extracts a similar object from the similar image source image PM by using, for example, a binarization process or an image recognition algorithm. The similar object extraction unit 11 uses, for example, template matching as an image recognition algorithm.
The similar object extraction unit 11 generates a similar image PR from the similar image original image PM based on the extracted similar object. The similar object extraction unit 11 supplies the generated similar image PR to the similarity calculation unit 12 and the similar image learning unit 130.

ステップS230:類似度算出部12は、類似物体抽出部11が生成した類似画像PRと、対象画像取得部140が取得した対象画像PAとに基づいて、類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度を算出する。 Step S230: The similarity calculation unit 12 sets the image of the similar object in the similar image PR and the target based on the similar image PR generated by the similar object extraction unit 11 and the target image PA acquired by the target image acquisition unit 140. The degree of similarity with the image of the target object in the image PA is calculated.

ここで図6を参照し、類似度算出部12が算出する類似度について説明する。図6は、本実施形態に係る類似度の算出方法の一例を示す図である。図6では、類似画像PRの一例である類似画像PR1について類似度を算出する場合を説明する。類似画像PR1には、対象物体の画像である対象物体画像が複数含まれている。複数の対象物体画像のそれぞれを対象物体画像SPi(i=1、2、・・・、N:Nは類似画像PR1に含まれる対象物体の画像の数)などと表す。 Here, with reference to FIG. 6, the similarity calculated by the similarity calculation unit 12 will be described. FIG. 6 is a diagram showing an example of a method for calculating the degree of similarity according to the present embodiment. FIG. 6 describes a case where the degree of similarity is calculated for the similar image PR1 which is an example of the similar image PR. The similar image PR1 includes a plurality of target object images which are images of the target object. Each of the plurality of target object images is represented as a target object image SPi (i = 1, 2, ..., N: N is the number of images of the target object included in the similar image PR1).

類似度算出部12は、類似画像PR1に含まれる複数の対象物体画像のなかから、例えば対象物体画像SP1を選択する。類似度算出部12は、選択した対象物体画像SP1について画像モーメントを算出する。画像モーメントは、例えば式(1)によって定義される。 The similarity calculation unit 12 selects, for example, the target object image SP1 from the plurality of target object images included in the similar image PR1. The similarity calculation unit 12 calculates the image moment for the selected target object image SP1. The image moment is defined by, for example, equation (1).

ここで座標x、及び座標yは、対象物体画像SP1に対して2直交座標系(xy座標系)を設定した場合の対象物体画像SP1に含まれるある点のx座標、及びy座標を示す。画素値I(x,y)は、対象物体画像SP1の画素値を示す。本実施形態では、類似画像PR1は二値化画像であるため、画素値I(x,y)は0または1である。数i、及び数jは、式(1)の右辺において座標x、及び座標yそれぞれのべき乗を示し、式(1)の左辺において画像モーメントの次数を示す自然数である。 Here, the coordinates x and the coordinates y indicate the x-coordinate and the y-coordinate of a certain point included in the target object image SP1 when a two Cartesian coordinate system (xy coordinate system) is set for the target object image SP1. The pixel value I (x, y) indicates the pixel value of the target object image SP1. In the present embodiment, since the similar image PR1 is a binarized image, the pixel value I (x, y) is 0 or 1. The numbers i and j are natural numbers indicating the powers of the coordinates x and the coordinates y on the right side of the equation (1) and the order of the image moments on the left side of the equation (1).

類似度算出部12は、2直交座標系(xy座標系)で表された式(1)の画像モーメントを算出する。類似度算出部12は、対象物体画像SP1について画像モーメントを、所定の次数について算出する。所定の次数は、Huモーメントを算出するのに必要な次数である。 The similarity calculation unit 12 calculates the image moment of the equation (1) represented by the two Cartesian coordinate system (xy coordinate system). The similarity calculation unit 12 calculates the image moment for the target object image SP1 with respect to a predetermined order. The predetermined order is the order required to calculate the Hu moment.

類似度算出部12は、算出した画像モーメントからHuモーメントを算出する。Huモーメントは、画像の並進、スケーリング、及び回転などに対する7種類の不変量であり、画像モーメントの多項式で表される。ここで画像のスケーリングは、画像における類似物体の空間密度によって表される。画像における類似物体の空間密度とは、例えば、画像に占める類似物体の画像の領域の面積の、画像全体の面積に対する割合として算出される。
上述したように、類似度算出部12は、所定の次数の画像モーメントによって定量化する。
The similarity calculation unit 12 calculates the Hu moment from the calculated image moment. Hu moments are seven types of invariants with respect to image translation, scaling, rotation, etc., and are represented by polynomials of image moments. Here, image scaling is represented by the spatial density of similar objects in the image. The spatial density of a similar object in an image is calculated as, for example, the ratio of the area of the image region of the similar object to the image to the area of the entire image.
As described above, the similarity calculation unit 12 quantifies the image moments of a predetermined order.

類似度算出部12は、対象物体画像SP1と対象物体との類似度を、対象物体画像SP1のHuモーメントと対象物体のHuモーメントとのL1距離として算出する。
類似度算出部12は、対象物体との類似度を、対象物体画像SPi(i=1、2、・・・、N:Nは類似画像PR1に含まれる対象物体の画像の数)について算出する。類似度算出部12は、一例として、算出した類似度を類似画像PR1に含まれる対象物体の画像についての平均値を、類似画像PR1の類似度として算出する。なお、類似度の算出方法は、上述のHuモーメントを用いた態様に限られない。例えば、領域の外形を、重心をOとしたrΘ座標系で表してヒストグラムを作成し、当該ヒストグラムの差分(L1距離等)に基づいて類似度を算出してもよい。
The similarity calculation unit 12 calculates the similarity between the target object image SP1 and the target object as the L1 distance between the Hu moment of the target object image SP1 and the Hu moment of the target object.
The similarity calculation unit 12 calculates the similarity with the target object for the target object image SPI (i = 1, 2, ..., N: N is the number of images of the target object included in the similar image PR1). .. As an example, the similarity calculation unit 12 calculates the average value of the calculated similarity for the image of the target object included in the similar image PR1 as the similarity of the similar image PR1. The method of calculating the similarity is not limited to the mode using the Hu moment described above. For example, the outer shape of the region may be represented by the rΘ coordinate system with the center of gravity as O to create a histogram, and the similarity may be calculated based on the difference (L1 distance, etc.) of the histogram.

図5に戻って学習処理の説明を続ける。以下では、図5に加えて図7を参照しながら学習処理の説明をする。図7は、本実施形態に係る各画像と学習処理との関係の一例を示す図である。 Returning to FIG. 5, the description of the learning process is continued. In the following, the learning process will be described with reference to FIG. 7 in addition to FIG. FIG. 7 is a diagram showing an example of the relationship between each image and the learning process according to the present embodiment.

ステップS240:類似画像学習部130は、類似物体抽出部11が生成した類似画像PRを用いてCAEによる学習を実行する。図7では、類似画像PRを入力とするエンコーダfによって類似画像PRから特徴が抽出され、エンコーダfの出力を入力とするデコーダgの出力が類似画像PRに一致するように学習が行われている。類似画像学習部130は、CAEに類似画像PRを入力に用いて学習させた結果としてCAEfを生成する。 Step S240: The similar image learning unit 130 executes learning by CAE using the similar image PR generated by the similar object extraction unit 11. In FIG. 7, features are extracted from the similar image PR by the encoder f that inputs the similar image PR, and learning is performed so that the output of the decoder g that inputs the output of the encoder f matches the similar image PR. .. The similar image learning unit 130 generates CAEf as a result of training the CAE using the similar image PR as an input.

上述したように、類似画像PRを入力に用いたCAEによる学習とは、第1の学習である。したがって、類似画像学習部130は、類似物体抽出部11が生成した類似画像PRを用いて第1の学習を実行する。つまり、類似画像学習部130は、類似画像PRとして、類似物体抽出部11によって抽出された類似物体が示された画像を用いて第1の学習を実行する。 As described above, the learning by CAE using the similar image PR as an input is the first learning. Therefore, the similar image learning unit 130 executes the first learning using the similar image PR generated by the similar object extraction unit 11. That is, the similar image learning unit 130 executes the first learning as the similar image PR by using the image showing the similar object extracted by the similar object extraction unit 11.

なお、類似度算出部12は、類似度が所定の値以下である類似画像PRを、CAEによる学習において用いる類似画像から除外してもよい。上述したように、類似度は値が小さいほど類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像とは類似している。
類似度が所定の値以下である類似画像PRを、CAEによる学習において用いる類似画像から除外される場合、類似物体は、対象物体に対する類似度が所定の値以下である。ここの場合、対象物体に対する外観の類似の程度を示す値を、例えば、類似度の逆数などとすると、類似物体は、対象物体に対する外観の類似の程度を示す値が所定の値以上である。
The similarity calculation unit 12 may exclude the similar image PR whose similarity is equal to or less than a predetermined value from the similar images used in the learning by CAE. As described above, the smaller the value of the similarity, the more similar the image of the similar object in the similar image PR and the image of the target object in the target image PA.
When a similar image PR having a similarity of less than or equal to a predetermined value is excluded from the similar image used in learning by CAE, the similar object has a degree of similarity to or less than a predetermined value. In this case, if the value indicating the degree of similarity in appearance with respect to the target object is, for example, the reciprocal of the degree of similarity, the value indicating the degree of similarity in appearance with respect to the target object is equal to or greater than a predetermined value.

ステップS250:VAT損失算出部133は、対象画像取得部140が取得した対象画像PAに基づいてVAT損失L2を算出する。VAT損失算出部133は、算出したVAT損失L2を対象画像学習部132に供給する。 Step S250: The VAT loss calculation unit 133 calculates the VAT loss L2 based on the target image PA acquired by the target image acquisition unit 140. The VAT loss calculation unit 133 supplies the calculated VAT loss L2 to the target image learning unit 132.

VAT損失L2は、図7において項Ladvとして記載されている。この項Ladvは、式(2)によって表される。 The VAT loss L2 is described as item Ladv in FIG. This term Ladv is expressed by the equation (2).

式(2)においてrvadvは、式(3)によって表される。 In equation (2), r vadv is represented by equation (3).

式(2)、及び式(3)において、値xは対象画像PAの画素値を示し、値yは正解画像PTの画素値を示す。
この項Ladvは、いわゆる局所分布平滑化(Local Distributional Smoothing)に相当し、対象画像PAに摂動を加えることによって、セグメンテーションのロバスト性を向上させる。
In the formulas (2) and (3), the value x indicates the pixel value of the target image PA, and the value y indicates the pixel value of the correct image PT.
This term Ladv corresponds to so-called local distribution smoothing, and improves the robustness of segmentation by adding a perturbation to the target image PA.

ステップS260:対象画像学習部132は、対象画像取得部140が取得した対象画像PAと、ニューラルネットワークNNとに基づいて予測画像PPを算出する。ここで対象画像学習部132は、対象画像取得部140が取得した対象画像PAの画素値をニューラルネットワークNNの入力として用いて、ニューラルネットワークNNの出力を算出する。対象画像学習部132は、算出した出力を予測画像PPの画素値とすることによって、予測画像PPを算出する。 Step S260: The target image learning unit 132 calculates the predicted image PP based on the target image PA acquired by the target image acquisition unit 140 and the neural network NN. Here, the target image learning unit 132 calculates the output of the neural network NN by using the pixel value of the target image PA acquired by the target image acquisition unit 140 as an input of the neural network NN. The target image learning unit 132 calculates the predicted image PP by using the calculated output as the pixel value of the predicted image PP.

図7では、対象画像PAがニューラルネットワークNNの入力に用いられた場合のニューラルネットワークNNの出力が値φθとして示されている。パラメータθは、ニューラルネットワークNNに含まれる各ノード間の重み全体の組を示す。値φθは予測画像PPの画素値に対応し、セグメンテーション予測結果である。 In FIG. 7, the output of the neural network NN when the target image PA is used as the input of the neural network NN is shown as a value φ θ . The parameter θ indicates a set of total weights between each node included in the neural network NN. The value φ θ corresponds to the pixel value of the predicted image PP and is the segmentation prediction result.

ステップS270:クロスエントロピー損失算出部134は、対象画像PAを入力とした場合のニューラルネットワークNNの出力である予測画像PPと、正解画像取得部141が取得した正解画像PTとに基づいてクロスエントロピー損失L1を算出する。クロスエントロピー損失算出部134は、算出したクロスエントロピー損失L1を対象画像学習部132に供給する。 Step S270: The cross entropy loss calculation unit 134 receives the cross entropy loss based on the predicted image PP which is the output of the neural network NN when the target image PA is input and the correct image PT acquired by the correct image acquisition unit 141. Calculate L1. The cross-entropy loss calculation unit 134 supplies the calculated cross-entropy loss L1 to the target image learning unit 132.

クロスエントロピー損失L1は、図7において項Lcross entropyとして記載されている。項Lcross entropyは、セグメンテーション予測結果である値φθ(x)と、正解画像PTの画素値である値yとのクロスエントロピーである。項Lcross entropyは、2クラス分類のための損失関数である。本実施形態において2クラスとは、対象物体の画像の領域に対応するクラスと、対象物体の画像以外の領域に対応するクラスとの2つのクラスである。 The cross entropy loss L1 is described in FIG. 7 as the term L cross entropy . The term L cross entropy is a cross entropy between the value φ θ (x), which is the result of segmentation prediction, and the value y, which is the pixel value of the correct image PT. The term L cross entropy is a loss function for two-class classification. In the present embodiment, the two classes are two classes, a class corresponding to the area of the image of the target object and a class corresponding to the area other than the image of the target object.

ステップS280:形状損失算出部131は、対象画像学習部132によって算出される予測画像PPと、正解画像取得部141が取得する正解画像PTと、類似画像学習部130が学習させたCAEfとに基づいて、形状損失L3を算出する。形状損失算出部131は、算出した形状損失L3を対象画像学習部132に供給する。 Step S280: The shape loss calculation unit 131 is based on the predicted image PP calculated by the target image learning unit 132, the correct image PT acquired by the correct image acquisition unit 141, and the CAEf trained by the similar image learning unit 130. Then, the shape loss L3 is calculated. The shape loss calculation unit 131 supplies the calculated shape loss L3 to the target image learning unit 132.

形状損失L3は、図7において項Lshapeとして記載されている。この項Lshapeは、セグメンテーション予測結果である値φθ(x)を入力とするCAEfの出力の値と、正解画像PTの画素値である値yを入力とするCAEfの出力の値との距離である。項Lshapeは、式(4)によって表される。 The shape loss L3 is described as item L shape in FIG. Distance this section L shape has a value of the output of CAEf which receives a segmentation prediction result value phi theta (x), the value of the output of CAEf to enter a value y is the pixel value of the correct image PT Is. The term L happe is represented by equation (4).

項Lshapeは、類似画像PRを用いた形状正則化項に相当する。項Lshapeは、セグメンテーション予測結果である値φθ(x)と、正解画像PTの画素値である値yとの距離を、類似画像PRの類似物体の特徴を抽出するフィルタをかけて比較することによって、パラメータθの探索範囲を制限する。類似画像PRの類似物体の特徴を抽出するフィルタとは、類似画像学習部130が学習させたCAEfである。 The term L shape corresponds to a shape regularization term using a similar image PR. The term L shape compares the distance between the value φ θ (x), which is the result of segmentation prediction, and the value y, which is the pixel value of the correct image PT, with a filter that extracts the characteristics of similar objects in the similar image PR. By doing so, the search range of the parameter θ is limited. The filter that extracts the characteristics of the similar object of the similar image PR is the CAEf trained by the similar image learning unit 130.

ステップS290:対象画像学習部132は、クロスエントロピー損失算出部134が算出したクロスエントロピー損失L1と、VAT損失算出部133が算出したVAT損失L2と、形状損失算出部131が算出した形状損失L3とに基づいて損失関数Lを算出する。 Step S290: The target image learning unit 132 includes a cross entropy loss L1 calculated by the cross entropy loss calculation unit 134, a VAT loss L2 calculated by the VAT loss calculation unit 133, and a shape loss L3 calculated by the shape loss calculation unit 131. The loss function L is calculated based on.

図7において、損失関数Lは、クロスエントロピー損失L1と、パラメータλを乗じたVAT損失L2と、パラメータλを乗じた形状損失L3との和である。パラメータλは、クロスエントロピー損失L1に対するVAT損失L2の重みであり、パラメータλは、クロスエントロピー損失L1に対する形状損失L3の重みである。 In FIG. 7, the loss function L is the sum of the cross entropy loss L1, the VAT loss L2 multiplied by the parameter λ a , and the shape loss L3 multiplied by the parameter λ s . The parameter λ a is the weight of the VAT loss L2 with respect to the cross entropy loss L1, and the parameter λ s is the weight of the shape loss L3 with respect to the cross entropy loss L1.

ステップS2100:対象画像学習部132は、算出した損失関数Lを最小にするようなニューラルネットワークNNの重み(パラメータθ)を更新する。ここで対象画像学習部132は、例えば、勾配降下法に基づいてニューラルネットワークNNの重みを更新する。 Step S2100: The target image learning unit 132 updates the weight (parameter θ) of the neural network NN so as to minimize the calculated loss function L. Here, the target image learning unit 132 updates the weight of the neural network NN based on, for example, the gradient descent method.

つまり、対象画像学習部132は、対象物体が撮像された画像である対象画像PAと、対象画像PAにおいて対象物体が示された画像である正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習の結果とに基づいて第2の学習を実行する。ここで、対象画像学習部132は、形状損失L3が加算された損失関数Lを第2の学習に用いる。形状損失L3は、類似画像学習部130による第1の学習の結果であるCAEfに基づいている。つまり、対象画像学習部132は、類似画像学習部130による第1の学習の結果に基づく損失関数Lと、教師データLDとに基づいて第2の学習を実行する。 That is, the target image learning unit 132 is similar to the teacher data LD, which is a set of the target image PA, which is an image in which the target object is captured, and the correct image PT, which is the image in which the target object is shown in the target image PA. The second learning is executed based on the result of the first learning by the image learning unit 130. Here, the target image learning unit 132 uses the loss function L to which the shape loss L3 is added for the second learning. The shape loss L3 is based on CAEf, which is the result of the first learning by the similar image learning unit 130. That is, the target image learning unit 132 executes the second learning based on the loss function L based on the result of the first learning by the similar image learning unit 130 and the teacher data LD.

図7では、対象画像PAを入力とした場合のニューラルネットワークNNの出力である値φθ(x)が、類似画像PRが用いられたパラメータθの更新によって正解画像PTの画素値に近づく様子が示されている。 In FIG. 7, the value φ θ (x), which is the output of the neural network NN when the target image PA is input, approaches the pixel value of the correct image PT by updating the parameter θ using the similar image PR. It is shown.

ステップS2110:対象画像学習部132は、学習終了条件が満たされたか否かを判定する。学習終了条件とは、一例として、損失関数Lの値が収束することである。対象画像学習部132は、学習終了条件が満たされたと判定する場合(ステップS2110;YES)、ステップS2120の処理を実行する。一方、対象画像学習部132が、学習終了条件が満たされていないと判定する場合(ステップS2110;NO)、学習実行部13はステップS260の処理を再び実行する。 Step S2110: The target image learning unit 132 determines whether or not the learning end condition is satisfied. The learning end condition is, for example, that the value of the loss function L converges. When it is determined that the learning end condition is satisfied (step S2110; YES), the target image learning unit 132 executes the process of step S2120. On the other hand, when the target image learning unit 132 determines that the learning end condition is not satisfied (step S2110; NO), the learning execution unit 13 executes the process of step S260 again.

ステップS2120:対象画像学習部132は、学習処理によって重みが更新されたニューラルネットワークNNを学習結果出力部15に出力する。学習処理によって重みが更新されたニューラルネットワークNNは、学習部1によって学習されたモデルである。ニューラルネットワークNNは、学習装置によって学習された学習済みモデルの一例である。
以上で、学習実行部13は学習処理を終了する。
Step S2120: The target image learning unit 132 outputs the neural network NN whose weight has been updated by the learning process to the learning result output unit 15. The neural network NN whose weight is updated by the learning process is a model learned by the learning unit 1. The neural network NN is an example of a trained model trained by a learning device.
With the above, the learning execution unit 13 ends the learning process.

なお、図5に示した学習処理において、ステップS200における類似画像PRを取得する処理と、ステップS210における教師データLDを取得する処理とは、順番が入れ替えられて実行されてもよい。また、ステップS270におけるクロスエントロピー損失L1を算出する処理と、ステップS280における形状損失L3を算出する処理とは、順番が入れ替えられて実行されてもよい。 In the learning process shown in FIG. 5, the process of acquiring the similar image PR in step S200 and the process of acquiring the teacher data LD in step S210 may be executed in a different order. Further, the process of calculating the cross entropy loss L1 in step S270 and the process of calculating the shape loss L3 in step S280 may be executed in a different order.

次に図8を参照し、判定部2の判定処理について説明する。図8は、本実施形態に係る判定処理の一例を示す図である。
ステップS300:判定画像取得部20は、判定画像データベース5から判定画像PEを取得する。判定画像取得部20は、取得した判定画像PEを判定実行部21に供給する。
Next, the determination process of the determination unit 2 will be described with reference to FIG. FIG. 8 is a diagram showing an example of the determination process according to the present embodiment.
Step S300: The determination image acquisition unit 20 acquires the determination image PE from the determination image database 5. The determination image acquisition unit 20 supplies the acquired determination image PE to the determination execution unit 21.

ステップS310:判定実行部21は、対象画像PAに対してセグメンテーションを行う。ここで判定実行部21は、判定画像取得部20が取得した判定画像PEと、学習実行部13によって学習処理によって重みが更新されたニューラルネットワークNNとに基づいて、対象画像PAにおいて対象物体の画像の領域を判定する。判定実行部21は、セグメンテーション結果を判定結果出力部22に供給する。 Step S310: The determination execution unit 21 performs segmentation on the target image PA. Here, the determination execution unit 21 is an image of the target object in the target image PA based on the determination image PE acquired by the determination image acquisition unit 20 and the neural network NN whose weight is updated by the learning process by the learning execution unit 13. Judge the area of. The determination execution unit 21 supplies the segmentation result to the determination result output unit 22.

ステップS320:判定結果出力部22は、判定実行部21によるセグメンテーション結果を、表示装置に表示させる。なお、判定結果出力部22は、判定実行部21によるセグメンテーション結果を、画像処理装置T1の外部のデータベースなどに記憶させてもよい。
以上で、判定部2は判定処理を終了する。
Step S320: The determination result output unit 22 causes the display device to display the segmentation result by the determination execution unit 21. The determination result output unit 22 may store the segmentation result by the determination execution unit 21 in a database or the like external to the image processing device T1.
With the above, the determination unit 2 ends the determination process.

次に図9から図11を参照し、セグメンテーション結果について説明する。
図9は、本実施形態に係るセグメンテーション結果の一例を示す図である。図9に示す例では、判定画像PE1に対してセグメンテーションが行われたセグメンテーション結果として、セグメンテーション結果画像PS1〜PS4が示されている。
Next, the segmentation results will be described with reference to FIGS. 9 to 11.
FIG. 9 is a diagram showing an example of the segmentation result according to the present embodiment. In the example shown in FIG. 9, the segmentation result images PS1 to PS4 are shown as the segmentation results obtained by performing the segmentation on the determination image PE1.

判定画像PE1は、一例として、マウスの小脳の顆粒細胞核が撮像されたZスタック画像である。判定画像PE1では、異なる3つの方向について顆粒細胞核の断面が撮像された3つの断面画像を含む。判定画像PE1が3つの断面画像を含むことに応じて、セグメンテーション結果画像PS1〜PS4においてもそれぞれ3つの断面画像についてのセグメンテーション結果が示されている。
画像処理装置T1によるセグメンテーション結果は、セグメンテーション結果画像PS4である。セグメンテーション結果画像PS1〜PS3は、画像処理装置T1によるセグメンテーション結果との比較のために示されている。
The determination image PE1 is, for example, a Z-stack image in which the granule cell nuclei of the mouse cerebellum are imaged. The determination image PE1 includes three cross-sectional images in which the cross-sections of the granule cell nuclei are captured in three different directions. According to the determination image PE1 including the three cross-sectional images, the segmentation result images PS1 to PS4 also show the segmentation results for each of the three cross-sectional images.
The segmentation result by the image processing apparatus T1 is the segmentation result image PS4. The segmentation result images PS1 to PS3 are shown for comparison with the segmentation result by the image processing apparatus T1.

セグメンテーション結果画像PS1は、クロスエントロピー損失が損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。セグメンテーション結果画像PS2は、クロスエントロピー損失にVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。セグメンテーション結果画像PS3は、クロスエントロピー損失に形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション結果である。 The segmentation result image PS1 is a segmentation result by a neural network trained by using the cross entropy loss as a loss function. The segmentation result image PS2 is a segmentation result by a neural network in which VAT loss is added to the cross entropy loss and the learning is performed by using it as a loss function. The segmentation result image PS3 is a segmentation result by a neural network in which shape loss is added to cross entropy loss and learning is performed by using it as a loss function.

対象画像PAにおける対象物体の画像の領域の判定精度は、セグメンテーション結果画像PS4、セグメンテーション結果画像PS3、セグメンテーション結果画像PS2、セグメンテーション結果画像PS1の順に高い。つまり、画像処理装置T1によるセグメンテーション結果が、他のセグメンテーション結果に比べて最も高い。 The determination accuracy of the region of the image of the target object in the target image PA is higher in the order of the segmentation result image PS4, the segmentation result image PS3, the segmentation result image PS2, and the segmentation result image PS1. That is, the segmentation result by the image processing device T1 is the highest as compared with the other segmentation results.

セグメンテーション結果画像PS2はセグメンテーション結果画像PS1に比べて判定精度が向上しており、セグメンテーション結果画像PS4はセグメンテーション結果画像PS3に比べて判定精度が向上していることから、損失関数にはVAT損失が加えられた方が加えられない場合に比べて判定精度は向上することがわかる。
なお、損失関数にVAT損失を加えた場合、学習処理においてVAT損失を加えない場合に比べて多くのメモリが必要とされる。
Since the segmentation result image PS2 has improved judgment accuracy as compared with the segmentation result image PS1 and the segmentation result image PS4 has improved judgment accuracy as compared with the segmentation result image PS3, VAT loss is added to the loss function. It can be seen that the determination accuracy is improved as compared with the case where the added person is not added.
When VAT loss is added to the loss function, more memory is required than when VAT loss is not added in the learning process.

一方、セグメンテーション結果画像PS3はセグメンテーション結果画像PS1に比べて判定精度が向上しており、セグメンテーション結果画像PS4はセグメンテーション結果画像PS2に比べて判定精度が向上していることから、損失関数には形状損失が加えられた方が加えられない場合に比べて判定精度は向上することがわかる。
損失関数にVAT損失を加えない場合であっても形状損失を加えることによって、判定精度は向上する。セグメンテーションの判定精度を向上させるためには、損失関数には形状損失及びVAT損失が加えられることが好ましいが、学習処理において利用可能なメモリの容量が十分でない場合にはメモリの容量に応じて、損失関数にはVAT損失は加えられなくてもよい。
On the other hand, the segmentation result image PS3 has improved determination accuracy as compared with the segmentation result image PS1, and the segmentation result image PS4 has improved determination accuracy as compared with the segmentation result image PS2. It can be seen that the determination accuracy is improved when is added as compared with the case where is not added.
Even when the VAT loss is not added to the loss function, the determination accuracy is improved by adding the shape loss. In order to improve the determination accuracy of segmentation, it is preferable to add shape loss and VAT loss to the loss function, but if the amount of memory available in the learning process is not sufficient, depending on the amount of memory, The VAT loss does not have to be added to the loss function.

図10は、本実施形態に係る類似画像PRの類似度と判定精度との関係の一例を示す図である。グラフG1は、対象画像PAと類似画像PRとの類似度に対するDice係数の値を示す。類似度は、上述しように対象画像PA、及び類似画像PRそれぞれのHuモーメントの間のL1距離であり、対象画像PAに含まれる対象物体の画像の形状と類似画像PRに含まれる類似物体の画像の形状とは、値が小さいほどより類似している。図10においてDice係数は、セグメンテーション結果画像と正解画像との類似の程度を示し、高いほどセグメンテーションの精度が高いことを示す。 FIG. 10 is a diagram showing an example of the relationship between the similarity and the determination accuracy of the similar image PR according to the present embodiment. Graph G1 shows the value of the Dice coefficient with respect to the degree of similarity between the target image PA and the similar image PR. The degree of similarity is the L1 distance between the Hu moments of the target image PA and the similar image PR as described above, and is the shape of the image of the target object included in the target image PA and the image of the similar object included in the similar image PR. The smaller the value, the more similar the shape of. In FIG. 10, the Dice coefficient indicates the degree of similarity between the segmentation result image and the correct answer image, and the higher the segmentation result image, the higher the segmentation accuracy.

グラフG1において、点P1aは類似画像PR2aに対応し、点P1bは類似画像PR2bに対応し、点P1cは類似画像PR2cに対応する。類似画像PR2a、類似画像PR2b、類似画像PR2cは、この順に対象画像PAとの類似度が高い。類似画像PR2bでは、類似物体は1つだけ含まれておりこの類似物体の形状は、類似画像PR2aに含まれる類似物体の形状に比べて、対象物体である顆粒細胞核の形状に類似していない。類似画像PR2cでは、類似物体の形状が多角形であり、類似画像PR2aや類似画像PR2bに含まれる類似物体の形状に比べて顆粒細胞核の形状に類似していない。
グラフG1から、類似度が増加するにつれてセグメンテーションの精度が低下することがわかる。
In the graph G1, the point P1a corresponds to the similar image PR2a, the point P1b corresponds to the similar image PR2b, and the point P1c corresponds to the similar image PR2c. The similar image PR2a, the similar image PR2b, and the similar image PR2c have a higher degree of similarity to the target image PA in this order. In the similar image PR2b, only one similar object is included, and the shape of the similar object is not similar to the shape of the granule cell nucleus which is the target object as compared with the shape of the similar object contained in the similar image PR2a. In the similar image PR2c, the shape of the similar object is polygonal, and the shape of the similar object is not similar to the shape of the granule cell nucleus as compared with the shape of the similar object contained in the similar image PR2a and the similar image PR2b.
From graph G1, it can be seen that the accuracy of segmentation decreases as the similarity increases.

次に図11を参照し、類似物体の空間密度と判定精度との関係について説明する。
図11は、本実施形態に係る類似画像PRにおける類似物体の空間密度と判定精度との関係の一例を示す図である。図11において、類似画像PR2bは、類似画像PR2aの物体領域を抽出し、そのうちの1つの領域を表示したものである。また、類似画像PR2cは、類似画像PR2aから抽出された複数の物体領域に対してDouglas−Peukerアルゴリズム適用し、物体領域を、物体領域の輪郭上に頂点を有する多角形として表したものである。上記のようにして類似物体の空間密度を変更した。
Next, with reference to FIG. 11, the relationship between the spatial density of similar objects and the determination accuracy will be described.
FIG. 11 is a diagram showing an example of the relationship between the spatial density of similar objects and the determination accuracy in the similar image PR according to the present embodiment. In FIG. 11, the similar image PR2b is obtained by extracting an object region of the similar image PR2a and displaying one of the regions. Further, in the similar image PR2c, the Douglas-Pueker algorithm is applied to a plurality of object regions extracted from the similar image PR2a, and the object region is represented as a polygon having vertices on the contour of the object region. The spatial density of similar objects was changed as described above.

グラフG2は、類似画像PRにおける類似物体の空間密度に対するDice係数の値を示す。Dice係数は、図10と同様である。
グラフG2において、点P2aは類似画像PR2aに対応し、点P2bは類似画像PR2bに対応し、点P2cは類似画像PR2cに対応する。類似画像PR2a、類似画像PR2b、類似画像PR2cは、この順に類似物体の空間密度が高い。
グラフG2から、類似物体の空間密度は、セグメンテーションの精度に影響しないことがわかる。
Graph G2 shows the value of the Dice coefficient with respect to the spatial density of the similar object in the similar image PR. The Dice coefficient is the same as in FIG.
In the graph G2, the point P2a corresponds to the similar image PR2a, the point P2b corresponds to the similar image PR2b, and the point P2c corresponds to the similar image PR2c. Similar image PR2a, similar image PR2b, and similar image PR2c have higher spatial densities of similar objects in this order.
From graph G2, it can be seen that the spatial density of similar objects does not affect the accuracy of segmentation.

なお、本実施形態においては、類似物体抽出部11が、類似画像元画像取得部10が取得した類似画像元画像PMから類似物体を抽出し、抽出した類似物体に基づいて類似画像PRを生成する場合の一例について説明したが、これに限らない。類似画像元画像PMがそのまま類似画像PRとして用いられてもよい。類似画像元画像PMがそのまま類似画像PRとして用いられる場合、例えば、類似物体抽出部11は類似画像元画像取得部10が取得した類似画像元画像PMをそのまま類似画像PRとして類似度算出部12及び類似画像学習部130に供給する。あるいは、類似画像元画像PMがそのまま類似画像PRとして用いられる場合、学習部1の構成から類似物体抽出部11が省略されてもよい。 In the present embodiment, the similar object extraction unit 11 extracts a similar object from the similar image source image PM acquired by the similar image source image acquisition unit 10, and generates a similar image PR based on the extracted similar object. An example of the case has been described, but the present invention is not limited to this. The similar image original image PM may be used as it is as the similar image PR. When the similar image original image PM is used as it is as the similar image PR, for example, the similar object extraction unit 11 uses the similar image original image PM acquired by the similar image original image acquisition unit 10 as it is as the similar image PR, and the similarity calculation unit 12 and It is supplied to the similar image learning unit 130. Alternatively, when the similar image original image PM is used as it is as the similar image PR, the similar object extraction unit 11 may be omitted from the configuration of the learning unit 1.

また、本実施形態においては、類似度算出部12によって類似画像PRにおける類似物体の画像と、対象画像PAにおける対象物体の画像との類似度が算出される場合の一例について説明したが、これに限らない。学習部1の構成から類似度算出部12が省略されてもよい。 Further, in the present embodiment, an example in which the similarity between the image of the similar object in the similar image PR and the image of the target object in the target image PA is calculated by the similarity calculation unit 12 has been described. Not exclusively. The similarity calculation unit 12 may be omitted from the configuration of the learning unit 1.

以上に説明したように、本実施形態に係る学習装置(この一例において、学習部1)は、類似画像学習部130と、対象画像学習部132とを備える。
類似画像学習部130は、判定の対象である対象物体(この一例において、脳組織細胞核A2)と外観が類似した物体である類似物体(この一例において、iPS細胞核A1)についての画像である類似画像PRに基づいて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行する。
対象画像学習部132は、対象物体(この一例において、脳組織細胞核A2)が撮像された画像である対象画像PAと、対象画像PAにおいて対象物体(この一例において、脳組織細胞核A2)が示された画像である正解画像PTとの組である教師データLDと、類似画像学習部130による第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果とに基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行する。
As described above, the learning device according to the present embodiment (in this example, the learning unit 1) includes a similar image learning unit 130 and a target image learning unit 132.
The similar image learning unit 130 is an image of a similar object (iPS cell nucleus A1 in this example) which is an object similar in appearance to the target object (brain tissue cell nucleus A2 in this example) to be determined. The first learning (in this example, the learning by the convolutional auto encoder using the similar image PR as the input) is executed based on the PR.
In the target image learning unit 132, the target image PA, which is an image obtained by capturing the target object (brain tissue cell nucleus A2 in this example), and the target object (brain tissue cell nucleus A2 in this example) are shown in the target image PA. Based on the teacher data LD, which is a set of the correct image PT, which is the image, and the result of the first learning by the similar image learning unit 130 (in this example, the learning by the convolutional autoencoder using the similar image PR as an input). Second learning (in this example, the weight of the neural network NN that minimizes the loss function L was calculated and calculated using the teacher data LD, which is a set of the target image PA and the correct image PT. The process of updating the weight of the neural network NN by the weight) is executed.

この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、教師データLDが十分な数がなく判定の精度が低い場合であっても、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行できるため、教師データLDが十分な数だけない場合であっても、第1の学習の結果(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)に基づかない場合に比べて判定の精度を高めることができる。 With this configuration, in the learning device according to the present embodiment (learning unit 1 in this example), even if the number of teacher data LDs is not sufficient and the determination accuracy is low, the first learning (in this example). , A loss function using the teacher data LD, which is a set of the target image PA and the correct image PT in this example, based on the result of the second learning (in this example, the learning by the convolutional autoencoder using the similar image PR as the input). Since the process of calculating the weight of the neural network NN that minimizes L and updating the weight of the neural network NN with the calculated weight) can be executed, even if there are not enough teacher data LDs, The accuracy of the determination can be improved as compared with the case where it is not based on the result of the first learning (in this example, the learning by the convolution autoencoder using the similar image PR as the input).

ここで類似画像PRは、公共のデータベースなどの画像処理システムSTの外部のデータベースから取得されてもよいし、上述したように公共のデータベースなどの画像処理システムSTの外部のデータベースから取得される類似画像元画像PMから生成されてもよい。類似画像PRが公共のデータベースなどの画像処理システムSTの外部のデータベースから取得される場合、類似物体が含まれる予め用意された画像群を用いることができ、類似画像PRを準備する手間を省くことができる。
本実施形態に係る学習装置(この一例において、学習部1)では、教師データLDの数が十分でない場合であっても、外部のデータベースに予め用意された画像群を用いて第1の学習を実行することによって、教師データLDの数が十分でないことによる判定の精度の低下を抑制できる。
Here, the similar image PR may be acquired from a database external to the image processing system ST such as a public database, or as described above, the similar image PR acquired from an external database of the image processing system ST such as a public database. It may be generated from the image source image PM. When the similar image PR is acquired from a database outside the image processing system ST such as a public database, a pre-prepared image group including similar objects can be used, and the trouble of preparing the similar image PR can be saved. Can be done.
In the learning device according to the present embodiment (in this example, the learning unit 1), even if the number of teacher data LDs is not sufficient, the first learning is performed using an image group prepared in advance in an external database. By executing this, it is possible to suppress a decrease in determination accuracy due to an insufficient number of teacher data LDs.

また、本実施形態に係る学習装置(この一例において、学習部1)は、類似物体抽出部11をさらに備える。類似物体抽出部11は、類似画像PRから類似物体(この一例において、iPS細胞核A1)を抽出する。また、類似画像学習部130は、類似画像PRとして、類似物体抽出部11によって抽出された類似物体(この一例において、iPS細胞核A1)が示された画像を用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行する。 Further, the learning device according to the present embodiment (in this example, the learning unit 1) further includes a similar object extraction unit 11. The similar object extraction unit 11 extracts a similar object (iPS cell nucleus A1 in this example) from the similar image PR. Further, the similar image learning unit 130 uses the image showing the similar object (iPS cell nucleus A1 in this example) extracted by the similar object extraction unit 11 as the similar image PR for the first learning (in this example). , Learning by a convolutional auto-encoder that uses a similar image PR as an input) is executed.

この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、ユーザが類似画像PRから類似物体を塗るなどすることなく、類似物体抽出部11が類似画像PRから類似物体(この一例において、iPS細胞核A1)を抽出できるため、類似物体を抽出する手間が省ける。 With this configuration, in the learning device according to the present embodiment (in this example, the learning unit 1), the similar object extraction unit 11 can perform the similar object (in this example, the learning unit 1) from the similar image PR without the user painting a similar object from the similar image PR. In this example, since the iPS cell nucleus A1) can be extracted, the trouble of extracting a similar object can be saved.

また、本実施形態に係る学習装置(この一例において、学習部1)では、類似画像PRとして類似物体(この一例において、iPS細胞核A1)が示された画像を用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行できるため、類似画像PRとして抽出された類似物体(この一例において、iPS細胞核A1)が示された画像を用いない場合(例えば、類似画像元画像PMを用いる場合)に比べて、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の効率を高めることができる。第1の学習の効率を高めるとは、例えば、同程度の第2の学習の精度(この一例において、セグメンテーションの精度)を得るために必要な類似画像PRの枚数を少なくすることである。 Further, in the learning device according to the present embodiment (learning unit 1 in this example), the first learning (this example) using an image showing a similar object (iPS cell nucleus A1 in this example) as a similar image PR. In the case where the image showing the similar object (iPS cell nucleus A1 in this example) extracted as the similar image PR is not used (for example, because the learning by the convolution auto encoder using the similar image PR as the input) can be executed. Compared with the case where the similar image original image PM is used), the efficiency of the first learning (in this example, the learning by the convolution auto encoder using the similar image PR as an input) can be improved. Increasing the efficiency of the first learning means, for example, reducing the number of similar image PRs required to obtain the same degree of accuracy of the second learning (accuracy of segmentation in this example).

また、本実施形態に係る学習装置(この一例において、学習部1)では、類似物体(この一例において、iPS細胞核A1)は、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値以上である。 Further, in the learning device according to the present embodiment (learning unit 1 in this example), the similar object (iPS cell nucleus A1 in this example) has a similar appearance to the target object (brain tissue cell nucleus A2 in this example). The value indicating the degree (in this example, the reciprocal of the similarity) is equal to or greater than a predetermined value.

この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値以上である類似物体(この一例において、iPS細胞核A1)の類似画像PRを用いて第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)を実行できるため、第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)の精度を、対象物体(この一例において、脳組織細胞核A2)に対する外観の類似の程度を示す値(この一例において、類似度の逆数)が所定の値未満である類似物体の類似画像を用いる場合に比べて高めることができる。 With this configuration, in the learning device (learning unit 1 in this example) according to the present embodiment, a value indicating the degree of similarity in appearance to the target object (brain tissue cell nucleus A2 in this example) (degree of similarity in this example). First learning using a similar image PR of a similar object (in this example, iPS cell nucleus A1) whose (inverse number) is greater than or equal to a predetermined value (in this example, learning by a convolutional autoencoder using the similar image PR as an input) (In this example, the weight of the neural network NN that minimizes the loss function L is calculated using the teacher data LD, which is a set of the target image PA and the correct image PT. Then, the accuracy of the processing of updating the weight of the neural network NN by the calculated weight is a value indicating the degree of similarity in appearance with respect to the target object (in this example, the brain tissue cell nucleus A2) (in this example, the inverse of the degree of similarity). ) Is less than a predetermined value, which can be increased as compared with the case of using a similar image of a similar object.

また、本実施形態に係る学習装置(この一例において、学習部1)では、対象画像学習部132は、類似画像学習部130による第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づく損失関数Lと、教師データLDとに基づいて第2の学習(この一例において、対象画像PAと、正解画像PTとの組である教師データLDを用いて、損失関数Lを最小にするようなニューラルネットワークNNの重みを算出し、算出した重みによってニューラルネットワークNNの重みを更新する処理)を実行する。 Further, in the learning device according to the present embodiment (in this example, the learning unit 1), the target image learning unit 132 is the first learning by the similar image learning unit 130 (in this example, the convolution using the similar image PR as an input). Using the second learning (in this example, the teacher data LD, which is a pair of the target image PA and the correct image PT) based on the loss function L based on the result of the learning by the autoencoder and the teacher data LD, A process of calculating the weight of the neural network NN so as to minimize the loss function L and updating the weight of the neural network NN with the calculated weight) is executed.

この構成により、本実施形態に係る学習装置(この一例において、学習部1)では、第2の学習に用いる損失関数Lに、第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果を反映できるため、損失関数Lが第1の学習(この一例において、類似画像PRを入力に用いる畳み込みオートエンコーダによる学習)の結果に基づかない場合に比べて判定の精度を高めることができる。 With this configuration, in the learning device according to the present embodiment (in this example, the learning unit 1), the loss function L used for the second learning is combined with the first learning (in this example, the convolution using the similar image PR as an input). Since the result of (learning by autoencoder) can be reflected, the accuracy of judgment is higher than that in the case where the loss function L is not based on the result of the first learning (in this example, learning by the convolutional autoencoder using the similar image PR as an input). Can be enhanced.

また、本実施形態に係る判定装置(この一例において、判定部2)は、判定部2を備える。判定部2は、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づいて対象画像PAにおいて対象物体(この一例において、脳組織細胞核A2)を判定する。 Further, the determination device according to the present embodiment (in this example, the determination unit 2) includes the determination unit 2. The determination unit 2 determines the target object (in this example, the neural network NN whose weight is updated by the learning process of the learning unit 1) in the target image PA based on the learning result by the learning device (in this example, the learning unit 1). In this example, the brain tissue cell nucleus A2) is determined.

この構成により、本実施形態に係る判定装置(この一例において、判定部2)では、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づいて判定ができるため、学習装置(この一例において、学習部1)による学習結果(この一例において、学習部1の学習処理によって重みが更新されたニューラルネットワークNN)に基づかない場合に比べて判定精度を高めることができる。 With this configuration, in the determination device (determination unit 2 in this example) according to the present embodiment, the learning result by the learning device (learning unit 1 in this example) (in this example, the weight is weighted by the learning process of the learning unit 1). Since the determination can be made based on the updated neural network NN), the learning result by the learning device (in this example, the learning unit 1) (in this example, the weight is updated by the learning process of the learning unit 1). Judgment accuracy can be improved as compared with the case where it is not based on.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像を対象画像とし、iPS細胞核が光学顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をした。本実施形態では、画像処理システムが、iPS細胞核が光学顕微鏡によって撮像された画像を対象画像とし、脳組織細胞核が電子顕微鏡によって撮像された画像を類似画像として処理を行う場合について説明をする。
本実施形態に係る画像処理システムを画像処理システムSTaといい、画像処理装置を画像処理装置T1aという。
(Second Embodiment)
Hereinafter, the second embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment, the case where the image processing system processes an image of the brain tissue cell nucleus captured by an electron microscope as a target image and an image of the iPS cell nucleus captured by an optical microscope as a similar image will be described. did. In the present embodiment, the case where the image processing system processes the image of the iPS cell nucleus captured by the optical microscope as the target image and the image of the brain tissue cell nucleus captured by the electron microscope as a similar image will be described.
The image processing system according to this embodiment is referred to as an image processing system STa, and the image processing apparatus is referred to as an image processing apparatus T1a.

図12は、本実施形態に係る画像処理システムSTaの一例を示す図である。画像処理システムSTaは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1と、明視野画像データベースDB3aと、画像処理装置T1aとを備える。
本実施形態に係る画像処理システムSTa(図12)と第1の実施形態に係る画像処理システムST(図1)とを比較すると、光学顕微鏡M1a、明視野画像データベースDB3a、及び画像処理装置T1aが異なる。ここで、他の構成要素(電子顕微鏡M2、電子顕微鏡画像データベースDB2、及びDAPI画像データベースDB1)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
FIG. 12 is a diagram showing an example of the image processing system STa according to the present embodiment. As an example, the image processing system STa includes an electron microscope M2, an optical microscope M1a, an electron microscope image database DB2, a DAPI image database DB1, a bright field image database DB3a, and an image processing device T1a.
Comparing the image processing system STa (FIG. 12) according to the present embodiment with the image processing system ST (FIG. 1) according to the first embodiment, the optical microscope M1a, the bright field image database DB3a, and the image processing apparatus T1a different. Here, the functions of the other components (electron microscope M2, electron microscope image database DB2, and DAPI image database DB1) are the same as those of the first embodiment. The description of the same function as that of the first embodiment is omitted, and in the second embodiment, the parts different from those of the first embodiment will be mainly described.

画像処理システムSTaでは、光学顕微鏡M1aは、iPS細胞核A1を、明視野観察によって観察し、また、DAPIによって染色されたiPS細胞核A1を蛍光観察によって観察する。明視野観察によって観察されるiPS細胞核A1は、光学顕微鏡M1aによって撮像され、対象画像PAaとして明視野画像データベースDB3aに蓄積される。明視野画像データベースDB3aに蓄積される対象画像PAaの一部が画像処理装置T1aの学習部1aに供給され学習処理に用いられ、残りの一部が画像処理装置T1aの判定部2に供給され判定処理に用いられる。
一方、蛍光観察によって観察されるiPS細胞核A1は、光学顕微鏡M1aによって撮像され、正解画像元画像PNaとしてDAPI画像データベースDB1に蓄積される。
In the image processing system STa, the optical microscope M1a observes the iPS cell nucleus A1 by bright-field observation, and observes the iPS cell nucleus A1 stained by DAPI by fluorescence observation. The iPS cell nucleus A1 observed by bright-field observation is imaged by an optical microscope M1a and accumulated in the bright-field image database DB3a as a target image PAa. A part of the target image PAa stored in the bright field image database DB3a is supplied to the learning unit 1a of the image processing device T1a and used for learning processing, and the remaining part is supplied to the determination unit 2 of the image processing device T1a for determination. Used for processing.
On the other hand, the iPS cell nucleus A1 observed by fluorescence observation is imaged by the optical microscope M1a and accumulated in the DAPI image database DB1 as the correct image source image PNa.

学習部1aは、画像認識によって正解画像元画像PNaにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1aを生成する。学習部1aは、対象画像PAaと、核正解画像PT1aとの組である教師データLDaに基づいて学習を実行する。 The learning unit 1a selects an image region of the iPS cell nucleus A1 in the correct image source image PNa by image recognition, and generates a nuclear correct image PT1a showing the selected region. The learning unit 1a executes learning based on the teacher data LDa, which is a set of the target image PAa and the kernel correct image PT1a.

画像処理システムSTaでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、類似画像元画像PMaとして電子顕微鏡画像データベースDB2に蓄積される。
核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2aは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2aは、電子顕微鏡画像データベースDB2に蓄積され、類似画像PR1aとして画像処理装置T1aに供給される。
In the image processing system STa, the brain tissue cell nucleus A2 is imaged by the electron microscope M2. The image of the brain tissue cell nucleus A2 imaged by the electron microscope M2 is accumulated in the electron microscope image database DB2 as a similar image source image PMa.
The nuclear correct image PT2a is created based on the image of the brain tissue cell nucleus A2 accumulated in the electron microscope image database DB2. Here, in the nuclear correct answer image PT2a, the inside of this region is painted or the outline of this region is drawn by a person having medical knowledge about the region showing the brain tissue cell nucleus A2 in the image of the brain tissue cell nucleus A2. Created by The created nuclear correct image PT2a is stored in the electron microscope image database DB2 and supplied to the image processing apparatus T1a as a similar image PR1a.

学習部1aは、類似画像PR1aを用いてiPS細胞核A1の特徴量を学習する。画像処理システムSTaでは、iPS細胞核A1と形状が類似した類似物体の一例として、脳組織細胞核A2が採用される。 The learning unit 1a learns the feature amount of the iPS cell nucleus A1 using the similar image PR1a. In the image processing system STa, the brain tissue cell nucleus A2 is adopted as an example of a similar object having a shape similar to that of the iPS cell nucleus A1.

学習部1aの学習処理と、図4や図5において説明した学習部1の学習処理とでは、第1部位の細胞核、第2部位の細胞核、第1顕微鏡、第2顕微鏡、第1観察条件、及び第2観察条件が異なる。学習部1aの学習処理では、第1部位の細胞核とは脳組織細胞核A2であり、第2部位の細胞核とはiPS細胞核A1である。また、学習部1aの学習処理では、第1顕微鏡とは電子顕微鏡M2であり、第2顕微鏡とは光学顕微鏡M1aである。 In the learning process of the learning unit 1a and the learning process of the learning unit 1 described with reference to FIGS. 4 and 5, the cell nucleus of the first site, the cell nucleus of the second site, the first microscope, the second microscope, and the first observation condition, And the second observation condition is different. In the learning process of the learning unit 1a, the cell nucleus of the first site is the brain tissue cell nucleus A2, and the cell nucleus of the second site is the iPS cell nucleus A1. Further, in the learning process of the learning unit 1a, the first microscope is an electron microscope M2, and the second microscope is an optical microscope M1a.

また、学習部1aの学習処理と学習部1の学習処理とでは、図4のステップS30、及びステップS90の核正解画像の生成方法が、以下のステップS30a、及びステップS90aに置き換えられる点が異なる。
ステップS30a:核正解画像PT2aが作成される。ここで核正解画像PT2aは、類似画像元画像PMaにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
Further, the learning process of the learning unit 1a and the learning process of the learning unit 1 are different in that the method of generating the core correct image of step S30 and step S90 in FIG. 4 is replaced with the following steps S30a and S90a. ..
Step S30a: The nuclear correct image PT2a is created. Here, in the nuclear correct answer image PT2a, the inside of the region showing the brain tissue cell nucleus A2 in the similar image original image PMa is painted or the outline of this region is drawn by a person having medical knowledge. Created by.

ステップS90a:学習用の対象画像PAaに対して、核正解画像PT1aが生成される。本実施形態では、核正解画像PT1aは画像処理装置T1aの学習部1aによって対象画像PAaから生成される。学習部1aは、画像認識によって対象画像PAaにおいてiPS細胞核A1の画像の領域を選択し、選択した領域が示された核正解画像PT1aを生成する。学習用の対象画像PAaと、核正解画像PT1aとの組は、画像処理装置T1aが行う学習処理の教師データLDaとして用いられる。 Step S90a: A nuclear correct image PT1a is generated for the target image PAa for learning. In the present embodiment, the nuclear correct image PT1a is generated from the target image PAa by the learning unit 1a of the image processing device T1a. The learning unit 1a selects an image region of the iPS cell nucleus A1 in the target image PAa by image recognition, and generates a nuclear correct answer image PT1a showing the selected region. The pair of the target image PAa for learning and the kernel correct image PT1a is used as the teacher data LDa of the learning process performed by the image processing device T1a.

次に図13を参照し、iPS細胞核A1の画像や脳組織細胞核A2の画像が学習処理においてどのように用いられるかについての具体例を説明する。図13は、本実施形態に係る画像と学習処理との関係の一例を示す図である。 Next, with reference to FIG. 13, a specific example of how the image of the iPS cell nucleus A1 and the image of the brain tissue cell nucleus A2 are used in the learning process will be described. FIG. 13 is a diagram showing an example of the relationship between the image and the learning process according to the present embodiment.

図13では、iPS細胞核A1の画像である対象画像PAaがニューラルネットワークNNの入力に用いられた場合のニューラルネットワークNNの出力が値φθとして示されている。対象画像PAaを入力とした場合のニューラルネットワークNNの出力である値φθ(x)が、類似画像PRaが用いられたパラメータθの更新によって正解画像PTaの画素値に近づく様子が示されている。正解画像PTaは、iPS細胞核A1の画像の領域が示された核正解画像PT1aである。 In FIG. 13, the output of the neural network NN when the target image PAa, which is an image of the iPS cell nucleus A1, is used as the input of the neural network NN is shown as a value φ θ . It is shown that the value φ θ (x), which is the output of the neural network NN when the target image PAa is input, approaches the pixel value of the correct image PTa by updating the parameter θ using the similar image PRa. .. The correct image PTa is a nuclear correct image PT1a showing the region of the image of the iPS cell nucleus A1.

図13では、類似画像PRaとして脳組織細胞核A2の画像の領域が示された核正解画像PT2aが用いられ、CAEfによって脳組織細胞核A2の形状の特徴が学習される。
図13では、対象画像PAaと、正解画像PTaと、類似画像PRaに撮像された脳組織細胞核A2の形状の特徴が学習されたCAEfとに基づいて、損失関数Lが算出される。
In FIG. 13, the nuclear correct image PT2a showing the region of the image of the brain tissue cell nucleus A2 is used as the similar image PRa, and the characteristics of the shape of the brain tissue cell nucleus A2 are learned by CAEf.
In FIG. 13, the loss function L is calculated based on the target image PAa, the correct image PTa, and the CAEf learned from the shape characteristics of the brain tissue cell nucleus A2 imaged in the similar image PRa.

次に図14及び図15を参照し、画像処理装置T1aのセグメンテーション結果について説明する。
図14は、本実施形態に係る判定画像PE1aの一例を示す図である。判定画像PE1aは、一例として、光学顕微鏡M1aによって明視野観察に基づいてiPS細胞核A1が撮像されたZスタック画像である。判定画像PE1aでは、異なる3つの方向についてiPS細胞核A1の断面が撮像された3つの断面画像を含む。判定画像PE1aでは、Zスタック画像において撮像されるiPS細胞核A1の深さのうちの中間の深さに相当する深さ以外は、デフォーカスしている。
Next, the segmentation result of the image processing apparatus T1a will be described with reference to FIGS. 14 and 15.
FIG. 14 is a diagram showing an example of the determination image PE1a according to the present embodiment. The determination image PE1a is, for example, a Z-stack image in which the iPS cell nucleus A1 is imaged by an optical microscope M1a based on bright-field observation. The determination image PE1a includes three cross-sectional images in which the cross-sections of the iPS cell nucleus A1 are imaged in three different directions. In the determination image PE1a, the depths other than the depth corresponding to the middle depth of the iPS cell nucleus A1 imaged in the Z stack image are defocused.

図15は、本実施形態に係る判定精度の一例を示す図である。グラフG31、グラフG32、グラフG33、及びグラフG34は、セグメンテーションの精度としてDice係数の値をZスタック画像の深さ毎にそれぞれ示す。
グラフG34は、画像処理装置T1aによるセグメンテーション精度を示す。グラフG34が示すセグメンテーション精度は、クロスエントロピー損失にVAT損失及び形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。
FIG. 15 is a diagram showing an example of determination accuracy according to the present embodiment. Graph G31, graph G32, graph G33, and graph G34 show the value of the Dice coefficient for each depth of the Z stack image as the accuracy of segmentation.
Graph G34 shows the segmentation accuracy by the image processing apparatus T1a. The segmentation accuracy shown in the graph G34 is the segmentation accuracy by the neural network in which the VAT loss and the shape loss are added to the cross entropy loss and learned by using it as a loss function.

グラフG31、グラフG32、グラフG33は、画像処理装置T1aによるセグメンテーション精度との比較のために示されている。グラフG31が示すセグメンテーション精度は、クロスエントロピー損失が損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。グラフG32が示すセグメンテーション精度は、クロスエントロピー損失に形状損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。グラフG33示すセグメンテーション精度は、クロスエントロピー損失にVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度である。 Graphs G31, G32, and graph G33 are shown for comparison with the segmentation accuracy of the image processing apparatus T1a. The segmentation accuracy shown in the graph G31 is the segmentation accuracy by the neural network trained by using the cross entropy loss as a loss function. The segmentation accuracy shown in the graph G32 is the segmentation accuracy by the neural network in which the shape loss is added to the cross entropy loss and the learning is performed by using it as a loss function. The segmentation accuracy shown in the graph G33 is the segmentation accuracy by the neural network in which the VAT loss is added to the cross entropy loss and the learning is performed by using it as a loss function.

グラフG32とグラフG31との比較、及びグラフG34とグラフG33との比較から、損失関数に形状損失が加えられて学習が行われる場合の方が、損失関数に形状損失が加えられずに学習が行われる場合に比べて、セグメンテーション精度は向上していることがわかる。つまり、脳組織細胞核A2の形状を先見情報として用いることによってセグメンテーション精度は向上する。 From the comparison between the graph G32 and the graph G31 and the comparison between the graph G34 and the graph G33, when the learning is performed by adding the shape loss to the loss function, the learning is performed without adding the shape loss to the loss function. It can be seen that the segmentation accuracy is improved as compared with the case where it is performed. That is, the segmentation accuracy is improved by using the shape of the brain tissue cell nucleus A2 as the foresight information.

また、グラフG33とグラフG31との比較、及びグラフG34とグラフG32との比較から、損失関数にVAT損失が加えられ学習が行われる場合の方が、損失関数にVAT損失が加えられずに学習が行われる場合に比べてセグメンテーション精度は向上していることがわかる。 Further, from the comparison between the graph G33 and the graph G31 and the comparison between the graph G34 and the graph G32, when the VAT loss is added to the loss function and learning is performed, the learning is performed without adding the VAT loss to the loss function. It can be seen that the segmentation accuracy is improved as compared with the case where.

グラフG31、グラフG32、グラフG33、及びグラフG34から、画像処理装置T1aによるセグメンテーション精度が、他のセグメンテーション精度に比べて高いことがわかる。つまり、クロスエントロピー損失に形状損失及びVAT損失が加えられ損失関数として用いられて学習が行われたニューラルネットワークによるセグメンテーション精度が他のセグメンテーション精度に比べて最も高い。 From the graph G31, the graph G32, the graph G33, and the graph G34, it can be seen that the segmentation accuracy by the image processing apparatus T1a is higher than the other segmentation accuracy. That is, the segmentation accuracy by the neural network in which the shape loss and the VAT loss are added to the cross entropy loss and learned by using it as a loss function is the highest as compared with other segmentation accuracy.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
上記第1の実施形態や第2の実施形態では、画像処理システムが、脳組織細胞核が電子顕微鏡によって撮像された画像と、iPS細胞核が光学顕微鏡によって撮像された画像とのうち一方が対象画像とされ、他方が類似画像とされる場合について説明をした。本実施形態では、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合について説明する。第3の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTbといい、画像処理装置を画像処理装置T1bという。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described in detail with reference to the drawings.
In the first embodiment and the second embodiment, in the image processing system, one of an image in which the brain tissue cell nucleus is captured by an electron microscope and an image in which the iPS cell nucleus is captured by an optical microscope is a target image. The case where the other image is regarded as a similar image has been described. In this embodiment, a case where one of the images captured by different imaging methods of the brain tissue cell nucleus is used as a target image and the other is used as a similar image will be described. In the third embodiment, the image of the brain tissue cell nucleus captured by the optical microscope is used as a similar image, and the image of the brain tissue cell nucleus captured by the electron microscope is used as the target image.
The image processing system according to this embodiment is referred to as an image processing system STb, and the image processing apparatus is referred to as an image processing apparatus T1b.

図16は、本実施形態に係る画像処理システムSTbの一例を示す図である。画像処理システムSTbは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2と、DAPI画像データベースDB1bと、明視野画像データベースDB3bと、画像処理装置T1bとを備える。
本実施形態に係る画像処理システムSTb(図16)と第2の実施形態に係る画像処理システムSTa(図12)とを比較すると、DAPI画像データベースDB1b、明視野画像データベースDB3b、及び画像処理装置T1bが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2、及び電子顕微鏡画像データベースDB2)が持つ機能は第2の実施形態と同じである。第2の実施形態と同じ機能の説明は省略し、第3の実施形態では、第2の実施形態と異なる部分を中心に説明する。
FIG. 16 is a diagram showing an example of the image processing system STb according to the present embodiment. As an example, the image processing system STb includes an electron microscope M2, an optical microscope M1a, an electron microscope image database DB2, a DAPI image database DB1b, a bright field image database DB3b, and an image processing device T1b.
Comparing the image processing system STb (FIG. 16) according to the present embodiment with the image processing system STa (FIG. 12) according to the second embodiment, the DAPI image database DB1b, the brightfield image database DB3b, and the image processing apparatus T1b Is different. Here, the functions of the other components (optical microscope M1a, electron microscope M2, and electron microscope image database DB2) are the same as those of the second embodiment. The description of the same function as that of the second embodiment will be omitted, and in the third embodiment, the parts different from those of the second embodiment will be mainly described.

画像処理システムSTbでは、光学顕微鏡M1aは、脳組織細胞核A2を、明視野観察によって観察し、また、DAPIによって染色された脳組織細胞核A2を蛍光観察によって観察する。明視野観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、撮像された画像は明視野画像データベースDB3bに蓄積される。一方、蛍光観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、類似画像元画像PMbとしてDAPI画像データベースDB1bに蓄積される。 In the image processing system STb, the optical microscope M1a observes the brain tissue cell nucleus A2 by bright-field observation, and observes the brain tissue cell nucleus A2 stained by DAPI by fluorescence observation. The brain tissue cell nucleus A2 observed by bright-field observation is imaged by an optical microscope M1a, and the captured image is accumulated in the bright-field image database DB3b. On the other hand, the brain tissue cell nucleus A2 observed by fluorescence observation is imaged by an optical microscope M1a and accumulated in the DAPI image database DB1b as a similar image source image PMb.

学習部1bは、画像認識によって類似画像元画像PMbにおいて脳組織細胞核A2の画像の領域を選択し、選択した領域が示された核正解画像PT1bを生成する。作成された核正解画像PT1bは、DAPI画像データベースDB1bに蓄積され、類似画像PR1bとして画像処理装置T1bに供給される。 The learning unit 1b selects an image region of the brain tissue cell nucleus A2 in the similar image source image PMb by image recognition, and generates a nuclear correct image PT1b showing the selected region. The created nuclear correct image PT1b is stored in the DAPI image database DB1b and supplied to the image processing device T1b as a similar image PR1b.

画像処理システムSTbでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、対象画像PA1bとして電子顕微鏡画像データベースDB2に蓄積される。電子顕微鏡画像データベースDB2に蓄積される対象画像PA1bの一部が画像処理装置T1bの学習部1bに供給され学習処理に用いられ、残りの一部が画像処理装置T1bの判定部2に供給され判定処理に用いられる。 In the image processing system STb, the brain tissue cell nucleus A2 is imaged by the electron microscope M2. The image of the brain tissue cell nucleus A2 imaged by the electron microscope M2 is accumulated in the electron microscope image database DB2 as the target image PA1b. A part of the target image PA1b stored in the electron microscope image database DB2 is supplied to the learning unit 1b of the image processing device T1b and used for the learning process, and the remaining part is supplied to the determination unit 2 of the image processing device T1b for determination. Used for processing.

核正解画像PT2bは、電子顕微鏡画像データベースDB2に蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2bは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2bは、電子顕微鏡画像データベースDB2に蓄積され、核正解画像PT1bとして画像処理装置T1bに供給される。 The nuclear correct image PT2b is created based on the image of the brain tissue cell nucleus A2 accumulated in the electron microscope image database DB2. Here, in the nuclear correct answer image PT2b, the inside of this region is painted or the outline of this region is drawn by a person having medical knowledge about the region showing the brain tissue cell nucleus A2 in the image of the brain tissue cell nucleus A2. Created by The created nuclear correct image PT2b is stored in the electron microscope image database DB2 and supplied to the image processing apparatus T1b as the nuclear correct image PT1b.

学習部1bは、類似画像PR1bを用いて脳組織細胞核A2の特徴量を学習する。画像処理システムSTbでは、電子顕微鏡M2によって撮像された脳組織細胞核A2と形状が類似した類似物体の一例として、DAPIによって染色され光学顕微鏡M1aに蛍光観察によって撮像された脳組織細胞核A2が採用される。 The learning unit 1b learns the feature amount of the brain tissue cell nucleus A2 using the similar image PR1b. In the image processing system STb, as an example of a similar object having a shape similar to that of the brain tissue cell nucleus A2 imaged by the electron microscope M2, the brain tissue cell nucleus A2 stained by DAPI and imaged by fluorescence observation on the optical microscope M1a is adopted. ..

学習部1bの学習処理と、図4や図5において説明した学習部1の学習処理とでは、第1部位の細胞核が異なる。学習部1bの学習処理では、第1部位の細胞核とは脳組織細胞核A2である。 The cell nucleus of the first site is different between the learning process of the learning unit 1b and the learning process of the learning unit 1 described with reference to FIGS. 4 and 5. In the learning process of the learning unit 1b, the cell nucleus of the first site is the brain tissue cell nucleus A2.

また、学習部1bの学習処理と学習部1の学習処理とでは、図4のステップS30の核正解画像の生成方法が、以下のステップS30bに置き換えられる点が異なる。
ステップS30b:核正解画像PT1bが作成される。ここで核正解画像PT1bは、類似画像元画像PMbにおいて脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。
Further, the learning process of the learning unit 1b and the learning process of the learning unit 1 are different in that the method of generating the core correct image in step S30 of FIG. 4 is replaced with the following step S30b.
Step S30b: The nuclear correct image PT1b is created. Here, in the nuclear correct image PT1b, the inside of the region showing the brain tissue cell nucleus A2 in the similar image original image PMb is painted or the outline of this region is drawn by a person having medical knowledge. Created by.

本実施形態では、類似画像PRbは、第1顕微鏡である光学顕微鏡M1aによって第1観察条件において撮像されて生成され、対象画像PAbは、第2顕微鏡である電子顕微鏡M2によって第2観察条件において撮像されて生成される。つまり、本実施形態では、類似画像PRbと対象画像PAbとでは、撮像方法が互いに異なる。 In the present embodiment, the similar image PRb is imaged and generated by the optical microscope M1a which is the first microscope under the first observation condition, and the target image PAb is imaged by the electron microscope M2 which is the second microscope under the second observation condition. Is generated. That is, in the present embodiment, the imaging method is different between the similar image PRb and the target image PAb.

電子顕微鏡は、光学顕微鏡に比べ分解能が高い。一方、電子顕微鏡では、電子線照射に高電圧が必要とされ、また顕微鏡内を真空に保つ必要があるなど、光学顕微鏡による観察に比べ観察が簡便ではない。観察が簡便であるという点において、光学顕微鏡による観察の方が、電子顕微鏡による観察よりも効率がよい。
DAPIによって染色された脳組織細胞核A2が光学顕微鏡M1aによる蛍光観察によって撮像されて画像が生成される場合の方が、脳組織細胞核A2の電子顕微鏡M2によって撮像されて画像が生成される場合に比べて類似画像PRbを効率よく生成できる。
The electron microscope has a higher resolution than the optical microscope. On the other hand, in an electron microscope, observation is not as easy as observation with an optical microscope because a high voltage is required for electron beam irradiation and the inside of the microscope needs to be kept in a vacuum. Observation with an optical microscope is more efficient than observation with an electron microscope in that observation is simple.
The case where the brain tissue cell nucleus A2 stained by DAPI is imaged by fluorescence observation with the optical microscope M1a to generate an image is more than the case where the image is generated by being imaged by the electron microscope M2 of the brain tissue cell nucleus A2. The similar image PRb can be efficiently generated.

また、画像認識によって類似画像元画像PMbから核正解画像PT1bが生成される場合の方が、電子顕微鏡M2によって撮像された脳組織細胞核A2の画像から人間によって核正解画像PT2bが作成される場合に比べて、類似画像PRbを効率よく生成できる。 Further, the case where the nuclear correct image PT1b is generated from the similar image original image PMb by image recognition is the case where the nuclear correct image PT2b is created by humans from the image of the brain tissue cell nucleus A2 captured by the electron microscope M2. In comparison, similar image PRb can be generated efficiently.

なお、類似画像PRbと対象画像PAbとにおいて、撮像方法は共通であってもよい。例えば、類似画像PRbと対象画像PAbとが、ともに第1顕微鏡によって第1観察条件において撮像されてもよい。あるいは、類似画像PRbと対象画像PAbとが、ともに第2顕微鏡によって第2観察条件において撮像されてもよい。 The imaging method may be the same for the similar image PRb and the target image PAb. For example, the similar image PRb and the target image PAb may both be imaged by the first microscope under the first observation condition. Alternatively, the similar image PRb and the target image PAb may both be imaged by the second microscope under the second observation condition.

以上に説明したように、本実施形態に係る学習装置(この一例において、学習部1b)では、類似画像PRbと対象画像PAbとでは、撮像方法(この一例において、第1顕微鏡である光学顕微鏡M1aによる第1観察条件における撮像、または第2顕微鏡である電子顕微鏡M2による第2観察条件による撮像)が互いに異なる。 As described above, in the learning apparatus according to the present embodiment (in this example, the learning unit 1b), the similar image PRb and the target image PAb have an imaging method (in this example, the optical microscope M1a which is the first microscope). The imaging under the first observation condition or the imaging under the second observation condition by the electron microscope M2 which is the second microscope) is different from each other.

この構成により、本実施形態に係る学習装置(この一例において、学習部1b)では、類似画像PRbの撮像方法として対象画像PAbの撮像方法に比べて効率的な撮像方法を用いることができるため、類似画像PRbと対象画像PAbとで撮像方法が共通である場合に比べて効率よく類似画像PRを得ることができる。 With this configuration, the learning device according to the present embodiment (in this example, the learning unit 1b) can use an imaging method that is more efficient than the imaging method of the target image PAb as the imaging method of the similar image PRb. Similar image PR can be obtained more efficiently than when the imaging method is common between the similar image PRb and the target image PAb.

類似画像PRbとして、例えば、対象画像が撮像された撮像方法とは異なる撮像方法によって撮像された画像を用いる場合、例えば、第1の撮像方法によって撮像された画像のセグメンテーションに第2の撮像方法によって撮像された画像を用い、第2の撮像方法によって撮像された画像のセグメンテーションに第1の撮像方法によって撮像された画像を用いてもよいため、セグメンテーションの効率化が可能となる。 When, for example, an image captured by an imaging method different from the imaging method in which the target image is captured is used as the similar image PRb, for example, the segmentation of the image captured by the first imaging method is performed by the second imaging method. Since the captured image may be used and the image captured by the first imaging method may be used for the segmentation of the image captured by the second imaging method, the efficiency of segmentation can be improved.

(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について詳しく説明する。
上記第3の実施形態では、画像処理システムが、脳組織細胞核が異なる撮像方法によって撮像された画像のうち、一方が対象画像として用いられ、他方が類似画像として用いられる場合の別の一例について説明する。第4の実施形態では、光学顕微鏡によって撮像された脳組織細胞核の画像が対象画像として用いられ、電子顕微鏡によって撮像された脳組織細胞核の画像が類似画像として用いられる。
本実施形態に係る画像処理システムを画像処理システムSTcといい、画像処理装置を画像処理装置T1cという。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described in detail with reference to the drawings.
In the third embodiment, another example will be described in which the image processing system uses one of the images captured by different imaging methods in the brain tissue cell nucleus as the target image and the other as the similar image. To do. In the fourth embodiment, the image of the brain tissue cell nucleus captured by the optical microscope is used as the target image, and the image of the brain tissue cell nucleus captured by the electron microscope is used as the similar image.
The image processing system according to this embodiment is referred to as an image processing system STc, and the image processing apparatus is referred to as an image processing apparatus T1c.

図17は、本実施形態に係る画像処理システムSTcの一例を示す図である。画像処理システムSTcは、一例として、電子顕微鏡M2と、光学顕微鏡M1aと、電子顕微鏡画像データベースDB2cと、DAPI画像データベースDB1cと、明視野画像データベースDB3cと、画像処理装置T1cとを備える。
本実施形態に係る画像処理システムSTc(図17)と第3の実施形態に係る画像処理システムSTb(図16)とを比較すると、DAPI画像データベースDB1c、明視野画像データベースDB3c、電子顕微鏡画像データベースDB2c、及び画像処理装置T1cが異なる。ここで、他の構成要素(光学顕微鏡M1a、電子顕微鏡M2)が持つ機能は第3の実施形態と同じである。第3の実施形態と同じ機能の説明は省略し、第4の実施形態では、第3の実施形態と異なる部分を中心に説明する。
FIG. 17 is a diagram showing an example of the image processing system STc according to the present embodiment. As an example, the image processing system STc includes an electron microscope M2, an optical microscope M1a, an electron microscope image database DB2c, a DAPI image database DB1c, a brightfield image database DB3c, and an image processing device T1c.
Comparing the image processing system STc (FIG. 17) according to the present embodiment and the image processing system STb (FIG. 16) according to the third embodiment, the DAPI image database DB1c, the brightfield image database DB3c, and the electron microscope image database DB2c , And the image processing device T1c are different. Here, the functions of the other components (optical microscope M1a, electron microscope M2) are the same as those of the third embodiment. The description of the same function as that of the third embodiment will be omitted, and in the fourth embodiment, the parts different from those of the third embodiment will be mainly described.

画像処理システムSTcでは、光学顕微鏡M1aは、脳組織細胞核A2を、明視野観察によって観察し、また、DAPIによって染色された脳組織細胞核A2を蛍光観察によって観察する。明視野観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、対象画像PAcとして明視野画像データベースDB3bに蓄積される。一方、蛍光観察によって観察される脳組織細胞核A2は、光学顕微鏡M1aによって撮像され、核正解画像PT1cとしてDAPI画像データベースDB1bに蓄積される。 In the image processing system STc, the optical microscope M1a observes the brain tissue cell nucleus A2 by bright-field observation, and observes the brain tissue cell nucleus A2 stained by DAPI by fluorescence observation. The brain tissue cell nucleus A2 observed by bright-field observation is imaged by an optical microscope M1a and accumulated in the bright-field image database DB3b as a target image PAc. On the other hand, the brain tissue cell nucleus A2 observed by fluorescence observation is imaged by an optical microscope M1a and accumulated in the DAPI image database DB1b as a nuclear correct image PT1c.

画像処理システムSTbでは、電子顕微鏡M2によって脳組織細胞核A2が撮像される。電子顕微鏡M2によって撮像された脳組織細胞核A2の画像は、類似画像元画像PMcとして電子顕微鏡画像データベースDB2cに蓄積される。 In the image processing system STb, the brain tissue cell nucleus A2 is imaged by the electron microscope M2. The image of the brain tissue cell nucleus A2 imaged by the electron microscope M2 is accumulated in the electron microscope image database DB2c as a similar image source image PMc.

核正解画像PT2cは、電子顕微鏡画像データベースDB2cに蓄積される脳組織細胞核A2の画像に基づいて作成される。ここで核正解画像PT2cは、脳組織細胞核A2の画像において脳組織細胞核A2を示す領域について、医学的知識をもつ人間によって、この領域の内部が塗られたり、この領域の輪郭が描かれたりすることによって作成される。作成された核正解画像PT2cは、電子顕微鏡画像データベースDB2cに蓄積され、類似画像PRcとして画像処理装置T1cに供給される。 The nuclear correct image PT2c is created based on the image of the brain tissue cell nucleus A2 accumulated in the electron microscope image database DB2c. Here, in the nuclear correct answer image PT2c, the inside of this region is painted or the outline of this region is drawn by a person having medical knowledge about the region showing the brain tissue cell nucleus A2 in the image of the brain tissue cell nucleus A2. Created by The created nuclear correct image PT2c is stored in the electron microscope image database DB2c and supplied to the image processing apparatus T1c as a similar image PRc.

学習部1cは、類似画像PR1cを用いて脳組織細胞核A2の特徴量を学習する。画像処理システムSTcでは、光学顕微鏡M1aによって撮像された脳組織細胞核A2と形状が類似した類似物体の一例として、電子顕微鏡M2によって撮像された脳組織細胞核A2が採用される。 The learning unit 1c learns the feature amount of the brain tissue cell nucleus A2 using the similar image PR1c. In the image processing system STc, the brain tissue cell nucleus A2 imaged by the electron microscope M2 is adopted as an example of a similar object having a shape similar to that of the brain tissue cell nucleus A2 imaged by the optical microscope M1a.

学習部1cの学習処理と、第2の実施形態の学習部1aの学習処理とでは、第2部位の細胞核が異なる。学習部1cの学習処理では、第2部位の細胞核とは脳組織細胞核A2である。その他において学習部1cの学習処理と、第2の実施形態の学習部1aの学習処理とは同様である。 The cell nucleus of the second site is different between the learning process of the learning unit 1c and the learning process of the learning unit 1a of the second embodiment. In the learning process of the learning unit 1c, the cell nucleus of the second site is the brain tissue cell nucleus A2. Other than that, the learning process of the learning unit 1c and the learning process of the learning unit 1a of the second embodiment are the same.

本実施形態では、類似画像PRcは、第2顕微鏡である電子顕微鏡M2によって第2観察条件において撮像されて生成され、対象画像PAcは、第1顕微鏡である光学顕微鏡M1aによって第1観察条件において撮像されて生成される。つまり、本実施形態では、類似画像PRcと対象画像PAcとでは、撮像方法が互いに異なる。 In the present embodiment, the similar image PRc is imaged and generated by the electron microscope M2 which is the second microscope under the second observation condition, and the target image PAc is imaged by the optical microscope M1a which is the first microscope under the first observation condition. Is generated. That is, in the present embodiment, the imaging method is different between the similar image PRc and the target image PAc.

なお、上述した第3の実施形態、及び第4の実施形態では、蛍光観察が光学顕微鏡によって行われる場合の一例について説明したが、これに限らない。第3の実施形態、及び第4の実施形態において、蛍光観察は、共焦点顕微鏡や超解像顕微鏡などによって行われてもよい。 In the third embodiment and the fourth embodiment described above, an example in which fluorescence observation is performed by an optical microscope has been described, but the present invention is not limited to this. In the third embodiment and the fourth embodiment, the fluorescence observation may be performed by a confocal microscope, a super-resolution microscope, or the like.

(変形例)
なお、上述した各実施形態においては、対象物体が粒状の形状をもつ細胞核であり、類似度がHuモーメントの間のL1距離として算出される場合の一例について説明したが、これに限らない。図18を参照し、対象物体や類似度の他の例について説明する。
(Modification example)
In each of the above-described embodiments, an example in which the target object is a cell nucleus having a granular shape and the similarity is calculated as the L1 distance between Hu moments has been described, but the present invention is not limited to this. With reference to FIG. 18, other examples of the target object and the similarity will be described.

図18は、実施形態の変形例に係る対象物体と類似度との対応の一例を示す図である。対象物体が細胞核、ミトコンドリア、ニューロベクシルなどである場合、対象物体の形状は粒状である。対象物体の形状が粒状である物体である場合、類似度は、上述した各実施形態のように、対象物体の画像、及び対象物体の画像それぞれのHuモーメントの間のL1距離として算出される。
一方、対象物体が神経突起、血管、細胞膜(または細胞質)、フィラメントなどである場合、対象物体の形状は細長い形状である。対象物体の形状は細長い形状である場合、類似度は、例えば、血管様画像の画像セット間距離として算出される。
FIG. 18 is a diagram showing an example of correspondence between the target object and the degree of similarity according to the modified example of the embodiment. When the target object is a cell nucleus, mitochondria, neurovexil, etc., the shape of the target object is granular. When the shape of the target object is granular, the similarity is calculated as the L1 distance between the image of the target object and the Hu moment of each of the images of the target object, as in each of the above-described embodiments.
On the other hand, when the target object is a neurite, a blood vessel, a cell membrane (or cytoplasm), a filament, or the like, the shape of the target object is elongated. When the shape of the target object is an elongated shape, the similarity is calculated as, for example, the distance between image sets of blood vessel-like images.

ここで図19及び図20を参照し、血管様画像の画像セット間距離について説明する。図19は、実施形態の変形例に係る血管様画像の画像セット間距離の算出処理の一例を示す図である。図20は、実施形態の変形例に係る血管画像及び血管様画像の一例を示す図である。
図19に示す算出処理は、例えば、画像処理装置T1、T1a、T1b、T1cの類似度算出部12によって実行される。図19に示す算出処理の例では、画像セットAと、画像セットBとについて画像セット間距離が算出される。画像セットAは、例えば、複数の対象画像であり、画像セットBは、例えば、複数の類似画像である。複数の対象画像である画像セットAにおいて対象物体とは、例えば、血管であり、複数の類似画像である画像セットBにおいて類似物体とは、例えば、神経突起である。
Here, with reference to FIGS. 19 and 20, the distance between image sets of blood vessel-like images will be described. FIG. 19 is a diagram showing an example of a process of calculating the distance between image sets of a blood vessel-like image according to a modified example of the embodiment. FIG. 20 is a diagram showing an example of a blood vessel image and a blood vessel-like image according to a modified example of the embodiment.
The calculation process shown in FIG. 19 is executed by, for example, the similarity calculation unit 12 of the image processing devices T1, T1a, T1b, and T1c. In the example of the calculation process shown in FIG. 19, the distance between the image sets is calculated for the image set A and the image set B. The image set A is, for example, a plurality of target images, and the image set B is, for example, a plurality of similar images. In the image set A which is a plurality of target images, the target object is, for example, a blood vessel, and in the image set B which is a plurality of similar images, the similar object is, for example, a neurite.

ステップS400:類似度算出部12は、画像セットAを取得する。図20の血管画像PV1は、画像セットAに含まれる画像の一例であり、血管が撮像されている。
ステップS410:類似度算出部12は、取得した画像セットAに血管抽出フィルタを適用する。血管抽出フィルタとは、血管の形状の特徴を抽出するためのフィルタである。血管の形状の特徴には、細長いという特徴が含まれる。
Step S400: The similarity calculation unit 12 acquires the image set A. The blood vessel image PV1 of FIG. 20 is an example of an image included in the image set A, and the blood vessel is imaged.
Step S410: The similarity calculation unit 12 applies the blood vessel extraction filter to the acquired image set A. The blood vessel extraction filter is a filter for extracting the characteristics of the shape of blood vessels. The shape characteristics of blood vessels include the characteristic of being elongated.

ステップS420:類似度算出部12は、画像セットAに血管抽出フィルタを適用した結果として、血管様画像VAを生成する。図20の血管様画像PV2は、血管画像PV1に血管抽出フィルタが適用されて生成された、血管様画像VAの一例である。
ステップS430:類似度算出部12は、血管様画像VAに対してヒストグラム抽出の処理を実行する。
Step S420: The similarity calculation unit 12 generates a blood vessel-like image VA as a result of applying the blood vessel extraction filter to the image set A. The blood vessel-like image PV2 of FIG. 20 is an example of a blood vessel-like image VA generated by applying a blood vessel extraction filter to the blood vessel image PV1.
Step S430: The similarity calculation unit 12 executes a histogram extraction process on the blood vessel-like image VA.

ステップS440:類似度算出部12は、画像セットBを取得する。
ステップS450:類似度算出部12は、取得した画像セットBに血管抽出フィルタを適用する。
ステップS460:類似度算出部12は、画像セットBに血管抽出フィルタを適用した結果として、血管様画像VBを生成する。
ステップS470:類似度算出部12は、血管様画像VBに対してヒストグラム抽出の処理を実行する。
Step S440: The similarity calculation unit 12 acquires the image set B.
Step S450: The similarity calculation unit 12 applies the blood vessel extraction filter to the acquired image set B.
Step S460: The similarity calculation unit 12 generates a blood vessel-like image VB as a result of applying the blood vessel extraction filter to the image set B.
Step S470: The similarity calculation unit 12 executes a histogram extraction process on the blood vessel-like image VB.

ステップS480:類似度算出部12は、血管様画像VAと血管様画像VBとのヒストグラム間距離を類似度として算出する。ここでヒストグラム間距離は、一例として、L1距離である。 Step S480: The similarity calculation unit 12 calculates the distance between the histograms of the blood vessel-like image VA and the blood vessel-like image VB as the similarity. Here, the distance between histograms is, for example, the L1 distance.

なお、上述した各実施形態においては、学習部1、1a、1b、1c、及び判定部2がそれぞれ画像処理装置T1、T1a、T1b、T1cに備えられる場合の一例について説明したが、これに限らない。学習部1、1a、1b、1c、及び判定部2は、それぞれ学習装置、及び判定装置として、画像処理システムST、STa、STb、STcのそれぞれにおいて別体の装置として備えられてもよい。 In each of the above-described embodiments, an example in which the learning units 1, 1a, 1b, 1c, and the determination unit 2 are provided in the image processing devices T1, T1a, T1b, and T1c, respectively, has been described, but the present invention is limited to this. Absent. The learning units 1, 1a, 1b, 1c, and the determination unit 2 may be provided as separate devices in each of the image processing systems ST, STa, STb, and STc as learning devices and determination devices, respectively.

上述した各実施形態においては、画像処理システムST、STa、STb、STcのそれぞれにおいて、画像処理装置T1、T1a、T1b、T1cが、光学顕微鏡M1、M1aや電子顕微鏡M2などの顕微鏡とは別体として備えられる場合の一例について説明した。つまり、各実施形態においては、学習装置や判定装置が顕微鏡とは別体として備えられる場合の一例について説明したが、これに限らない。学習装置や判定装置は、顕微鏡と一体となって備えられてもよい。つまり、画像処理システムSTにおいて、顕微鏡は、上述した学習装置を備えてもよい。また、画像処理システムSTにおいて、顕微鏡は、上述した判定装置を備えてもよい。また、画像処理システムSTにおいて、顕微鏡は、上述した学習装置と、上述した判定装置とを備えてもよい。 In each of the above-described embodiments, in each of the image processing systems ST, STa, STb, and STc, the image processing devices T1, T1a, T1b, and T1c are separate from the microscopes such as the optical microscopes M1, M1a, and the electron microscope M2. An example of the case where the system is provided as is described. That is, in each embodiment, an example in which the learning device and the determination device are provided as a separate body from the microscope has been described, but the present invention is not limited to this. The learning device and the determination device may be provided integrally with the microscope. That is, in the image processing system ST, the microscope may include the learning device described above. Further, in the image processing system ST, the microscope may be provided with the above-mentioned determination device. Further, in the image processing system ST, the microscope may include the above-mentioned learning device and the above-mentioned determination device.

なお、上述した実施形態における画像処理装置T1、T1a、T1b、T1cの一部、例えば、学習部1、1a、1b、1c、及び判定部2をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像処理装置T1、T1a、T1b、T1cに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における画像処理装置T1、T1a、T1b、T1cの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像処理装置T1、T1a、T1b、T1cの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
In addition, a part of the image processing apparatus T1, T1a, T1b, T1c in the above-described embodiment, for example, learning units 1, 1a, 1b, 1c, and determination unit 2 may be realized by a computer. In that case, the program for realizing this control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The "computer system" referred to here is a computer system built into the image processing devices T1, T1a, T1b, and T1c, and includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Furthermore, a "computer-readable recording medium" is a medium that dynamically holds a program for a short period of time, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In that case, a program may be held for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may further realize the above-mentioned functions in combination with a program already recorded in the computer system.
Further, a part or all of the image processing devices T1, T1a, T1b, and T1c in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the image processing devices T1, T1a, T1b, and T1c may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although one embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like are made without departing from the gist of the present invention. It is possible to do.

T1、T1a、T1b、T1c…画像処理装置、1、1a、1b、1c…学習部、2…判定部、130…類似画像学習部、132…対象画像学習部、PR…類似画像、PA…対象画像、PT…正解画像、LD…教師データ T1, T1a, T1b, T1c ... Image processing device, 1, 1a, 1b, 1c ... Learning unit, 2 ... Judgment unit, 130 ... Similar image learning unit, 132 ... Target image learning unit, PR ... Similar image, PA ... Target Image, PT ... Correct image, LD ... Teacher data

Claims (12)

判定の対象である対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて第1の学習を実行する類似画像学習部と、
前記対象物体が撮像された画像である対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習部による前記第1の学習の結果とに基づいて第2の学習を実行する対象画像学習部と、
を備える学習装置。
A similar image learning unit that executes the first learning based on a similar image that is an image of a similar object that is an object similar in appearance to the target object to be determined,
Teacher data that is a set of a target image that is an image of the target object and a correct image that is an image showing the target object in the target image, and the first learning by the similar image learning unit. The target image learning unit that executes the second learning based on the result of
A learning device equipped with.
前記類似画像から前記類似物体を抽出する類似物体抽出部をさらに備え、
前記類似画像学習部は、前記類似画像として、前記類似物体抽出部によって抽出された前記類似物体が示された画像を用いて前記第1の学習を実行する
請求項1に記載の学習装置。
A similar object extraction unit for extracting the similar object from the similar image is further provided.
The learning device according to claim 1, wherein the similar image learning unit executes the first learning by using an image showing the similar object extracted by the similar object extraction unit as the similar image.
前記類似物体は、前記対象物体に対する外観の類似の程度を示す値が所定の値以上である
請求項1又は請求項2に記載の学習装置。
The learning device according to claim 1 or 2, wherein the similar object has a value indicating a degree of similarity in appearance with respect to the target object of a predetermined value or more.
前記類似画像と前記対象画像とでは、撮像方法が互いに異なる
請求項1から請求項3のいずれか一項に記載の学習装置。
The learning device according to any one of claims 1 to 3, wherein the imaging method is different between the similar image and the target image.
前記対象画像学習部は、前記類似画像学習部による前記第1の学習の結果に基づく損失関数と、前記教師データとに基づいて前記第2の学習を実行する
請求項1から請求項4のいずれか一項に記載の学習装置。
The target image learning unit is any of claims 1 to 4 that executes the second learning based on the loss function based on the result of the first learning by the similar image learning unit and the teacher data. The learning device according to item 1.
請求項1から請求項5のいずれか一項に記載の学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える
判定装置。
A determination device including a determination unit that determines the target object in the target image based on the learning result of the learning device according to any one of claims 1 to 5.
請求項1から請求項5のいずれか一項に記載の学習装置を備える顕微鏡。 A microscope provided with the learning apparatus according to any one of claims 1 to 5. 請求項6に記載の判定装置を備える顕微鏡。 A microscope provided with the determination device according to claim 6. 請求項1から請求項5のいずれか一項に記載の学習装置と、
前記学習装置による学習結果に基づいて前記対象画像において前記対象物体を判定する判定部を備える判定装置と
を備える顕微鏡。
The learning device according to any one of claims 1 to 5.
A microscope including a determination device including a determination unit for determining the target object in the target image based on the learning result of the learning device.
請求項1から請求項5のいずれか一項に記載の学習装置によって学習された学習済みモデル。 A trained model trained by the learning device according to any one of claims 1 to 5. コンピュータに、
判定の対象である対象物体と外観が類似した物体である類似物体についての画像である類似画像に基づいて第1の学習を実行する類似画像学習ステップと、
前記対象物体が撮像された画像である対象画像と、前記対象画像において前記対象物体が示された画像である正解画像との組である教師データと、前記類似画像学習ステップの学習結果とに基づいて第2の学習を実行する対象画像学習ステップと
を実行させるためのプログラム。
On the computer
A similar image learning step of executing the first learning based on a similar image which is an image of a similar object which is an object similar in appearance to the target object to be determined,
Based on the teacher data which is a set of the target image which is the image obtained by the target object and the correct image which is the image showing the target object in the target image, and the learning result of the similar image learning step. A program for executing the target image learning step for executing the second learning.
コンピュータに、
請求項11に記載のプログラムによる学習結果に基づいて前記対象画像において前記対象物体を判定する判定ステップ
を実行させるためのプログラム。
On the computer
A program for executing a determination step of determining the target object in the target image based on the learning result of the program according to claim 11.
JP2019133641A 2019-07-19 2019-07-19 Learning device, judgment device, microscope, trained model, and program Active JP7477269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133641A JP7477269B2 (en) 2019-07-19 2019-07-19 Learning device, judgment device, microscope, trained model, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133641A JP7477269B2 (en) 2019-07-19 2019-07-19 Learning device, judgment device, microscope, trained model, and program

Publications (2)

Publication Number Publication Date
JP2021018582A true JP2021018582A (en) 2021-02-15
JP7477269B2 JP7477269B2 (en) 2024-05-01

Family

ID=74566152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133641A Active JP7477269B2 (en) 2019-07-19 2019-07-19 Learning device, judgment device, microscope, trained model, and program

Country Status (1)

Country Link
JP (1) JP7477269B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
WO2017221412A1 (en) * 2016-06-24 2017-12-28 オリンパス株式会社 Image processing device, learning device, image processing method, discrimination criterion creation method, learning method, and program
US20180121760A1 (en) * 2016-10-27 2018-05-03 General Electric Company Methods of systems of generating virtual multi-dimensional models using image analysis
WO2018225448A1 (en) * 2017-06-09 2018-12-13 智裕 多田 Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
WO2017221412A1 (en) * 2016-06-24 2017-12-28 オリンパス株式会社 Image processing device, learning device, image processing method, discrimination criterion creation method, learning method, and program
US20180121760A1 (en) * 2016-10-27 2018-05-03 General Electric Company Methods of systems of generating virtual multi-dimensional models using image analysis
WO2018225448A1 (en) * 2017-06-09 2018-12-13 智裕 多田 Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
野里 博和、他6名: "胃内視鏡診断の知識を転移させた深層畳み込みニューラルネットワークによる膀胱内視鏡診断支援", 電子情報通信学会技術研究報告, vol. 第118巻, 第286号, JPN6023015256, 30 October 2018 (2018-10-30), JP, pages 83 - 88, ISSN: 0005038290 *

Also Published As

Publication number Publication date
JP7477269B2 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
Havaei et al. A convolutional neural network approach to brain tumor segmentation
Peng et al. Automatic reconstruction of 3D neuron structures using a graph-augmented deformable model
CN110097130A (en) Training method, device, equipment and the storage medium of classification task model
Romaguera et al. Left ventricle segmentation in cardiac MRI images using fully convolutional neural networks
Wu et al. Dynamic filtering with large sampling field for convnets
WO2021031817A1 (en) Emotion recognition method and device, computer device, and storage medium
JP6824845B2 (en) Image processing systems, equipment, methods and programs
Bird et al. Cifake: Image classification and explainable identification of ai-generated synthetic images
CN113096137B (en) Adaptive segmentation method and system for OCT (optical coherence tomography) retinal image field
JP2018092349A (en) Reduction condition determining method, reduction condition determining program, and reduction condition determining apparatus
CN111340209A (en) Network model training method, image segmentation method and focus positioning method
CN110570394A (en) medical image segmentation method, device, equipment and storage medium
Li et al. CAU-net: A novel convolutional neural network for coronary artery segmentation in digital substraction angiography
Wesemeyer et al. Annotation quality vs. quantity for deep-learned medical image segmentation
Rama et al. Image pre-processing: enhance the performance of medical image classification using various data augmentation technique
JP7477269B2 (en) Learning device, judgment device, microscope, trained model, and program
JP2011141866A (en) Data classifying device, data classifying system, and program
Uyar et al. Improving efficiency in convolutional neural networks with 3D image filters
CN113158970B (en) Action identification method and system based on fast and slow dual-flow graph convolutional neural network
CN113379770B (en) Construction method of nasopharyngeal carcinoma MR image segmentation network, image segmentation method and device
Chai et al. End-to-end automated iris segmentation framework using U-Net convolutional neural network
Maleki et al. Ink marker segmentation in histopathology images using deep learning
Zhang et al. Two stage of histogram matching augmentation for domain generalization: application to left atrial segmentation
CN114037830A (en) Training method for enhanced image generation model, image processing method and device
Zhao et al. Multi-index optic disc quantification via multitask ensemble learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190815

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240418