JP7135303B2 - Computer program, detection device, imaging device, server, detector, detection method and provision method - Google Patents

Computer program, detection device, imaging device, server, detector, detection method and provision method Download PDF

Info

Publication number
JP7135303B2
JP7135303B2 JP2017220327A JP2017220327A JP7135303B2 JP 7135303 B2 JP7135303 B2 JP 7135303B2 JP 2017220327 A JP2017220327 A JP 2017220327A JP 2017220327 A JP2017220327 A JP 2017220327A JP 7135303 B2 JP7135303 B2 JP 7135303B2
Authority
JP
Japan
Prior art keywords
image
learning
pixel
data
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017220327A
Other languages
Japanese (ja)
Other versions
JP2019091307A (en
Inventor
勇司 都築
晶 佐波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017220327A priority Critical patent/JP7135303B2/en
Publication of JP2019091307A publication Critical patent/JP2019091307A/en
Application granted granted Critical
Publication of JP7135303B2 publication Critical patent/JP7135303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、コンピュータプログラム、検出装置、撮像装置、サーバ、検出器、検出方法及び提供方法に関する。 TECHNICAL FIELD The present disclosure relates to computer programs, detection devices, imaging devices, servers , detectors , detection methods, and providing methods.

再生医療分野の産業化、研究の効率化のために細胞、菌等の微小検体の観察を自動化するための画像解析技術が強く望まれている。画像解析技術の中で、細胞を検出する技術は、最も基礎となるものであるが、顕微鏡画像の性質が一般的なカメラ画像と異なること、あるいは細胞は多数が密集して成長することなどから、様々な技術開発が行われている。 There is a strong demand for an image analysis technique for automating the observation of minute specimens such as cells and bacteria for the industrialization and efficiency of research in the field of regenerative medicine. Among the image analysis technologies, the technology to detect cells is the most basic one. , various technological developments are being carried out.

特許文献1には、位相差顕微鏡を用いて取得した細胞の位相差画像に対して二次微分フィルタを適用してエッジを抽出し、抽出したエッジが構成する円の面積が最大のものを浮遊細胞の形状として抽出する技術が開示されている。 In Patent Document 1, edges are extracted by applying a secondary differential filter to a phase contrast image of cells acquired using a phase contrast microscope, and the circle formed by the extracted edges with the largest area is floated. Techniques for extracting cell shapes are disclosed.

また、特許文献2には、特定の菌に特異的に反応する化合物を用いて蛍光染色した微生物に励起光を照射し、発色した蛍光を解析することにより、特定の菌数を計量する技術が開示されている。 In addition, Patent Document 2 discloses a technique for measuring the number of specific bacteria by irradiating excitation light on microorganisms that have been fluorescently stained using a compound that specifically reacts with specific bacteria and analyzing the resulting fluorescence. disclosed.

特開2008-212017号公報JP 2008-212017 A 特開2001-340072号公報Japanese Patent Application Laid-Open No. 2001-340072

しかし、特許文献1のような位相差画像では、そもそも細胞が無色透明であることが多いため細胞と背景との輝度差が小さく、また、多様な細胞の形状に合わせて適切なフィルタモデルの設計を行うことは実用上非常に困難である。このため、位相差画像では細胞が存在することは認識することができるものの、一つ一つの細胞を認識することが困難である。 However, in phase-contrast images such as those disclosed in Patent Document 1, since cells are often colorless and transparent in the first place, the brightness difference between the cells and the background is small. is very difficult in practice. Therefore, although the presence of cells can be recognized in the phase-contrast image, it is difficult to recognize individual cells.

また、特許文献2のように、細胞に蛍光染色を施して細部を観察する際、染色によって細胞が変質又は死滅し、細胞の本来の挙動を認識することができない。また、蛍光染色するための作業やコストが発生する。 In addition, as in Patent Document 2, when cells are fluorescently stained and details are observed, the cells are altered or killed by the staining, making it impossible to recognize the original behavior of the cells. In addition, work and costs are incurred for fluorescent dyeing.

本開示は、斯かる事情に鑑みてなされたものであり、一つ一つの細胞、菌等の微小検体を認識することができるコンピュータプログラム、検出装置、撮像装置、サーバ、検出器、検出方法及び提供方法を明らかにする。 The present disclosure has been made in view of such circumstances, and includes a computer program, a detection device, an imaging device, a server , a detector , and a detection method capable of recognizing minute specimens such as individual cells and bacteria. and how to provide it.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。 The present application includes a plurality of means for solving the above problems. To give an example, the computer program is a computer program for causing a computer to detect an analyte, and the computer is provided with the method obtained by the first method. Further, a process of acquiring first image data related to a first image including a learning specimen, and a second method different from the first method, which enables identification of a region of interest in the learning specimen. A process of acquiring second image data related to a second image including the region of interest of the learning specimen, a process of generating learning data based on the first image data and the second image data, and the first method and a process of learning the detector based on the generated learning data so that the detector can detect the specimen based on the obtained first image data related to the first image including the specimen.

本開示によれば、一つ一つの細胞、菌等の微小検体を認識することができる。 According to the present disclosure, minute specimens such as individual cells and bacteria can be recognized.

本実施の形態の検出装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of a detection device according to an embodiment; FIG. 位相差画像及び核染色画像の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a phase contrast image and a stained nuclear image; 本実施の形態の検出モデル部の構成の第1例を模式的に示す説明図である。FIG. 4 is an explanatory diagram schematically showing a first example of the configuration of a detection model unit according to the embodiment; 本実施の形態の検出モデル部を学習させるための学習データの生成方法の第1例を示す説明図である。FIG. 4 is an explanatory diagram showing a first example of a method of generating learning data for learning a detection model unit according to the embodiment; 本実施の形態の学習処理部による学習の第1例を示す説明図である。FIG. 4 is an explanatory diagram showing a first example of learning by a learning processing unit according to the embodiment; 本実施の形態の処理部の学習処理の手順の第1例を示すフローチャートである。4 is a flow chart showing a first example of a procedure of learning processing of a processing unit according to the present embodiment; 本実施の形態の入力データ生成部による入力データの生成方法の第1例を示す説明図である。FIG. 4 is an explanatory diagram showing a first example of a method of generating input data by an input data generation unit according to the embodiment; 本実施の形態の検出モデル部による検出処理の第1例を示す説明図である。FIG. 4 is an explanatory diagram showing a first example of detection processing by a detection model unit according to the embodiment; 本実施の形態の処理部による検出処理の手順の第1例を示すフローチャートである。4 is a flow chart showing a first example of a procedure of detection processing by a processing unit according to the present embodiment; 本実施の形態の処理部により生成された推定核染色画像の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of an estimated stained nuclear image generated by a processing unit according to the present embodiment; 位相差画像と推定核染色画像とを合成した合成画像の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of a combined image obtained by combining a phase contrast image and an estimated nuclear staining image; 推定核染色画像と合成画像の他の例を示す説明図である。FIG. 10 is an explanatory diagram showing another example of an estimated stained nuclear image and a combined image; 本実施の形態の検出モデル部の構成の第2例を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing a second example of the configuration of the detection model unit according to the embodiment; 本実施の形態の検出モデル部を学習させるための学習データの生成方法の第2例を示す説明図である。FIG. 10 is an explanatory diagram showing a second example of a method of generating learning data for learning the detection model unit according to the embodiment; 本実施の形態の学習処理部による学習の第2例を示す説明図である。FIG. 9 is an explanatory diagram showing a second example of learning by the learning processing section of the embodiment; 本実施の形態の処理部の学習処理の手順の第2例を示すフローチャートである。9 is a flow chart showing a second example of the procedure of learning processing of the processing unit according to the embodiment; 本実施の形態の検出モデル部による検出処理の第2例を示す説明図である。FIG. 9 is an explanatory diagram showing a second example of detection processing by the detection model unit of the embodiment; 本実施の形態の処理部による検出処理の手順の第2例を示すフローチャートである。9 is a flow chart showing a second example of a procedure of detection processing by the processing unit of the present embodiment; 核染色画像を異なるしきい値で二値化して得られる二値化後の核染色画像の例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a nuclear staining image after binarization obtained by binarizing a nuclear staining image with different threshold values; 本実施の形態の処理部による二値化処理の前処理の手順の一例を示すフローチャートである。7 is a flow chart showing an example of a pre-processing procedure for binarization processing by a processing unit according to the present embodiment; 本実施の形態の処理部による二値化処理の前処理での画像の例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of an image in pre-processing of binarization processing by the processing unit of the present embodiment; 本実施の形態の検出装置の構成の他の例を示すブロック図である。FIG. 4 is a block diagram showing another example of the configuration of the detection device according to this embodiment; 本実施の形態の顕微鏡の構成の一例を示すブロック図である。1 is a block diagram showing an example of a configuration of a microscope according to an embodiment; FIG. 本実施の形態の検出システムの構成の一例を示す模式図である。1 is a schematic diagram showing an example of a configuration of a detection system according to an embodiment; FIG. 本実施の形態のマウスの表皮細胞の提供方法の一例を示す模式図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing an example of a method for providing mouse epidermal cells according to the present embodiment. 本実施の形態のマウスの表皮細胞の提供方法の処理手順の一例を示すフローチャートである。1 is a flow chart showing an example of a procedure of a method for providing mouse epidermal cells according to the present embodiment.

以下、本開示の実施の形態を図面に基づいて説明する。図1は本実施の形態の検出装置50の構成の一例を示すブロック図である。本実施の形態の検出装置は、検体を検出する装置である。検体は、後述の第2方法によりラベル付けすることにより識別可能な対象とするもの全てを含む。検体は、例えば、生体(動物)の様々な部位の細胞(例えば、マウスの表皮細胞など)、菌等の微小な識別対象を含むものである。第2方法は、検体の関心領域を識別可能にする方法である。第2方法により細胞核又は細胞膜を染色すると細胞核を識別可能とすることができ、その結果、細胞を検体として検出することができる。この場合、関心領域は、細胞核である。なお、第2方法には、細胞核を識別可能に強調するために、敢えて細胞質を染色することによって細胞核を際立たせる方法も含まれる。また、第2方法により生細胞の核だけを染色すると生細胞を識別可能にすることができ、その結果、生細胞を検体として検出することができる。この場合、関心領域は、生細胞である。また、検体は細胞又は菌のような生命体の一組織に限られるものではなく、特定の分子又はたんぱく質を含有するような個体粒子の集合体である紛体も対象として含めることができる。検体は、生細胞及び死細胞を区別しない場合、どちらか一方又は両方を区別する場合を含む。ほぼ全ての細胞には、細胞核(単に「核」ともいう)が存在し、細胞核は、真核生物の細胞を構成する細胞小器官の一つであり、核内には遺伝情報が保存されている。細胞の細胞膜で囲まれた部分である原形質のうち、細胞核以外の領域を細胞質という。本実施の形態の検出装置は、多数の細胞が密集した状態において、一つ一つの細胞を認識可能に検出するものであり、個々の細胞の細胞核を識別することにより、一つ一つの細胞の位置、及び細胞の数などを正確に検出することができる。なお、検体には、細菌、個体粒子、ゲル粒子などを含めることができる。以下、本明細書では、検体を細胞として説明する。 Embodiments of the present disclosure will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of a detection device 50 of this embodiment. The detection device of this embodiment is a device that detects a specimen. Specimens include all objects that can be identified by labeling with the second method described below. Specimens include, for example, cells in various parts of a living body (animal) (for example, epidermal cells of mice), microscopic objects to be identified such as bacteria. A second method is a method that enables identification of the region of interest of the specimen. By staining the cell nucleus or cell membrane by the second method, the cell nucleus can be identified, and as a result, the cell can be detected as a specimen. In this case, the region of interest is the cell nucleus. The second method also includes a method of intentionally staining the cytoplasm to make the cell nucleus stand out in order to emphasize the cell nucleus so that it can be distinguished. Also, if only the nuclei of living cells are stained by the second method, the living cells can be identified, and as a result, the living cells can be detected as specimens. In this case, the region of interest is living cells. Moreover, the specimen is not limited to a tissue of a living organism such as a cell or fungus, but can also include a powder that is an aggregate of solid particles containing specific molecules or proteins. The specimen includes cases in which live cells and dead cells are not distinguished, cases in which either one or both are distinguished. Almost all cells have a cell nucleus (simply called "nucleus"). The nucleus is one of the organelles that make up eukaryotic cells, and genetic information is stored in the nucleus. there is The cytoplasm is the part of the cytoplasm, which is the part of the cell surrounded by the cell membrane, other than the cell nucleus. The detection apparatus of the present embodiment detects each cell recognizably in a state in which a large number of cells are densely packed. The position, number of cells, etc. can be detected accurately. The specimen can include bacteria, solid particles, gel particles, and the like. Hereinafter, the specimen will be described as a cell in this specification.

検出装置50は、処理部51、第1画像データ取得部52、第2画像データ取得部53、メモリ54、出力部55、表示部56などを備える。処理部51は、検出モデル部511、入力データ生成部512、推定画像生成部513、学習処理部514、学習データ生成部515などを備える。また、検出装置50は、画像を表示することができる表示装置60と接続することができる。なお、検出装置50は、例えば、ユーザが使用するパーソナルコンピュータなどの情報処理装置、様々なサービスやデータなどを提供するサーバ、あるいは検体を観察する顕微鏡などに組み込むことができる。 The detection device 50 includes a processing unit 51, a first image data acquisition unit 52, a second image data acquisition unit 53, a memory 54, an output unit 55, a display unit 56, and the like. The processing unit 51 includes a detection model unit 511, an input data generation unit 512, an estimated image generation unit 513, a learning processing unit 514, a learning data generation unit 515, and the like. The detection device 50 can also be connected to a display device 60 capable of displaying images. Note that the detection device 50 can be incorporated in, for example, an information processing device such as a personal computer used by a user, a server that provides various services and data, or a microscope that observes a specimen.

第1画像データ取得部52は、第1取得部及び取得部としての機能を有し、第1方法によって得られた、細胞(学習処理部514の学習用細胞、及び検出用の細胞の両方を含む)を含む第1画像に係る第1画像データを取得する。第1方法は、画像に対する個別の加工を施さないと細胞の関心領域(例えば、核など)を別個に明確に認識することが難しいような方法である。第1方法によって得られた第1画像とは、例えば、顕微鏡により得られる位相差画像及び明視野画像の少なくとも一方を含む。 The first image data acquisition unit 52 has functions as a first acquisition unit and an acquisition unit, and acquires cells obtained by the first method (both the learning cells of the learning processing unit 514 and the detection cells). obtain first image data relating to a first image including The first method is a method in which it is difficult to clearly and separately recognize regions of interest (for example, nuclei) of cells unless individual processing is applied to the image. The first image obtained by the first method includes, for example, at least one of a phase-contrast image and a bright-field image obtained with a microscope.

位相差画像は、位相差顕微鏡によって得られる画像であり、光の回折及び干渉という二つの性質を利用し、明暗のコントラストにより無色透明な細胞を可視した画像である。細胞に光が入射すると光の位相変化が生じ(回折光)、一方、細胞の影響を受けていない光は位相変化が生じない(直接光)ので、両方の光の位相差によって、細胞の形状情報を明暗のコントラストとして得ることができる。 A phase-contrast image is an image obtained by a phase-contrast microscope, and is an image in which colorless and transparent cells are visualized by light-dark contrast by utilizing two properties of light diffraction and interference. When light enters a cell, it undergoes a phase change (diffracted light), while light that has not been affected by the cell does not (direct light). Information can be obtained as contrast between light and dark.

明視野画像は、透過電子顕微鏡によって得られる画像であり、多くの細胞を含む試料に対して入射した電子線のうち透過した電子線(透過波)のみによって結像した画像である。位相差画像及び明視野画像では、細胞に染色を行う必要がないので、細胞の分化など生きたままの姿を検出することができる。なお、本明細書では、第1方法によって得られた第1画像を位相差画像として説明する。 A bright-field image is an image obtained by a transmission electron microscope, and is an image formed only by electron beams (transmission waves) that have passed through the electron beams incident on a sample containing many cells. Phase-contrast images and bright-field images do not require cells to be stained, so they can detect living cells such as cell differentiation. In this specification, the first image obtained by the first method will be described as a phase contrast image.

第2画像データ取得部53は、第2取得部としての機能を有し、第1方法と異なる第2方法によって得られた、学習用細胞を含む第2画像に係る第2画像データを取得する。第2方法は、第1方法とは異なり、細胞の関心領域(例えば、核など)を別個に明確に認識することができるような方法である。別言すれば、細胞の関心領域は、第1方法によれば、画像に対する個別の加工を施さないと一つ一つを個別に識別することが難しく、一方、第2方法によれば、一つ一つを個別に識別することができるものということができる。なお、本明細書では、第2方法によって得られた第2画像を染色画像として説明する。 The second image data acquisition unit 53 has a function as a second acquisition unit, and acquires second image data related to a second image including learning cells, which is obtained by a second method different from the first method. . The second method is different from the first method in that it is possible to separately and clearly recognize regions of interest (eg, nuclei) of cells. In other words, according to the first method, it is difficult to individually identify each region of interest of the cell unless the image is individually processed. It can be said that each one can be identified individually. In this specification, the second image obtained by the second method will be described as a stained image.

核染色画像は、蛍光顕微鏡によって得られる画像である。細胞に対して予め核染色(蛍光染色ともいう)を行い、核染色した細胞に励起光を照射し、核染色された細胞から発生する蛍光のうち、所要の波長の蛍光だけを透過するフィルタを用い、当該蛍光のみを取り出すことによって核染色画像を得ることができる。 A nuclear stain image is an image obtained by a fluorescence microscope. Cells are pre-stained with nuclear staining (also known as fluorescent staining), the nuclear-stained cells are irradiated with excitation light, and among the fluorescence emitted from the nuclear-stained cells, a filter that transmits only the fluorescence of the required wavelength is applied. A nuclear staining image can be obtained by extracting only the fluorescence.

メモリ54は、画像メモリであり、第1画像データ取得部52で取得した位相差画像の画像データ(第1画像データ)及び第2画像データ取得部53で取得した核染色画像の画像データ(第2画像データ)を記憶する。 The memory 54 is an image memory, and stores the image data (first image data) of the phase contrast image acquired by the first image data acquisition unit 52 and the image data (first image data) of the nuclear staining image acquired by the second image data acquisition unit 53 . 2 image data) are stored.

図2は位相差画像及び核染色画像の一例を示す説明図である。図2Aは位相差画像であり、図2Bは核染色画像である。図2に示す位相差画像及び核染色画像は、同一の観察領域を同時刻に撮影したものである。位相差画像及び核染色画像の解像度は、800×600とすることができるが、これに限定されない。位相差画像では、細胞の存在、あるいは細胞の形状の概略を認識することができるが、1個の細胞であるのか、複数の細胞が纏まっているのかが正確に観察することができず、観察領域内の全ての細胞について、個々の細胞を識別可能に観察することが困難である。核染色画像では、細胞核の部分が背景に比べて高い輝度として表れ、細胞核の位置及び数を、位相差画像に比べて正確に観察することができる。なお、個々の細胞核が発する輝度は、均一ではなく細胞核によってばらつきがある。 FIG. 2 is an explanatory diagram showing an example of a phase contrast image and a stained nuclear image. FIG. 2A is a phase contrast image, and FIG. 2B is a nuclear staining image. The phase-contrast image and nuclear staining image shown in FIG. 2 were obtained by imaging the same observation region at the same time. The resolution of the phase contrast image and the nuclear staining image can be 800×600, but is not limited to this. In a phase-contrast image, the presence of cells or the outline of the shape of cells can be recognized. It is difficult to identifiably observe individual cells for all cells in the area. In the nuclear-stained image, the cell nuclei appear as brighter than the background, and the positions and numbers of the cell nuclei can be observed more accurately than in the phase-contrast image. Note that the brightness emitted by each cell nucleus is not uniform and varies depending on the cell nucleus.

処理部51は、ハードウエア又はソフトウエア、あるいは両方の組み合わせにより構成することができる。 The processing unit 51 can be configured by hardware or software, or a combination of both.

検出モデル部511は、検出器としての機能を有し、例えば、複数のプロセッサ(CPU:Central Processing Unit)、複数のグラフィック処理ユニット(GPU:Graphics Processing Unit)、あるいはCPU及びGPUの組み合わせによって構成することができる。所要のプログラミング言語によって細胞を検出するための検出モデルが作成され、学習用データを用いて、作成した検出モデルによる検出精度が高くなるように検出モデルのパラメータ等の構成をチューニングすることにより、検出モデル部511の学習を行うことができる。 The detection model unit 511 has a function as a detector, and is configured by, for example, a plurality of processors (CPU: Central Processing Unit), a plurality of graphics processing units (GPU: Graphics Processing Unit), or a combination of CPU and GPU. be able to. A detection model for detecting cells is created using a required programming language, and the training data is used to tune the configuration such as the parameters of the detection model so that the detection accuracy of the created detection model is high. Learning of the model unit 511 can be performed.

図3は本実施の形態の検出モデル部511の構成の第1例を模式的に示す説明図である。図3は、検出モデル部511をニューラルネットワークモデルで構成したものであるが、検出モデル部511の構成は、図3の例のような多層のニューラルネットワーク(深層学習)に限定されるものではなく、他の機械学習(例えば、SVM:サポートベクターマシン、Random Forest:ランダムフォレスト)のアルゴリズムを用いることもできる。 FIG. 3 is an explanatory diagram schematically showing a first example of the configuration of the detection model unit 511 of this embodiment. FIG. 3 shows the detection model unit 511 configured with a neural network model, but the configuration of the detection model unit 511 is not limited to a multi-layered neural network (deep learning) as in the example of FIG. , other machine learning algorithms (eg, SVM: Support Vector Machine, Random Forest: Random Forest) can also be used.

図3に示すように、検出モデル部511は、入力層、出力層及び複数の中間層から構成されている。なお、図3では、便宜上、2つ中間層を図示しているが、中間層の層数は2つに限定されず、3つ以上であってもよい。入力層のノード数はN(x1、x2、…、xN)であり、出力層のノード数は1(y1)である。 As shown in FIG. 3, the detection model unit 511 is composed of an input layer, an output layer and a plurality of intermediate layers. Although two intermediate layers are shown in FIG. 3 for convenience, the number of intermediate layers is not limited to two, and may be three or more. The number of nodes in the input layer is N (x1, x2, . . . , xN), and the number of nodes in the output layer is 1 (y1).

入力層、出力層及び中間層には、1つ又は複数のノード(ニューロン)が存在し、各層のノードは、前後の層に存在するノードと一方向に所望の重みで結合されている。入力層のノードの数Nと同数の成分を有するベクトルが、学習済の検出モデル部511の入力データとして与えられる。 One or more nodes (neurons) exist in the input layer, the output layer, and the intermediate layer, and the nodes in each layer are unidirectionally connected with the nodes in the preceding and succeeding layers with desired weights. A vector having the same number of components as the number N of nodes in the input layer is given as input data to the learned detection model unit 511 .

入力層の各ノードに与えられたデータは、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層の出力が算出され、算出された値が次の中間層に与えられ、以下同様にして出力層の出力が求められるまで次々と後の層(下層)に伝達される。なお、ノードを結合する重みのすべては、学習処理部514の学習アルゴリズムによって計算される。 When the data given to each node of the input layer is given as input to the first hidden layer, the output of the hidden layer is calculated using the weight and activation function, and the calculated value is given to the next hidden layer. and is transmitted to subsequent layers (lower layers) in the same manner until the output of the output layer is obtained. Note that all weights for connecting nodes are calculated by the learning algorithm of the learning processing unit 514 .

出力層は、入力データ(x1、x2、…xN)に基づいて、一の画素の輝度値を出力する。画素の輝度範囲を0~255とすると、出力値は、0~255の任意の値(整数に限定されない)を取り得る。なお、輝度値0は黒(暗)であり、輝度値255は白(明)である。 The output layer outputs the luminance value of one pixel based on the input data (x1, x2, . . . xN). Assuming that the luminance range of pixels is 0-255, the output value can take any value from 0-255 (not limited to integers). A luminance value of 0 is black (dark), and a luminance value of 255 is white (bright).

次に、検出モデル部511の学習手順について説明する。 Next, a learning procedure of the detection model unit 511 will be described.

学習データ生成部515は、撮像して得られた、学習用細胞を含む位相差画像の画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む核染色画像の画像データに基づいて学習データを生成する。 The learning data generation unit 515 obtains the image data of the phase contrast image containing the learning cell obtained by imaging, and the image data of the nuclear staining image containing the region of interest of the learning cell obtained by imaging. Generate training data based on

図4は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第1例を示す説明図である。図4の学習データの生成方法は、図3に示す検出モデル部511の第1例に対応するものである。 FIG. 4 is an explanatory diagram showing a first example of a method of generating learning data for learning the detection model unit 511 of this embodiment. The learning data generation method of FIG. 4 corresponds to the first example of the detection model unit 511 shown in FIG.

図4Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。 As shown in FIG. 4A , the learning data generator 515 acquires from the memory 54 image data of a stained nuclear image (for example, the resolution is 800×600) including the region of interest of the learning cell captured in the observation region.

図4Bに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図4Bの例では、便宜上、4つの画素ブロックG1、G2、G3、G4を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。また、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG1、G3は細胞核(発色箇所)を含み、画素ブロックG2、G4は細胞核を含んでいない。また、画素ブロックG1、G2、G3、G4の特徴量(図4Bの例では、画素値の一つである輝度値)を、それぞれ159、82、255、90とする。ここで、画素ブロックの画素の特徴量は、例えば、画素ブロックの中心に存在する画素の画素値の一つである輝度値とすることができるが、これに限定されない。他にも、画素ブロック内の画素値の平均値、画素値の中央値等、画素ブロックを代表する代表値を含めることができる。すなわち、代表値も画素値の一つである。 As shown in FIG. 4B, the learning data generation unit 515 identifies a plurality of pixel blocks (for example, g×g, g=28, etc.) composed of a predetermined number of pixels from the stained nuclear image. In the example of FIG. 4B, four pixel blocks G1, G2, G3, G4 are shown for convenience. In practice, a required number of pixel blocks can be identified from a single stained nuclear image. The required number may be, for example, a number equal to the total number of pixels in one stained nuclear image, or may be a number smaller than the total number of pixels in order to reduce the image processing load. The pixel blocks can be specified by randomly selecting positions on the stained nuclear image, and not only pixel blocks containing cell nuclei but also pixel blocks not containing cell nuclei can be specified. By also specifying pixel blocks that do not contain cell nuclei, it is possible to prevent erroneous detection, such as the presence of cell nuclei in spite of the fact that cell nuclei do not exist, and improve the cell detection accuracy. Moreover, it is not necessary to distinguish whether the cells are positive cells or dead cells. Pixel blocks G1 and G3 contain cell nuclei (color development sites), and pixel blocks G2 and G4 do not contain cell nuclei. Also, let the feature values of the pixel blocks G1, G2, G3, and G4 (in the example of FIG. 4B, the luminance value, which is one of the pixel values) be 159, 82, 255, and 90, respectively. Here, the feature amount of the pixels in the pixel block can be, for example, the luminance value, which is one of the pixel values of the pixel existing in the center of the pixel block, but is not limited to this. In addition, a representative value representing the pixel block, such as an average value of pixel values in the pixel block, a median value of the pixel values, etc., can be included. That is, the representative value is also one of the pixel values.

学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞が含まれる同一の観察領域を同一時刻に撮像したものである。 The learning data generator 515 acquires from the memory 54 image data of a phase-contrast image (with a resolution of, for example, 800×600) including learning cells captured in the observation region. Note that the phase-contrast image and the stained nuclear image are images of the same observation region containing the learning cells at the same time.

学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの画素の特徴量を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の所定画素(図4の例では、中心画素)の画素値の一つである輝度値を関連付けて学習データを生成する。画素値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。 The learning data generation unit 515 generates learning data by associating the pixel blocks of the phase contrast image corresponding to the pixel blocks specified on the stained nuclear image with the pixel feature amounts of the pixel blocks specified on the stained nuclear image. More specifically, the learning data generation unit 515 assigns one pixel value of a predetermined pixel (central pixel in the example of FIG. 4) in the pixel block specified on the stained nuclear image to the pixel block of the phase contrast image. is associated with the luminance value to generate learning data. Since pixel values are used as learning data (teaching data), for example, compared to the case where feature vectors are calculated and used as teaching data, there is no need to design appropriate feature vectors. In contrast, the pixel values can be used as they are, which simplifies the processing and enables highly accurate cell detection.

図4Cに示すように、学習データ生成部515は、核染色画像上の画素ブロックG1、G2、G3、G4に対応する位相差画像の領域X1、X2、X3、X4(切り出し画像)を切り出す。そして、領域X1~X4に、画素ブロックG1~G4の輝度値を教師ラベルとして関連付けている。領域X1~X4は、それぞれg×gの画素で構成されるので、領域X1については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x11、x12、…、x1N)が生成され、教師ラベルは159となる。 As shown in FIG. 4C, the learning data generator 515 cuts out regions X1, X2, X3, and X4 (cropped images) of the phase contrast image corresponding to the pixel blocks G1, G2, G3, and G4 on the stained nuclear image. The regions X1 to X4 are associated with the luminance values of the pixel blocks G1 to G4 as teacher labels. Since each of the regions X1 to X4 is composed of g×g pixels, for the region X1, a vector (x11, x12, , x1N) is generated, and the teacher label is 159.

領域X2については、サンプルX2の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x21、x22、…、x2N)が生成され、教師ラベルは82となる。領域X3については、サンプルX3の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x31、x32、…、x3N)が生成され、教師ラベルは255となる。また、領域X4については、サンプルX4の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x41、x42、…、x4N)が生成され、教師ラベルは90となる。 For the region X2, a vector (x21, x22, . For the region X3, a vector (x31, x32, . For the region X4, a vector (x41, x42, .

図5は本実施の形態の学習処理部514による学習の第1例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、サンプルX1の学習用入力データ(x11、x12、…、x1N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである159に近づくように学習を行う。 FIG. 5 is an explanatory diagram showing a first example of learning by the learning processing unit 514 of this embodiment. The learning processing unit 514 causes the detection model unit 511 to learn based on the learning data generated by the learning data generation unit 515 . Specifically, the learning processing unit 514 inputs learning input data (x11, x12, . Learning is performed so as to approach 159 which is teacher data.

また、学習処理部514は、サンプルX2の学習用入力データ(x21、x22、…、x2N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである82に近づくように学習を行う。また、学習処理部514は、サンプルX3の学習用入力データ(x31、x32、…、x3N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである255に近づくように学習を行う。また、学習処理部514は、サンプルX4の学習用入力データ(x41、x42、…、x4N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである90に近づくように学習を行う。 Further, the learning processing unit 514 inputs learning input data (x21, x22, . Learning is performed so as to approach a certain 82. Further, the learning processing unit 514 inputs learning input data (x31, x32, . Learning is performed so as to approach a certain 255. Also, the learning processing unit 514 inputs learning input data (x41, x42, . Learning is performed so as to approach a certain 90.

図6は本実施の形態の処理部51の学習処理の手順の第1例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S11)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S12)。 FIG. 6 is a flow chart showing a first example of the procedure of the learning process of the processing section 51 of this embodiment. In the following description, for the sake of convenience, the processing unit 51 is assumed to be the subject of processing. The processing unit 51 acquires image data of a phase-contrast image including a learning cell in which an observation region is imaged (S11), and acquires nuclei including a region of interest of the learning cell captured in the same observation region at the same time. Image data of the stained image is obtained (S12).

処理部51は、核染色画像からランダムに画素ブロックを複数特定し(S13)、特定した画素ブロックの中心画素の輝度値を記録する(S14)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S15)。 The processing unit 51 randomly identifies a plurality of pixel blocks from the stained nuclear image (S13), and records the luminance value of the center pixel of the identified pixel blocks (S14). The processing unit 51 extracts a clipped image at a position corresponding to the pixel block from the phase difference image (S15).

処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の輝度値を教師ラベルとして学習データを生成する(S16)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S17)。 The processing unit 51 uses the luminance value of each pixel of the extracted clipped image as input data for learning, and generates learning data using the luminance value of the center pixel of the pixel block corresponding to the clipped image as a teacher label (S16). The processing unit 51 causes the detection model unit 511 to learn based on the generated learning data (S17).

処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S18)、許容範囲内でない場合(S18でNO)、ステップS11以降の処理を続ける。出力値の精度が許容範囲内である場合(S18でYES)、処理部51は、処理を終了する。 The processing unit 51 determines whether the accuracy of the output value of the detection model unit 511 is within the allowable range (S18), and if it is not within the allowable range (NO in S18), continues the processing from step S11. If the accuracy of the output value is within the allowable range (YES in S18), the processing unit 51 terminates the process.

学習データを生成する場合、位相差画像及び核染色画像は、1枚に限定されず、複数枚の位相差画像及び核染色画像を用いることができる。例えば、細胞の活動に応じた状態を学習させるため、所定の時間経過の都度、位相差画像及び核染色画像を撮像することができる。例えば、15分経過の都度、位相差画像及び核染色画像を1枚撮像し、最終的に10枚程度の位相差画像及び核染色画像を取得すればよい。 When generating learning data, the number of phase-contrast images and nuclear-stained images is not limited to one, and a plurality of phase-contrast images and nuclear-stained images can be used. For example, a phase-contrast image and a nuclear-stained image can be captured each time a predetermined time has elapsed in order to learn the state according to cell activity. For example, one phase-contrast image and nuclear-stained image may be taken every 15 minutes, and finally about 10 phase-contrast images and nuclear-stained images may be acquired.

次に、学習済の検出モデル部511を用いて、細胞を検出する手順について説明する。 Next, a procedure for detecting cells using the learned detection model unit 511 will be described.

第1画像データ取得部52は、検出用の細胞(学習用ではない)を含む位相差画像を取得し、取得した位相差画像をメモリ54に記憶する。 The first image data acquisition unit 52 acquires a phase contrast image including cells for detection (not for learning), and stores the acquired phase contrast image in the memory 54 .

入力データ生成部512は、メモリ54から位相差画像を取得し、取得した位相差画像から所定の画素数で構成される画素ブロックを複数特定する。入力データ生成部512は、特定した画素ブロックの各画素の輝度値に基づいて入力データを生成する。 The input data generator 512 acquires the phase contrast image from the memory 54 and identifies a plurality of pixel blocks each having a predetermined number of pixels from the acquired phase contrast image. The input data generator 512 generates input data based on the luminance value of each pixel in the specified pixel block.

図7は本実施の形態の入力データ生成部512による入力データの生成方法の第1例を示す説明図である。位相差画像の解像度をm×n(例えば、m=800、n=600など)とする。入力データ生成部512は、例えば、位相差画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査して、位相差画像の全画素の画素数分の画素ブロック(g×g、g=28)を特定することにより、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。各切り出し画像は、N個(N=g×g)の画素で構成される。これにより、入力データは、それぞれがN個の成分を有するM個のベクトルで構成される。なお、切り出し画像の数は、位相差画像の全画素数に限定されるものではなく、位相差画像のうちの特定の領域を走査したときの画素数でもよく、切り出す画像を走査方向に沿って間引きしてもよい。 FIG. 7 is an explanatory diagram showing a first example of a method of generating input data by the input data generation unit 512 of this embodiment. Assume that the resolution of the phase difference image is m×n (eg, m=800, n=600, etc.). For example, the input data generation unit 512 scans the phase difference image in the horizontal direction from the upper left, and when the horizontal scanning is completed, the scanning position is shifted in the vertical direction and the scanning is repeated from left to right again. By scanning to the lower right and specifying pixel blocks (g×g, g=28) corresponding to the number of pixels of all pixels of the phase difference image, M (M=m×n) cutout images A1 and A2 are obtained. , . . . , AM is cut out. Each clipped image is composed of N (N=g×g) pixels. Thus, the input data consists of M vectors each having N components. Note that the number of cutout images is not limited to the total number of pixels in the phase contrast image, and may be the number of pixels when a specific region of the phase contrast image is scanned. You may thin out.

図8は本実施の形態の検出モデル部511による検出処理の第1例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力値b1が出力される。また、切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力値b2が出力される。以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力値bMが出力される。 FIG. 8 is an explanatory diagram showing a first example of detection processing by the detection model unit 511 of this embodiment. When the input data (a11, a12, a13, . . . , a1N) for the clipped image A1 is input to each input node of the input layer, the output value b1 is output to the output node of the output layer. Also, when the input data (a21, a22, a23, . . . a2N) for the clipped image A2 is input, the output value b2 is output to the output node of the output layer. Similarly, when the input data (aM1, aM2, aM3, . . . aMN) for the clipped image AM are input, the output value bM is output to the output node of the output layer.

推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。 The estimated image generating unit 513 generates an estimated image of the stained nuclear image based on the output values b1, b2, . As shown in FIG. 7, when the resolution of the phase difference image is m×n, the estimated image generation unit 513 associates M (=m×n) output values with m×n pixels. , m×n putative nuclear staining images.

出力部55は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMを外部の装置などに出力することができる。 The output unit 55 can output the output values b1, b2, . . . , bM output from the output nodes of the detection model unit 511 to an external device.

図9は本実施の形態の処理部51による検出処理の手順の第1例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S31)、取得した位相差画像を走査して切り出し画像を抽出する(S32)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S33)。 FIG. 9 is a flow chart showing a first example of the procedure of detection processing by the processing unit 51 of this embodiment. The processing unit 51 acquires image data of a phase contrast image including cells to be detected (S31), scans the acquired phase contrast image, and extracts a clipped image (S32). The processing unit 51 generates input data based on the luminance value of each pixel of the extracted clipped image (S33).

処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S34)、切り出し画像毎に検出モデル部511が出力した出力値を推定核染色画像の各画素の輝度値とし(S35)、推定核染色画像を生成する(S36)。 The processing unit 51 inputs the generated input data to the input node of the detection model unit 511 (S34), and uses the output value output by the detection model unit 511 for each clipped image as the luminance value of each pixel of the estimated nuclear staining image ( S35), and generate an estimated nuclear staining image (S36).

処理部51は、位相差画像と、推定核染色画像とを対比して表示し(S37)、処理を終了する。 The processing unit 51 displays the phase contrast image and the estimated nuclear staining image in comparison (S37), and ends the process.

図10は本実施の形態の処理部51により生成された推定核染色画像の一例を示す説明図である。図10Aは、検出対象の細胞を含む位相差画像であり、図10Bは、処理部51により生成された核染色画像の推定画像(推定核染色画像)であり、図10Cは、位相差画像に対応する核染色画像であり、位相差画像と同一の観察領域を同時刻に撮像したものである。図10に示すように、本実施の形態によれば、細胞に核染色を行って核染色画像を取得することなく、位相差画像を取得するだけで、核染色画像の推定画像を精度良く得ることができる。 FIG. 10 is an explanatory diagram showing an example of an estimated stained nuclear image generated by the processing unit 51 of this embodiment. 10A is a phase contrast image including cells to be detected, FIG. 10B is an estimated image (estimated nuclear staining image) of the nuclear staining image generated by the processing unit 51, and FIG. 10C is a phase contrast image. It is a corresponding nuclear stained image, which is obtained by imaging the same observation region as the phase-contrast image at the same time. As shown in FIG. 10, according to the present embodiment, an estimated nuclear-stained image can be accurately obtained only by acquiring a phase-contrast image without performing nuclear staining on cells to acquire a nuclear-stained image. be able to.

図10に示す推定核染色画像に係る画像データは、細胞(細胞核)が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、当該推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出モデル部511に入力して検出モデル部511が出力する出力値に基づいて生成され、検出モデル部511は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。 The image data related to the estimated stained nuclear image shown in FIG. 10 is image data in which a cell (cell nucleus) is detected, and is estimated image data related to the estimated image of the stained image including the region of interest of the cell obtained by imaging. and the estimated image is input data based on first image data related to at least one of a phase-contrast image or a bright-field image containing cells obtained by imaging a detection model that detects cells It is generated based on the output value input to the unit 511 and output by the detection model unit 511, and the detection model unit 511 is obtained by imaging. Learning is performed using the learning data generated based on the first image data and the second image data related to the stained image including the region of interest of the learning cell obtained by imaging.

図11は位相差画像と推定核染色画像とを合成した合成画像の一例を示す説明図である。表示部56は、推定画像生成部513が生成した推定核染色画像と、取得された位相差画像とを対比させて表示装置60の表示画面に表示させることができる。位相差画像(図11A)と、推定核染色画像(図11B)とを対比させるとは、図示しないが位相差画像と推定核染色画像とを並列させて表示するだけでなく、図11Cに示すように、位相差画像の左上の位置及び右下の位置それぞれが、推定核染色画像の左上の位置及び右下の位置に一致するように、位相差画像と推定核染色画像とを重ねることや、推定核染色画像の情報を基に位相差画像を所定の操作で編集することを含む。これにより、位相差画像上で認識される細胞の位置が、推定核染色画像上で認識される細胞核の位置によって確定するので、核染色画像を取得することなく、一つ一つの細胞の位置、及び細胞の数を正確に認識しつつ、位相差画像を観察することが可能となる。特に、位相差画像だけでは、一つの細胞のように認識される場合に、実際には、例えば、二つの細胞が密着した状態であることを把握して観察できる。 FIG. 11 is an explanatory diagram showing an example of a synthesized image obtained by synthesizing a phase contrast image and an estimated nuclear staining image. The display unit 56 can display the estimated nuclear staining image generated by the estimated image generating unit 513 and the acquired phase contrast image on the display screen of the display device 60 in comparison. Comparing the phase contrast image (FIG. 11A) and the estimated nuclear staining image (FIG. 11B) means not only displaying the phase contrast image and the estimated nuclear staining image side by side, but also displaying the phase contrast image and the estimated nuclear staining image (FIG. 11C). superimposing the phase contrast image and the estimated nuclear staining image such that the upper left position and the lower right position of the phase contrast image match the upper left position and the lower right position of the estimated nuclear staining image, respectively; and editing the phase-contrast image by a predetermined operation based on the information of the estimated nuclear staining image. As a result, the position of the cell recognized on the phase contrast image is determined by the position of the cell nucleus recognized on the estimated nuclear staining image. And it becomes possible to observe the phase-contrast image while accurately recognizing the number of cells. In particular, when only a phase-contrast image is used to recognize a single cell, it is possible to grasp and observe that, for example, two cells are in close contact with each other.

本実施の形態によれば、核染色画像を実際に取得することなく、細胞核が鮮明に映る推定核染色画像を得ることができるので、画像解析に適した画像を得ることができる。また、核染色撮影のための作業やコストが不要となり、細胞への侵襲がなく、細胞の本来の挙動を観察することが可能となる。 According to the present embodiment, it is possible to obtain an estimated nuclear staining image in which cell nuclei are clearly captured without actually obtaining a nuclear staining image, so that an image suitable for image analysis can be obtained. In addition, the operation and cost for nuclear stain imaging are not required, and the original behavior of cells can be observed without invading the cells.

本実施の形態によれば、核染色画像に基づいて教師データ(学習用データ)を自動的に生成するので、例えば、検出したい領域(細胞領域)のマスク画像(教師データ)を手動で作成する必要がなく、教師データの作成者の主観が入り込む余地がなく、ばらつき、あるいは主観によるブレのない学習データを生成することができる。 According to the present embodiment, since teacher data (learning data) is automatically generated based on nuclear staining images, for example, a mask image (teacher data) of a region (cell region) to be detected is manually created. There is no room for the subjectivity of the creator of the teacher data, and it is possible to generate learning data free from variations or subjective blurring.

本実施の形態によれば、一度学習が完了すれば、細胞の核染色を行わずに核染色画像と同等の画像が得られるため、核染色による様々なリスク(例えば、細胞へのダメージ等)がなくなる。 According to the present embodiment, once learning is completed, an image equivalent to a nuclear staining image can be obtained without performing nuclear staining of cells. disappears.

本実施の形態によれば、核染色画像に基づく学習データによって学習した検出モデル部に、位相差画像の画像データを入力して細胞を検出するので、位相差画像のみを用いる場合に必要となる多様で適切なフィルタモデルの設計が不要となる。 According to the present embodiment, cells are detected by inputting the image data of the phase contrast image into the detection model unit trained by the learning data based on the nuclear staining image. It eliminates the need to design diverse and appropriate filter models.

本実施の形態によれば、光学系モデルに基づいて各画素が細胞か否かを推定する必要がないので、光学系モデルの多くの未知のパラメータを試行錯誤で決定する必要がない。 According to this embodiment, it is not necessary to estimate whether each pixel is a cell or not based on the optical system model, so there is no need to determine many unknown parameters of the optical system model by trial and error.

本実施の形態によれば、核染色画像から複数の画素ブロックを特定する場合、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックも特定して、学習データを生成するので、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。 According to the present embodiment, when identifying a plurality of pixel blocks from a stained nuclear image, not only pixel blocks containing cell nuclei but also pixel blocks not containing cell nuclei are identified to generate learning data. It is possible to prevent erroneous detection such that a cell nucleus is erroneously present even though it does not exist, thereby increasing the accuracy of cell detection.

図12は推定核染色画像と合成画像の他の例を示す説明図である。なお、図12では、便宜上、一つの細胞(細胞核)だけを図示している。第1画像データ取得部52は、時系列に撮像した、検出対象の細胞を含む複数の位相差画像を取得する。例えば、10分、20分経過の都度、観察領域を撮像した1枚の位相差画像を取得することができる。入力データ生成部512は、複数の位相差画像それぞれから所定の画素数(例えば、g×g)で構成される切り出し画像を複数抽出(特定)する。入力データ生成部512は、複数の位相差画像毎に、複数の切り出し画像の各画素の輝度値に基づいて、複数の組の入力データを生成する。入力データの複数の組は、複数の位相差画像に対応する。 FIG. 12 is an explanatory diagram showing another example of the estimated stained nuclear image and the combined image. Note that FIG. 12 shows only one cell (cell nucleus) for convenience. The first image data acquisition unit 52 acquires a plurality of phase-contrast images including detection target cells captured in time series. For example, one phase-contrast image of the observed region can be obtained every 10 minutes or 20 minutes. The input data generation unit 512 extracts (specifies) a plurality of clipped images each having a predetermined number of pixels (eg, g×g) from each of the phase contrast images. The input data generation unit 512 generates a plurality of sets of input data for each of the plurality of phase contrast images, based on the luminance value of each pixel of the plurality of clipped images. The multiple sets of input data correspond to multiple phase contrast images.

推定画像生成部513は、1枚の位相差画像に基づいて1枚の推定核染色画像を生成するので、複数の位相差画像に対して、位相差画像の枚数と同数の時系列の推定核染色画像を生成することができる。 Since the estimated image generation unit 513 generates one estimated nuclear stained image based on one phase contrast image, the same number of time-series estimated nuclear staining images as the number of phase contrast images are generated for a plurality of phase contrast images. A stained image can be generated.

表示部56は、複数の組の入力データが入力された検出モデル部511が出力する出力値に基づいて、細胞(細胞核)の推定移動軌跡を表示することができる。すなわち、図12Aの推定核染色画像では、細胞核の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。また、図12Bの合成画像では、細胞及び該細胞内の細胞核の両方の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。これにより、細胞の動的な挙動を正確に把握することができる。 The display unit 56 can display an estimated movement trajectory of a cell (cell nucleus) based on output values output from the detection model unit 511 to which multiple sets of input data are input. That is, in the estimated stained nuclear image of FIG. 12A, the estimated movement trajectory from the past estimated position of the cell nucleus to the current (most recent) estimated position is represented. Also, in the composite image of FIG. 12B, the estimated movement trajectory from the past estimated positions of both the cell and the cell nucleus in the cell to the current (most recent) estimated position is represented. This makes it possible to accurately grasp the dynamic behavior of cells.

上述の例では、検出装置50は、一つの検出モデル部511を備える構成であったが、これに限定されるものではなく、複数の検出モデル部を備える構成でもよい。この場合、例えば、検出対象の細胞の関心領域の種別などに応じて、種別毎に検出モデルが異なる複数の検出モデル部を備えるようにすることができる。これにより、細胞の関心領域の種別に応じて最適な検出モデル部を用いることができ、細胞の検出精度をさらに高めることができる。 In the above example, the detection device 50 is configured to include one detection model unit 511, but is not limited to this, and may be configured to include a plurality of detection model units. In this case, for example, according to the type of the region of interest of the cell to be detected, a plurality of detection model units having different detection models for each type can be provided. As a result, it is possible to use the optimum detection model part according to the type of the region of interest of the cell, and it is possible to further improve the detection accuracy of the cell.

また、検出モデル部511は、再学習可能に構成することができる。学習処理部514は、検出モデル部511が有する複数のパラメータ(入力層と中間層との間の重み、中間層と出力層との間の重み、中間層間の重みなど)を更新して、検出モデル部511を再学習可能にすることができる。これにより、細胞の検出精度を維持することができる。 Also, the detection model unit 511 can be configured to be relearnable. The learning processing unit 514 updates a plurality of parameters (weight between the input layer and the intermediate layer, weight between the intermediate layer and the output layer, weight between the intermediate layers, etc.) of the detection model unit 511, and detects The model portion 511 can be relearnable. Thereby, cell detection accuracy can be maintained.

次に、検出モデル部511の他の構成について説明する。 Next, another configuration of the detection model unit 511 will be described.

図13は本実施の形態の検出モデル部511の構成の第2例を模式的に示す説明図である。図3に例示した第1例との相違点は、出力層のノード数が2(y1、y2)となっている。入力層の入力ノードの数、中間層の構成は第1例と同様である。出力層は、入力データ(x1、x2、…xN)に基づいて、ノード0は、輝度値が0(黒)である確率を出力し、ノード1は、輝度値が255(白)である確率を出力する。出力値は、0~1の任意の値(整数に限定されない)を取り得る。 FIG. 13 is an explanatory diagram schematically showing a second example of the configuration of detection model section 511 of the present embodiment. The difference from the first example illustrated in FIG. 3 is that the number of nodes in the output layer is 2 (y1, y2). The number of input nodes in the input layer and the structure of the intermediate layer are the same as in the first example. The output layer, based on the input data (x1, x2, . to output The output value can take any value between 0 and 1 (not limited to integers).

図14は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第2例を示す説明図である。図14の学習データの生成方法は、図13に示す検出モデル部511の第2例に対応するものである。 FIG. 14 is an explanatory diagram showing a second example of a method of generating learning data for learning the detection model unit 511 of this embodiment. The learning data generating method of FIG. 14 corresponds to the second example of the detection model unit 511 shown in FIG.

図14Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。 As shown in FIG. 14A , the learning data generation unit 515 acquires from the memory 54 image data of a nuclear staining image (for example, the resolution is 800×600) including the region of interest of the learning cell captured in the observation region.

図14Bに示すように、学習データ生成部515は、核染色画像に対して二値化処理を行って二値化画像を生成する。二値化することにより、例えば、発色位置を前景とすることができる。また、二値化することにより、細胞の関心領域と関心領域以外の領域との区別が明瞭になる。例えば、二値化することにより、細胞核に相当する箇所と、細胞核に相当しない箇所との区別が明瞭になり、検出モデル部511を学習させやすくすることができる。 As shown in FIG. 14B, the learning data generation unit 515 performs binarization processing on the stained nuclear image to generate a binarized image. By binarizing, for example, the coloring position can be made the foreground. In addition, binarization makes it possible to clearly distinguish between the region of interest of the cell and the region other than the region of interest. For example, binarization makes it possible to clearly distinguish between a portion corresponding to the cell nucleus and a portion not corresponding to the cell nucleus, thereby facilitating the learning of the detection model unit 511 .

図14Cに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図14Cの例では、便宜上、4つの画素ブロックG6、G7、G8、G9を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。なお、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG6、G8は細胞核(発色箇所)を含み、画素ブロックG7、G9は細胞核を含んでいない。また、画素ブロックG6、G7、G8、G9の特徴量を二値とし、それぞれ1、0、1、0とする。二値は画素の画素値である。二値は、例えば、画素ブロックの中心に存在する画素の二値とすることができるが、これに限定されない。 As shown in FIG. 14C, the learning data generation unit 515 identifies a plurality of pixel blocks (for example, g×g, g=28, etc.) composed of a predetermined number of pixels from the stained nuclear image. In the example of FIG. 14C, four pixel blocks G6, G7, G8 and G9 are shown for convenience. In practice, a required number of pixel blocks can be identified from a single stained nuclear image. The required number may be, for example, a number equal to the total number of pixels in one stained nuclear image, or may be a number smaller than the total number of pixels in order to reduce the image processing load. The pixel blocks can be specified by randomly selecting positions on the stained nuclear image, and not only pixel blocks containing cell nuclei but also pixel blocks not containing cell nuclei can be specified. By also specifying pixel blocks that do not contain cell nuclei, it is possible to prevent erroneous detection, such as the presence of cell nuclei in spite of the fact that cell nuclei do not exist, and improve the cell detection accuracy. In addition, it is not necessary to distinguish whether the cells are positive cells or dead cells. Pixel blocks G6 and G8 contain cell nuclei (colored areas), and pixel blocks G7 and G9 do not contain cell nuclei. Also, the feature amounts of the pixel blocks G6, G7, G8, and G9 are assumed to be binary, 1, 0, 1, and 0, respectively. Binary is the pixel value of the pixel. The binary value can be, for example, but is not limited to, the binary value of the pixel located in the center of the pixel block.

学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞の同一の観察領域を同一時刻に撮像したものである。 The learning data generator 515 acquires from the memory 54 image data of a phase-contrast image (with a resolution of, for example, 800×600) including learning cells captured in the observation region. Note that the phase-contrast image and the stained nuclear image are obtained by imaging the same observation region of the learning cell at the same time.

学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの二値化された所定画素の画素値である二値(0又は1)を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の中心画素の画素値である二値を関連付けて学習データを生成する。画素値である二値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。 The learning data generation unit 515 adds pixel values of binarized predetermined pixels of the pixel block specified on the stained nuclear image to the pixel block of the phase contrast image corresponding to the pixel block specified on the stained nuclear image. Learning data is generated by associating values (0 or 1). More specifically, the learning data generation unit 515 generates learning data by associating the pixel block of the phase contrast image with the binary pixel value of the central pixel in the pixel block specified on the stained nuclear image. Since binary pixel values are used as training data (teaching data), it is not necessary to design appropriate feature vectors compared to the case where feature vectors are calculated and used as teaching data. Since the pixel values can be used as they are compared to the case of calculation, the processing is simplified and cell detection can be performed with high accuracy.

図14Dに示すように、学習データ生成部515は、核染色画像上の画素ブロックG6、G7、G8、G9に対応する位相差画像の領域X6、X7、X8、X9(切り出し画像)を切り出す。そして、領域X6~X9に、画素ブロックG6~G9の二値を教師ラベルとして関連付けている。領域X6~X9は、それぞれg×gの画素で構成されるので、領域X6については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x61、x62、…、x6N)が生成され、教師ラベルは1となる。 As shown in FIG. 14D, the learning data generator 515 cuts out regions X6, X7, X8, and X9 (cropped images) of the phase contrast image corresponding to the pixel blocks G6, G7, G8, and G9 on the stained nuclear image. The regions X6 to X9 are associated with the binary values of the pixel blocks G6 to G9 as teacher labels. Since the regions X6 to X9 are each composed of g×g pixels, for the region X6, a vector (x61, x62, , x6N) are generated, and the teacher label is 1.

領域X7については、サンプルX7の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x71、x72、…、x7N)が生成され、教師ラベルは0となる。領域X8については、サンプルX8の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x81、x82、…、x8N)が生成され、教師ラベルは1となる。また、領域X9については、サンプルX9の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x91、x92、…、x9N)が生成され、教師ラベルは0となる。 For the region X7, a vector (x71, x72, . For the region X8, a vector (x81, x82, . For the region X9, a vector (x91, x92, .

図15は本実施の形態の学習処理部514による学習の第2例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、教師ラベルが1のサンプルX6の学習用入力データ(x61、x62、…、x6N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード1の出力値y2が1に近づくよう、かつ出力ノード0の出力値y1が0に近づくように学習を行う。 FIG. 15 is an explanatory diagram showing a second example of learning by the learning processing unit 514 of this embodiment. The learning processing unit 514 causes the detection model unit 511 to learn based on the learning data generated by the learning data generation unit 515 . Specifically, the learning processing unit 514 inputs learning input data (x61, x62, . Learning is performed so that the output value y2 of 1 approaches 1 and the output value y1 of the output node 0 approaches 0.

また、図示していないが、教師ラベルが0のサンプルX7の学習用入力データ(x71、x72、…、x7N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード0の出力値y1が1に近づくよう、かつ出力ノード1の出力値y2が0に近づくように学習を行う。サンプルX8、X9の学習用入力データについても同様である。 Also, although not shown, learning input data (x71, x72, . Learning is performed so that the value y1 approaches one and the output value y2 of the output node 1 approaches zero. The same applies to the learning input data of samples X8 and X9.

すなわち、教師ラベル1の入力データを入力した場合には、ノード0が0に、かつノード1が1に近づくように学習を行い、教師ラベル0の入力データを入力した場合には、ノード0が1に、かつノード1が0に近づくように学習を行う。 That is, when input data of teacher label 1 is input, learning is performed so that node 0 approaches 0 and node 1 approaches 1, and when input data of teacher label 0 is input, node 0 becomes Learning is performed so that it approaches 1 and node 1 approaches 0.

図16は本実施の形態の処理部51の学習処理の手順の第2例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S51)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S52)。 FIG. 16 is a flow chart showing a second example of the procedure of the learning process of the processing section 51 of this embodiment. In the following description, for the sake of convenience, the processing unit 51 is assumed to be the subject of processing. The processing unit 51 acquires image data of a phase-contrast image including a learning cell in which an observation region is imaged (S51), and acquires nuclei including a region of interest of the learning cell captured in the same observation region at the same time. Image data of the stained image is acquired (S52).

処理部51は、核染色画像を二値化し(S53)、二値化した核染色画像からランダムに画素ブロックを複数特定し(S54)、特定した画素ブロックの中心画素の二値を記録する(S55)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S56)。 The processing unit 51 binarizes the stained nuclear image (S53), randomly identifies a plurality of pixel blocks from the binarized stained nuclear image (S54), and records the binary values of the central pixels of the identified pixel blocks ( S55). The processing unit 51 extracts a clipped image at a position corresponding to the pixel block from the phase difference image (S56).

処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の二値を教師ラベルとして学習データを生成する(S57)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S58)。 The processing unit 51 uses the luminance value of each pixel of the extracted clipped image as learning input data, and generates learning data using the binary value of the center pixel of the pixel block corresponding to the clipped image as a teacher label (S57). The processing unit 51 causes the detection model unit 511 to learn based on the generated learning data (S58).

処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S59)、許容範囲内でない場合(S59でNO)、ステップS51以降の処理を続ける。出力値の精度が許容範囲内である場合(S59でYES)、処理部51は、処理を終了する。 The processing unit 51 determines whether the accuracy of the output value of the detection model unit 511 is within the allowable range (S59), and if it is not within the allowable range (NO in S59), continues the processing from step S51. If the accuracy of the output value is within the allowable range (YES in S59), the processing unit 51 terminates the process.

第2例における入力データの生成方法は、図7に例示した第1例と同様であり、位相差画像から、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。 The method of generating input data in the second example is the same as in the first example illustrated in FIG. 7, and M (M=m×n) clipped images A1, A2, . .

図17は本実施の形態の検出モデル部511による検出処理の第2例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力データB1が出力される。出力データB1は、出力ノード0の確率が0.4であり、出力ノード1の確率が0.1である。出力ノード0の確率が出力ノード1の確率以上である場合、出力値を0とする。また、出力ノード0の確率が出力ノード1の確率未満である場合、出力値を1とする。出力データB1については、出力ノード0の確率が出力ノード1の確率以上であるので、出力値b1は0となる。 FIG. 17 is an explanatory diagram showing a second example of detection processing by the detection model unit 511 of this embodiment. When the input data (a11, a12, a13, . . . , a1N) for the clipped image A1 is input to each input node of the input layer, the output data B1 is output to the output node of the output layer. Output data B1 has a probability of output node 0 of 0.4 and a probability of output node 1 of 0.1. If the probability of output node 0 is greater than or equal to the probability of output node 1, the output value is set to 0. If the probability of output node 0 is less than the probability of output node 1, the output value is set to 1. For the output data B1, the output value b1 is 0 because the probability of the output node 0 is greater than or equal to the probability of the output node 1.

切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力データB2が出力される。出力データB2は、出力ノード0の確率が0.3であり、出力ノード1の確率が0.8である。出力データB2については、出力ノード0の確率が出力ノード1の確率未満であるので、出力値b2は1となる。 When the input data (a21, a22, a23, . . . a2N) for the clipped image A2 is input, the output data B2 is output to the output node of the output layer. Output data B2 has a probability of output node 0 of 0.3 and a probability of output node 1 of 0.8. For the output data B2, the output value b2 is 1 because the probability of the output node 0 is less than the probability of the output node 1.

以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力データBMが出力される。出力データBMは、出力ノード0の確率が0.5であり、出力ノード1の確率が0.2である。出力データBMについては、出力ノード0の確率が出力ノード1の確率以上であるので、出力値bMは0となる。 Similarly, when the input data (aM1, aM2, aM3, . . . aMN) for the clipped image AM are input, the output data BM are output to the output nodes of the output layer. The output data BM has a probability of output node 0 of 0.5 and a probability of output node 1 of 0.2. As for the output data BM, the output value bM is 0 because the probability of the output node 0 is equal to or greater than the probability of the output node 1 .

推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。 The estimated image generating unit 513 generates an estimated image of the stained nuclear image based on the output values b1, b2, . As shown in FIG. 7, when the resolution of the phase difference image is m×n, the estimated image generation unit 513 associates M (=m×n) output values with m×n pixels. , m×n putative nuclear staining images.

図18は本実施の形態の処理部51による検出処理の手順の第2例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S71)、取得した位相差画像を走査して切り出し画像を抽出する(S72)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S73)。 FIG. 18 is a flow chart showing a second example of the procedure of detection processing by the processing unit 51 of this embodiment. The processing unit 51 acquires image data of a phase contrast image including cells to be detected (S71), scans the acquired phase contrast image, and extracts a clipped image (S72). The processing unit 51 generates input data based on the luminance value of each pixel of the extracted clipped image (S73).

処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S74)、切り出し画像毎に検出モデル部511が出力したノード0の値(確率)≧ノード1の値(確率)の場合、出力値を0(黒)とし、ノード0の値(確率)<ノード1の値(確率)の場合、出力値を1(白)として、推定核染色画像の画素値(輝度値)を決定する(S75)。 The processing unit 51 inputs the generated input data to the input node of the detection model unit 511 (S74), and the value (probability) of the node 0 output by the detection model unit 511≧the value (probability) of the node 1 for each clipped image. , the output value is set to 0 (black), and if the value (probability) of node 0 < the value (probability) of node 1, the output value is set to 1 (white), and the pixel value (brightness value) of the estimated nuclear staining image is is determined (S75).

処理部51は、推定核染色画像を生成し(S76)、位相差画像と、推定核染色画像とを対比して表示し(S77)、処理を終了する。 The processing unit 51 generates an estimated nuclear staining image (S76), displays the phase contrast image and the estimated nuclear staining image in comparison (S77), and ends the process.

なお、本実施の形態の処理部51、表示部56は、CPU、GPU、ROM、RAM、記録媒体読取部などで構成することができる。記録媒体に記録されたコンピュータプログラムを記録媒体読取部で読み取ってRAMに格納することができる。RAMに格納されたコンピュータプログラムをCPU、GPUで実行させることにより、処理部51、表示部56で行う処理を実行することができる。なお、CPUは、プロセッサ、プロセッサデバイス、プロセッシングユニットなどの総称とし、1又は複数で構成することができる。また、コンピュータプログラムは、記録媒体読取部で読み取る構成に代えて、インターネットなどのネットワークを介してダウンロードすることもできる。 Note that the processing unit 51 and the display unit 56 of the present embodiment can be configured by a CPU, GPU, ROM, RAM, recording medium reading unit, and the like. A computer program recorded on a recording medium can be read by a recording medium reading unit and stored in a RAM. The processing performed by the processing unit 51 and the display unit 56 can be executed by causing the CPU and GPU to execute computer programs stored in the RAM. Note that the CPU is a general term for processors, processor devices, processing units, etc., and can be composed of one or more. Also, the computer program can be downloaded via a network such as the Internet instead of being read by the recording medium reading unit.

前述の図14、図16等に示す第2例では、核染色画像に対して二値化処理を行う構成であったが、以下では、二値化処理の前に行う前処理について説明する。 In the second example shown in FIGS. 14, 16, etc., the configuration is such that binarization processing is performed on the stained nuclear image. In the following, preprocessing performed before binarization processing will be described.

図19は核染色画像を異なるしきい値で二値化して得られる二値化後の核染色画像の例を示す説明図である。図19Aは、撮像して得られた核染色画像(二値化する前の元画像)を示す。細胞に対して核染色を行うと、細胞の関心領域(例えば、細胞核)は必ずしも同じ強度で発光しないので、図19Aに示すように、細胞毎の発色の違い、あるいは画像全体の明るさのムラが存在する。 FIG. 19 is an explanatory diagram showing an example of a stained nuclear image after binarization obtained by binarizing a stained nuclear image with different threshold values. FIG. 19A shows a stained nuclear image (original image before binarization) obtained by imaging. When a cell is subjected to nuclear staining, the region of interest of the cell (for example, the cell nucleus) does not necessarily emit light with the same intensity. Therefore, as shown in FIG. exists.

図19Bに示すように、しきい値:140で二値化すると、画像中の細胞ではない領域の輝度が比較的高い画素が、あたかも発色位置として前景となり、細胞でない箇所が誤って細胞として扱われることになる。 As shown in FIG. 19B, when binarization is performed with a threshold of 140, pixels with relatively high luminance in non-cell regions in the image appear as the foreground as coloring positions, and non-cell regions are erroneously treated as cells. will be taken.

また、図19Cに示すように、しきい値:150で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは多少抑制することができるものの、弱い強度で発色している細胞核が除去され、細胞核を検出することができない場合が生じる。 In addition, as shown in FIG. 19C, binarization with a threshold value of 150 can somewhat suppress areas that are not cells in the image from being erroneously treated as cells, but the color develops at a weak intensity. In some cases, the cell nucleus is removed and the cell nucleus cannot be detected.

また、図19Dに示すように、しきい値:160で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは防止することができるものの、若干強い強度で発色している細胞核であっても除去される場合が生じる。このように、どのようなしきい値を用いたとしても、全ての細胞核を正確に検出することができない場合がある。 Further, as shown in FIG. 19D, binarization with a threshold value of 160 can prevent areas that are not cells in the image from being erroneously treated as cells, but the color develops with a slightly strong intensity. Even cell nuclei that are present may be removed. Thus, it may not be possible to accurately detect all cell nuclei no matter what threshold is used.

図20は本実施の形態の処理部51による二値化処理の前処理の手順の一例を示すフローチャートである。なお、図20に示す処理は、図16に示したステップS52とステップS53との間に追加される処理を含む。 FIG. 20 is a flow chart showing an example of a pre-processing procedure for binarization processing by the processing unit 51 of the present embodiment. The processing shown in FIG. 20 includes processing added between steps S52 and S53 shown in FIG.

処理部51は、核染色画像の画像データを取得する(S101)。処理部51は、核染色画像の注目画素の周辺画素の輝度値が注目画素の輝度値よりも小さい画素の数を注目画素の値として中間画像を生成する(S102)。注目画素は、核染色画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査する。注目画素の周辺画素は、例えば、注目画素を含む、21×21画素とすることができるが、周辺画素の数はこれに限定されない。 The processing unit 51 acquires image data of a stained nuclear image (S101). The processing unit 51 generates an intermediate image using the number of pixels in which the luminance value of the peripheral pixels of the pixel of interest in the stained nuclear image is smaller than the luminance value of the pixel of interest as the value of the pixel of interest (S102). The pixel of interest is scanned in the horizontal direction from the upper left of the stained nuclear image, and after the horizontal scanning is completed, the scanning position is shifted vertically and the scanning is repeated again from left to right, and finally scanned to the lower right. . The peripheral pixels of the target pixel can be, for example, 21×21 pixels including the target pixel, but the number of peripheral pixels is not limited to this.

生成された中間画像では、画素値が大きい画素は、核染色画像の注目画素の周囲の輝度が低いことを表し、画素値が小さい画素は、核染色画像の注目画素の周囲の輝度が高いことを表している。すなわち、中間画像の画素値が小さい画素は、輝度値の相対値が高い画素を含み、発光強度が周囲よりも相対的に高い細胞核に対応すると言える。 In the generated intermediate image, pixels with large pixel values represent low brightness around the pixel of interest in the stained nuclear image, and pixels with small pixel values represent high brightness around the pixel of interest in the stained nuclear image. represents. That is, it can be said that pixels with small pixel values in the intermediate image include pixels with high relative luminance values and correspond to cell nuclei with relatively higher emission intensity than surroundings.

処理部51は、中間画像をフーリエ変換して周波数スペクトルを算出し(S103)、低域通過フィルタを用いて高周波成分を除去する(S104)。これにより、細かい模様の箇所、あるいは輝度値が急激に変化するエッジの箇所などを除去することができ、核染色画像において、細胞核での輝度値の変化と異なる変化を示す箇所を除去することができる。 The processing unit 51 Fourier-transforms the intermediate image to calculate a frequency spectrum (S103), and removes high-frequency components using a low-pass filter (S104). As a result, it is possible to remove areas with fine patterns or edge areas where the luminance value changes abruptly. can.

処理部51は、逆フーリエ変換により前処理済の核染色画像を生成し(S105)、核染色画像を二値化し(S106)、処理を終了する。なお、ステップS105、S106で言及する核染色画像は、厳密には、核染色画像に対応する中間画像であるが、本明細書では、便宜上、核染色画像として説明する。 The processing unit 51 generates a preprocessed stained nuclear image by inverse Fourier transform (S105), binarizes the stained nuclear image (S106), and ends the process. Strictly speaking, the nuclear-stained images referred to in steps S105 and S106 are intermediate images corresponding to the nuclear-stained images.

図21は本実施の形態の処理部51による二値化処理の前処理での画像の例を示す説明図である。図21Aは、元画像である核染色画像を示す。図21Bは、注目画素の周辺画素の範囲(例えば、21×21画素)内で注目画素よりも輝度値の低い画素数を注目画素の値とした中間画像を示す。図21Cはフーリエ変換後の周波数スペクトルを示す。図21Cでは、中心付近が低周波成分であり、中心から離れるに従って高周波成分となる。 FIG. 21 is an explanatory diagram showing an example of an image in preprocessing for binarization processing by the processing unit 51 of this embodiment. FIG. 21A shows a nuclear stained image, which is the original image. FIG. 21B shows an intermediate image in which the value of the pixel of interest is the number of pixels whose luminance value is lower than that of the pixel of interest within the range of pixels surrounding the pixel of interest (for example, 21×21 pixels). FIG. 21C shows the frequency spectrum after Fourier transform. In FIG. 21C, the vicinity of the center is the low frequency component, and the farther from the center, the higher the frequency component.

図21Dは、低域通過フィルタによって高周波成分を除去した周波数スペクトルを示す。図21Dの例では、中心付近の円形状以外が、高周波成分として除去されている。図21Eは逆フーリエ変換後の中間画像を示す。図21Fは二値化後の画像を示す。図21Aと図21Fとを比較すると、図21Aにおいて、発光強度が異なる(輝度値が異なる)細胞核が前景として表れていることが分かる。 FIG. 21D shows a frequency spectrum with high frequency components removed by a low-pass filter. In the example of FIG. 21D, areas other than the circular shape near the center are removed as high frequency components. FIG. 21E shows the intermediate image after the inverse Fourier transform. FIG. 21F shows the image after binarization. Comparing FIG. 21A and FIG. 21F, it can be seen that in FIG. 21A, cell nuclei with different emission intensities (different luminance values) appear as the foreground.

上述のように、処理部51は、第2画像を取得する。処理部51は、取得した第2画像の注目画素の周辺画素(例えば、注目画素を含む21×21画素)の輝度値と注目画素の輝度値を比較し、注目画素よりも輝度値が小さい画素の画素数を算出し、算出した画素数を注目画素の画素値とすることにより中間画像を生成する。処理部51は、中間画像をフーリエ変換し、フーリエ変換後の周波数スペクトルにおいて高周波成分を除去する。処理部51は、高周波成分が除去された周波数スペクトルを逆フーリエ変換して中間画像(核染色画像)を生成する。処理部51は、生成した中間画像を二値化する。 As described above, the processing unit 51 acquires the second image. The processing unit 51 compares the luminance value of the pixel of interest with the luminance value of the pixels surrounding the pixel of interest (for example, 21×21 pixels including the pixel of interest) in the acquired second image, and determines the pixels whose luminance values are smaller than that of the pixel of interest. is calculated, and the calculated number of pixels is used as the pixel value of the pixel of interest to generate an intermediate image. The processing unit 51 Fourier-transforms the intermediate image and removes high-frequency components in the frequency spectrum after the Fourier-transformation. The processing unit 51 generates an intermediate image (nuclear stained image) by inverse Fourier transforming the frequency spectrum from which the high frequency component has been removed. The processing unit 51 binarizes the generated intermediate image.

なお、二値化画像を得る他の方法としては、学習データ生成部515は、例えば、細胞がいない明るさのムラのみの背景画像との背景差分法(背景画像を得る方法として、細胞がいない状態を撮影する、タイムラプス画像から時系列方向に中央値を取った画像を求める等が考えられる)、あるいは、適応的二値化処理などを用いて二値化画像を生成することができる。適応的二値化処理は、二値化するための閾値を固定せず、複数の画素で構成される領域ごとに局所的に閾値を設定する方法である。例えば、ある領域内の画素の画素値の平均値を当該領域の閾値として設定する。 As another method for obtaining a binarized image, the learning data generation unit 515 may use, for example, a background subtraction method with a background image with no cells and only brightness unevenness (as a method for obtaining a background image, there are no cells). It is conceivable that the state is photographed, an image is obtained by taking the median value in the time-series direction from the time-lapse image, etc.), or a binarized image can be generated using adaptive binarization processing or the like. The adaptive binarization process is a method of locally setting a threshold for each region composed of a plurality of pixels without fixing the threshold for binarization. For example, an average value of pixel values of pixels in a certain area is set as the threshold value of the area.

図22は本実施の形態の検出装置50の構成の他の例を示すブロック図である。図1に例示した構成との相違点は、図22の例では、学習処理部514、学習データ生成部515、第2画像データ取得部53を具備しない。すなわち、図22に示す検出装置50においては、検出モデル部511は、すでに学習済であり、さらなる学習を必要としない場合には、学習処理部514、学習データ生成部515、第2画像データ取得部53は必須の構成ではない。なお、図22に例示する検出装置50において、他の箇所は図1の構成と同様であるので説明は省略する。 FIG. 22 is a block diagram showing another example of the configuration of the detection device 50 of this embodiment. The difference from the configuration illustrated in FIG. 1 is that the learning processing unit 514, the learning data generation unit 515, and the second image data acquisition unit 53 are not provided in the example of FIG. That is, in the detection device 50 shown in FIG. 22, the detection model unit 511 has already been trained, and if further learning is not required, the learning processing unit 514, the learning data generation unit 515, and the second image data acquisition unit 514 The part 53 is not an essential component. In addition, in the detection device 50 illustrated in FIG. 22, other parts are the same as those in the configuration of FIG. 1, so description thereof will be omitted.

図23は本実施の形態の顕微鏡100の構成の一例を示すブロック図である。以下では、本実施の形態の撮像装置の一例として、顕微鏡100について説明する。顕微鏡100は、図1又は図22に例示した検出装置50を備える。なお、検出装置50は、顕微鏡100に組み込まれる構成に限定されない。 FIG. 23 is a block diagram showing an example of the configuration of the microscope 100 of this embodiment. A microscope 100 will be described below as an example of an imaging apparatus according to the present embodiment. The microscope 100 comprises the detection device 50 illustrated in FIG. 1 or 22 . Note that the configuration of the detection device 50 is not limited to being incorporated in the microscope 100 .

顕微鏡100は、検出装置50の他に、位相差画像を撮像する際に白色色を出射する白色光源11、励起光によって蛍光を発生する核染色剤が付与された細胞Cが収容されたウェルプレート10、対物レンズ13、蛍光励起用光源12、ウェルプレート10の下方に配置された蛍光用ミラーユニット14、撮像素子15、撮像素子15が出力するアナログ値をデジタル値に変換するADコンバータ(A/D)16、CPU20、メモリ23、ユーザが顕微鏡100を操作するための操作部22、ウェルプレート10に対して蛍光励起用光源12、対物レンズ13、蛍光用ミラーユニット14及び撮像素子15などを水平方向に移動するための駆動制御部21などを備える。 The microscope 100 includes, in addition to the detection device 50, a white light source 11 that emits a white color when capturing a phase contrast image, and a well plate containing cells C to which a nuclear stain that generates fluorescence by excitation light is applied. 10, an objective lens 13, a fluorescence excitation light source 12, a fluorescence mirror unit 14 arranged below the well plate 10, an imaging device 15, an AD converter (A/ D) 16, CPU 20, memory 23, operation unit 22 for the user to operate the microscope 100, fluorescence excitation light source 12, objective lens 13, fluorescence mirror unit 14, imaging element 15, etc. are horizontally arranged with respect to the well plate 10. It includes a drive control unit 21 and the like for moving in the direction.

位相差画像を撮像する場合、白色光源11からの白色光は、ウェルプレート10の上方から下方に向かって照射され、細胞Cを透過する光(回折光)と、細胞Cを透過しない光(直接光)との位相差によって、細胞の形状情報を明暗のコントラストとして撮像素子15で得ることができる。なお、顕微鏡100は、位相差画像に代えて、あるいは位相差画像とともに、明視野画像を撮像することもできる。 When capturing a phase-contrast image, the white light from the white light source 11 is irradiated from above to the bottom of the well plate 10, and the light that passes through the cells C (diffracted light) and the light that does not pass through the cells C (direct The shape information of cells can be obtained by the imaging device 15 as a contrast between light and dark due to the phase difference with light. Note that the microscope 100 can also capture a bright-field image instead of the phase-contrast image, or together with the phase-contrast image.

核染色画像を撮像する場合、蛍光励起用光源12から出射される励起光は、蛍光用ミラーユニット14によりウェルプレート10に向かって反射され、対物レンズ13を介して細胞Cに入射する。入射した励起光によって、細胞Cから蛍光が発せられる。細胞Cから発せられた蛍光は、対物レンズ13及び蛍光用ミラーユニット14を透過して撮像素子15に入射し、核染色画像を得ることができる。 When capturing a stained nuclear image, the excitation light emitted from the fluorescence excitation light source 12 is reflected toward the well plate 10 by the fluorescence mirror unit 14 and enters the cells C via the objective lens 13 . Fluorescence is emitted from the cells C by the incident excitation light. Fluorescence emitted from the cells C is transmitted through the objective lens 13 and the fluorescence mirror unit 14 and is incident on the imaging device 15 to obtain a stained nuclear image.

位相差画像の撮像と核染色画像の撮像との切り替えは、CPU20の制御の下、同一箇所(観察領域)を同時刻に行うことができる。また、操作部22からの操作に応じて、例えば、撮影箇所、撮影タイミングを設定して自動で撮影することもできる。 Under the control of the CPU 20, switching between the imaging of the phase contrast image and the imaging of the stained nuclear image can be performed at the same point (observation region) at the same time. Further, according to the operation from the operation unit 22, for example, it is possible to set the shooting location and the shooting timing and automatically shoot.

図24は本実施の形態の検出システムの構成の一例を示す模式図である。検出システムは、例えば、顕微鏡100、ユーザが使用する端末装置200、アプリケーション又はデータベースなどを提供するサーバ300などを備えることができる。端末装置200には、画像を表示することができる表示装置60が接続されている。なお、表示装置60を端末装置200に組み込むこともできる。図24に示す検出システムにおいて、本実施の形態の検出装置50は、顕微鏡100、端末装置200及びサーバ300のいずれか一つに組み込むことができる。前述の図23の例では、検出装置50を顕微鏡100に組み込んだ例を説明した。 FIG. 24 is a schematic diagram showing an example of the configuration of the detection system of this embodiment. The detection system may comprise, for example, a microscope 100, a terminal device 200 for use by a user, a server 300 for providing applications, databases, or the like. A display device 60 capable of displaying an image is connected to the terminal device 200 . Note that the display device 60 can also be incorporated in the terminal device 200 . In the detection system shown in FIG. 24, the detection device 50 of this embodiment can be incorporated into any one of the microscope 100, the terminal device 200 and the server 300. FIG. In the example of FIG. 23 described above, an example in which the detection device 50 is incorporated in the microscope 100 has been described.

顕微鏡100と端末装置200とは、例えば、通信線を介して接続することができる。また、端末装置200とサーバ300とは、インターネットなどの通信ネットワーク1を介して接続することができる。 The microscope 100 and the terminal device 200 can be connected via a communication line, for example. Also, the terminal device 200 and the server 300 can be connected via the communication network 1 such as the Internet.

サーバ300に検出装置50を組み込んだ場合、サーバ300は、細胞を検出する検出モデル部511、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部、取得した画像データを検出モデル部511に入力し、細胞を染色することなく、細胞の関心領域を含む推定核染色画像に係る推定画像データを出力する出力部などを備える。 When the detection device 50 is incorporated in the server 300, the server 300 includes a detection model unit 511 that detects cells, an acquisition unit that acquires image data related to at least one of a phase contrast image or a bright field image containing cells, and an acquired image. An output unit for inputting data to the detection model unit 511 and outputting estimated image data related to an estimated nuclear staining image including the region of interest of the cell without staining the cell is provided.

上述の実施の形態では、第2方法によって得られた第2画像の例として、核染色画像について説明した。核染色画像は、細胞核の染色だけでなく、細胞内の小器官を認識できる画像も含まれる。また、第2画像としては、染色剤などを用いた核染色画像などの蛍光イメージングに限定されるものではなく、例えば、造影剤などを用いたRI(放射性同位元素)イメージングによる手法で得られた画像も含まれる。 In the above embodiment, the stained nuclear image has been described as an example of the second image obtained by the second method. The nuclear staining image includes not only the staining of the cell nucleus, but also an image that allows recognition of intracellular organelles. In addition, the second image is not limited to fluorescent imaging such as a nuclear staining image using a staining agent, for example, RI (radioisotope) imaging using a contrast agent. Images are also included.

次に、マウスの表皮細胞の提供方法について説明する。なお、提供する細胞として、以下では、マウスの表皮細胞について説明するが、提供する細胞は、マウスの表皮細胞に限定されるものではない。 Next, a method for providing mouse epidermal cells will be described. As the cells to be provided, mouse epidermal cells are described below, but the cells to be provided are not limited to mouse epidermal cells.

図25は本実施の形態のマウスの表皮細胞の提供方法の一例を示す模式図である。図25に示すように、通信ネットワークを介して、配信サーバ310、提供サーバ320、ユーザが使用する端末装置201、タブレット端末202などが接続されている。なお、タブレット端末202は、スマートフォンでもよい。 FIG. 25 is a schematic diagram showing an example of a method for providing mouse epidermal cells according to the present embodiment. As shown in FIG. 25, a distribution server 310, a provision server 320, a terminal device 201 used by a user, a tablet terminal 202, and the like are connected via a communication network. Note that the tablet terminal 202 may be a smart phone.

配信サーバ310の送信部311は、本実施の形態のコンピュータプログラムを特定のユーザの端末装置201に配信する。端末装置201は、配信されたコンピュータプログラムをインストールすることができ、これによって、端末装置201は、本実施の形態の検出装置50が組み込まれた構成となる。特定のユーザは、例えば、本実施の形態のコンピュータプログラムを用いて細胞の解析を行う企業、研究機関、医療機関などのユーザであり、予め登録されているユーザとすることができる。 Transmission unit 311 of distribution server 310 distributes the computer program of the present embodiment to terminal device 201 of a specific user. The distributed computer program can be installed on the terminal device 201, whereby the terminal device 201 has a configuration in which the detecting device 50 of the present embodiment is incorporated. The specific user is, for example, a user of a company, research institution, medical institution, or the like that performs cell analysis using the computer program of the present embodiment, and can be a pre-registered user.

ユーザは、タブレット端末202から、提供サーバ320に対して、マウスの表皮細胞の提供を要求する。当該要求には、ユーザの認証のためのID、パスワードなどを含めることができる。 The user requests the provision server 320 to provide mouse epidermal cells from the tablet terminal 202 . The request can include an ID, password, etc. for user authentication.

提供サーバ320の受信部321は、ユーザからの要求を受信すると、認証部322は、ユーザが正規のユーザであるか否かの認証処理を行う。認証処理の結果、正規のユーザからの要求である場合、情報生成部323は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成する。マウスの表皮細胞を提供するための提供情報は、例えば、マウスの表皮細胞を輸送するための宛先情報などを含む。 When the reception unit 321 of the providing server 320 receives the request from the user, the authentication unit 322 performs authentication processing to determine whether the user is a legitimate user. As a result of authentication processing, if the request is from a legitimate user, the information generation unit 323 generates provision information for providing mouse epidermal cells to the user. Provided information for providing mouse epidermal cells includes, for example, destination information for transporting mouse epidermal cells.

これにより、本実施の形態のコンピュータプログラムが配信された特定のユーザに対して、マウスの表皮細胞を間違いなく提供することができる。また、学習に使用した細胞と同じ培養環境で培養した細胞をコンピュータプログラムと一緒に提供することにより、当該コンピュータプログラムによる細胞の検出精度を担保することができる。 As a result, mouse epidermal cells can be provided without fail to specific users to whom the computer program of the present embodiment has been distributed. In addition, by providing cells cultured in the same culture environment as the cells used for learning together with a computer program, the accuracy of cell detection by the computer program can be ensured.

なお、配信サーバ310と提供サーバ320とは、統合して一つのサーバ(例えば、提供サーバ320)で構成することもできる。 Note that the distribution server 310 and the provision server 320 can be integrated into one server (for example, the provision server 320).

図26は本実施の形態のマウスの表皮細胞の提供方法の処理手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を提供サーバ320として説明する。提供サーバ320は、特定のユーザに本実施の形態のプログラム(コンピュータプログラム)を配信する(S91)。提供サーバ320は、ユーザからマウスの表皮細胞の提供要求があるか否かを判定し(S92)、要求がない場合(S92でNO)、ステップS92の処理を続ける。 FIG. 26 is a flow chart showing an example of the procedure of the method for providing mouse epidermal cells according to the present embodiment. For the sake of convenience, the following description assumes that the main body of processing is the providing server 320 . The providing server 320 distributes the program (computer program) of the present embodiment to a specific user (S91). The provision server 320 determines whether or not there is a request for provision of mouse epidermal cells from the user (S92), and if there is no request (NO in S92), continues the processing of step S92.

要求があった場合(S92でYES)、提供サーバ320は、ユーザの認証処理を行い(S93)、正規のユーザであるか否かを判定する(S94)。正規のユーザである場合(S94でYES)、提供サーバ320は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成し(S95)、処理を終了する。正規のユーザではない場合(S94でNO)、提供サーバ320は、処理を終了する。 If there is a request (YES in S92), the providing server 320 performs user authentication processing (S93) and determines whether the user is authorized (S94). If the user is a legitimate user (YES in S94), the provision server 320 generates provision information for providing mouse epidermal cells to the user (S95), and ends the process. If the user is not an authorized user (NO in S94), the providing server 320 terminates the process.

本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。 A computer program according to the present embodiment is a computer program for causing a computer to detect a specimen, wherein the computer is provided with first image data relating to a first image containing a learning specimen obtained by a first method. and a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen. A process of acquiring image data, a process of generating learning data based on the first image data and the second image data, and the first image data related to the first image containing the specimen obtained by the first method. a process of training the detector based on the generated learning data so that the detector can detect the specimen based on the.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの画素の特徴量を関連付けて前記学習データを生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of identifying a plurality of pixel blocks each having a predetermined number of pixels from the second image, and identifying a pixel block of the first image corresponding to the identified pixel block. and generating the learning data by associating the feature values of the pixels of the specified pixel block.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像の画素ブロックに、前記特定した画素ブロック内の所定画素の画素値を関連付けて前記学習データを生成する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute a process of generating the learning data by associating the pixel block of the first image with the pixel value of the predetermined pixel in the specified pixel block.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像を二値化する処理と、前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process for binarizing the second image and a predetermined either a process of specifying a plurality of pixel blocks composed of the number of pixels, or pixel values of binarized predetermined pixels of the specified pixel blocks in the pixel blocks of the first image corresponding to the specified pixel blocks. are associated with each other to generate the learning data.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute a process of displaying an estimated position of a sample based on a result of learning the detector.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of acquiring first image data related to a first image containing a specimen, obtained by the first method, and a predetermined number of pixels from the first image. A process of specifying a plurality of pixel blocks to be configured, a process of generating input data based on the pixel values of each pixel in the specified pixel blocks, and an output value output from the detector to which the generated input data is input. and generating an estimated image of the second image including the region of interest of the specimen obtained by the second method without relying on the second method.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像と前記推定画像とを対比して表示する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute processing for displaying the first image and the estimated image in comparison.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels from each of a plurality of first images containing a specimen obtained in time series by the first method. a process of generating a plurality of sets of input data for each of the plurality of first images based on the pixel value of each pixel of the specified pixel block; and the detector to which the plurality of sets of input data are input. and a process of displaying the estimated movement trajectory of the specimen based on the output value output by the.

本実施の形態に係るコンピュータプログラムは、コンピュータに、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理とを実行させる。 The computer program according to the present embodiment provides a computer with a process of acquiring the first image data related to at least one of a phase contrast image or a bright field image containing cells, and a staining image containing the region of interest of the cells. and a process of acquiring the second image data.

本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。 A computer program according to the present embodiment is a computer program for causing a computer to detect a specimen, wherein the computer acquires first image data relating to a first image containing the specimen obtained by a first method. The second method, without relying on a second method different from the first method, that enables identification of a region of interest in the specimen based on the acquired first image data and the trained detector. and generating an estimated image of the second image including the region of interest of the specimen obtained by.

本実施の形態に係る検出装置は、検体を検出する検出装置であって、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。 A detection device according to the present embodiment is a detection device that detects a sample, and includes a first acquisition unit that acquires first image data related to a first image that includes a learning sample and is obtained by a first method; , obtaining second image data relating to a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen a second acquisition unit, a learning data generation unit that generates learning data based on the first image data and the second image data, and a first image related to the first image containing the specimen obtained by the first method a learning processing unit that makes the detector learn based on the generated learning data so that the detector can detect the specimen based on the data.

本実施の形態に係る検出装置は、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する取得部と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部とを備える。 The detection device according to the present embodiment includes an acquisition unit that acquires first image data related to a first image containing a specimen obtained by the first method, and a predetermined number of pixels from the first image. an specifying unit for specifying a plurality of pixel blocks to be specified, an input data generating unit for generating input data based on pixel values of pixels in the pixel blocks specified by the specifying unit, and input data generated by the input data generating unit. An image for generating an estimated image of a second image including the region of interest of the specimen obtained by the second method without relying on the second method, based on the input output values output by the detector. and a generator.

本実施の形態に係る検出装置は、検体の関心領域の種別毎に前記検出器を複数備える。 The detection apparatus according to the present embodiment includes a plurality of detectors for each type of region of interest of the specimen.

本実施の形態に係る検出装置において、前記検出器は、入力データを出力値に変換する複数のパラメータを有し、前記学習処理部は、前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている。 In the detection device according to this embodiment, the detector has a plurality of parameters for converting input data into an output value, and the learning processing unit updates the plurality of parameters of the detector to detect the Makes the device relearnable.

本実施の形態に係る撮像装置は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方を出力する第1出力部と、撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。 The imaging device according to the present embodiment includes a first output unit that outputs at least one of a phase-contrast image and a bright-field image containing cells obtained by imaging, and a region of interest of the cell obtained by imaging. A second output unit that outputs a stained image containing a and a second acquisition unit that acquires second image data related to the stained image including the region of interest of the learning cell output by the second output unit, and based on the first image data and the second image data Based on the first image data related to at least one of the phase-contrast image and the bright-field image containing the cell, output by the learning data generation unit that generates learning data and the first output unit so that the detector can detect the cell a learning processing unit for learning the detector based on the generated learning data.

本実施の形態に係る撮像装置は、細胞を含む位相差画像又は明視野画像の少なくとも一方から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部とを備える。 The imaging device according to the present embodiment includes a specifying unit that specifies a plurality of pixel blocks each having a predetermined number of pixels from at least one of a phase-contrast image and a bright-field image containing cells, and a pixel block specified by the specifying unit. an input data generation unit that generates input data based on the pixel value of each pixel of the input data generation unit; and an image data generation unit that generates estimated image data related to an estimated image of a stained image that includes the region of interest of the cell.

本実施の形態に係るサーバは、細胞を検出する検出器と、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部とを備える。 The server according to the present embodiment includes a detector that detects cells, an acquisition unit that acquires image data related to at least one of a phase contrast image or a bright field image containing cells, and image data acquired by the acquisition unit. and an output unit for inputting to the detector and outputting estimated image data relating to an estimated image of a stained image including the region of interest of the cell without staining the cell.

本実施の形態に係る画像データは、細胞が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、前記推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出器に入力して前記検出器が出力する出力値に基づいて生成され、前記検出器は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。 The image data according to the present embodiment is image data in which cells are detected, and has a structure including estimated image data related to an estimated image of a stained image including a region of interest of a cell obtained by imaging, The estimated image is obtained by inputting input data based on first image data related to at least one of a phase contrast image or a bright field image containing cells to a detector that detects cells, and the detector is generated based on the output value output by the detector, the first image data related to at least one of the phase contrast image or the bright field image containing the learning cell obtained by imaging, and the first image data obtained by imaging learning is performed by learning data generated based on the second image data related to the stained image including the region of interest of the learning cell.

本実施の形態に係る検出器は、細胞を検出する検出器であって、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。 The detector according to the present embodiment is a detector that detects cells, and is obtained by imaging, first image data related to at least one of a phase contrast image or a bright field image containing learning cells, and Learning is performed by learning data generated based on the second image data related to the stained image including the region of interest of the learning cell obtained by imaging.

本実施の形態に係る検出器は、前記染色画像から所定の画素数で構成される画素ブロックを複数特定し、特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画素ブロックに、特定した画素ブロックの画素の特徴量を関連付けて生成された学習データによって学習されている。 The detector according to the present embodiment identifies a plurality of pixel blocks composed of a predetermined number of pixels from the stained image, and at least one pixel block of the phase contrast image or the bright field image corresponding to the identified pixel block. is learned by learning data generated by associating the feature values of the pixels of the specified pixel block.

本実施の形態に係る検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付ける入力部と、該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部とを備える。 The detector according to the present embodiment includes an input unit that receives as input data image data related to at least one of a phase contrast image and a bright field image containing cells obtained by imaging, and an input received by the input unit an output unit configured to output estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell, based on the data.

本実施の形態に係る検出方法は、細胞を検出する検出器による検出方法であって、前記検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する。 The detection method according to the present embodiment is a detection method using a detector that detects cells, and the detector is obtained by imaging and relates to at least one of a phase contrast image or a bright field image containing cells Receiving image data as input data, and outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell based on the received input data. .

本実施の形態に係る提供方法は、所定環境下で培養された細胞の提供方法であって、コンピュータに、撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、取得した画像データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理とを実行させるコンピュータプログラムを配信し、前記コンピュータプログラムが配信されたユーザからの要求を受け付けた場合、前記ユーザに所定環境下で培養された細胞を提供するための情報を生成する。 The provision method according to the present embodiment is a method for providing cells cultured under a predetermined environment, wherein at least one of a phase contrast image or a bright field image containing the cells obtained by imaging a computer is and outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell based on the acquired image data. When a computer program for executing the processing to be performed is distributed, and a request from the user to whom the computer program is distributed is received, information for providing the user with cells cultured under a predetermined environment is generated.

50 検出装置
51 処理部
511 検出モデル部
512 入力データ生成部
513 推定画像生成部
514 学習処理部
515 学習データ生成部
52 第1画像データ取得部
53 第2画像データ取得部
54 メモリ
55 出力部
56 表示部
60 表示装置
100 顕微鏡
200、201 端末装置
300 サーバ
310 配信サーバ
320 提供サーバ
50 detection device 51 processing unit 511 detection model unit 512 input data generation unit 513 estimated image generation unit 514 learning processing unit 515 learning data generation unit 52 first image data acquisition unit 53 second image data acquisition unit 54 memory 55 output unit 56 display Section 60 Display Device 100 Microscope 200, 201 Terminal Device 300 Server 310 Distribution Server 320 Provision Server

Claims (18)

コンピュータに、検体を検出させるためのコンピュータプログラムであって、
コンピュータに、
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理と、
前記第2画像を二値化する処理と、
前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理と
を実行させるコンピュータプログラム。
A computer program for causing a computer to detect an analyte,
to the computer,
A process of acquiring first image data related to a first image containing a learning sample obtained by the first method;
A process of acquiring second image data relating to a second image including the region of interest of the learning specimen, which is obtained by a second method different from the first method that enables identification of the region of interest in the learning specimen. When,
a process of generating learning data based on the first image data and the second image data;
A process of learning the detector based on the generated learning data so that the detector can detect the specimen based on the first image data related to the first image containing the specimen obtained by the first method;
a process of binarizing the second image;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each of the binary pixel values of the pixels obtained by the binarization process;
a computer that causes the pixel block of the first image corresponding to the specified pixel block to be associated with any of the pixel values of the binarized predetermined pixels of the specified pixel block to generate the learning data. program.
コンピュータに、
前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる請求項1に記載のコンピュータプログラム。
to the computer,
2. The computer program according to claim 1, which executes a process of displaying the estimated position of the specimen based on the result of learning the detector.
コンピュータに、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、
生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と
を実行させる請求項1又は請求項2に記載のコンピュータプログラム。
to the computer,
a process of acquiring first image data relating to a first image containing a specimen, obtained by the first method;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels from the first image;
a process of generating input data based on the pixel value of each pixel in the identified pixel block;
Estimation of a second image including the region of interest of the specimen obtained by the second method without relying on the second method, based on the output value output by the detector to which the generated input data is input 3. The computer program according to claim 1 or 2, causing the execution of a process of generating an image.
コンピュータに、
前記第1画像と前記推定画像とを対比して表示する処理を実行させる請求項3に記載のコンピュータプログラム。
to the computer,
4. The computer program according to claim 3, causing execution of processing for displaying the first image and the estimated image in comparison.
コンピュータに、
前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、
前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、
前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理と
を実行させる請求項1から請求項4のいずれか一項に記載のコンピュータプログラム。
to the computer,
A process of identifying a plurality of pixel blocks composed of a predetermined number of pixels from each of a plurality of first images containing the specimen obtained in time series by the first method;
generating a plurality of sets of input data for each of the plurality of first images based on the pixel value of each pixel in the identified pixel block;
5. The process of displaying an estimated movement trajectory of the specimen based on output values output by the detector to which the plurality of sets of input data are input, and executing: computer program.
コンピュータに、
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、
前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理と
を実行させる請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
to the computer,
A process of acquiring the first image data related to at least one of a phase contrast image or a bright field image containing cells;
6. The computer program according to any one of claims 1 to 5, causing execution of a process of acquiring the second image data related to the stained image including the region of interest of the cell.
コンピュータに、検体を検出させるためのコンピュータプログラムであって、
コンピュータに、
第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と、
前記第2画像を二値化する処理と、
前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習済検出器を学習させる学習データを生成する処理と
を実行させるコンピュータプログラム。
A computer program for causing a computer to detect an analyte,
to the computer,
a process of acquiring first image data relating to a first image containing the specimen obtained by the first method;
The obtained by the second method without relying on a second method different from the first method, which enables identification of a region of interest in the specimen based on the acquired first image data and the trained detector. a process of generating an estimated image of the second image containing the region of interest of the specimen;
a process of binarizing the second image;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each of the binary pixel values of the pixels obtained by the binarization process;
Learning data for learning the learned detector is generated by associating a pixel block of the first image corresponding to the specified pixel block with any of pixel values of binarized predetermined pixels of the specified pixel block. A computer program that causes a process to be performed.
検体を検出する検出装置であって、
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備え、
前記学習データ生成部は、
前記第2画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する検出装置。
A detection device for detecting a specimen,
a first acquisition unit that acquires first image data related to a first image containing a learning sample, which is obtained by the first method;
Acquiring second image data related to a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen 2 an acquisition unit;
a learning data generation unit that generates learning data based on the first image data and the second image data;
A learning processing unit for learning the detector based on the generated learning data so that the detector can detect the specimen based on the first image data related to the first image containing the specimen obtained by the first method. and
The learning data generation unit
binarizing the second image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
A detection device that generates the learning data by associating a pixel block of the first image corresponding to the specified pixel block with any of pixel values of binarized predetermined pixels of the specified pixel block.
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する取得部と、
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部と
を備える請求項8に記載の検出装置。
an acquisition unit that acquires first image data related to a first image containing the specimen, which is obtained by the first method;
a specifying unit that specifies a plurality of pixel blocks each having a predetermined number of pixels from the first image;
an input data generation unit that generates input data based on the pixel value of each pixel in the pixel block identified by the identification unit;
including the region of interest of the specimen obtained by the second method without relying on the second method, based on the output value output by the detector to which the input data generated by the input data generation unit is input 9. The detection device according to claim 8, comprising an image generator for generating an estimated image of the second image.
検体内の関心領域の種別毎に前記検出器を複数備える請求項8又は請求項9に記載の検出装置。 10. The detection apparatus according to claim 8, comprising a plurality of said detectors for each type of region of interest in the specimen. 前記検出器は、
入力データを出力値に変換する複数のパラメータを有し、
前記学習処理部は、
前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている請求項8から請求項10のいずれか一項に記載の検出装置。
The detector is
has multiple parameters that transform input data into output values,
The learning processing unit
11. A detection apparatus according to any one of claims 8 to 10, wherein the plurality of parameters of the detector are updated to allow the detector to be retrained.
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方を出力する第1出力部と、
撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、
前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、
前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備え、
前記学習データ生成部は、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する撮像装置。
a first output unit that outputs at least one of a phase-contrast image or a bright-field image containing cells obtained by imaging;
a second output unit that outputs a stained image containing a region of interest of a cell obtained by imaging;
a first acquisition unit that acquires first image data related to at least one of a phase contrast image or a bright field image containing learning cells, which is output by the first output unit;
a second acquisition unit for acquiring second image data relating to a stained image including the region of interest of the learning cell, output by the second output unit;
a learning data generation unit that generates learning data based on the first image data and the second image data;
The detection based on the generated learning data so that the detector can detect the cell based on the first image data related to at least one of the phase contrast image or the bright field image containing the cell, which the first output unit outputs and a learning processing unit for learning a device,
The learning data generation unit
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
The learning data by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with the binarized pixel value of the specified pixel of the specified pixel block. An imaging device that produces
細胞を含む位相差画像又は明視野画像の少なくとも一方から所定の画素数で構成される画素ブロックを複数特定する特定部と、
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部と
を備える請求項12に記載の撮像装置。
an identifying unit that identifies a plurality of pixel blocks each composed of a predetermined number of pixels from at least one of a phase-contrast image and a bright-field image containing cells;
an input data generation unit that generates input data based on the pixel value of each pixel in the pixel block identified by the identification unit;
Based on the output value output by the detector to which the input data generated by the input data generation unit is input, estimated image data related to an estimated image of a stained image including the region of interest of the cell without staining the cell. 13. The imaging apparatus according to claim 12, further comprising: an image data generation unit that generates a .
細胞を検出する検出器と、
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、
該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部と、
前記検出器を学習させる学習データを生成する学習データ生成部と
を備え、
前記学習データ生成部は、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成するサーバ。
a detector for detecting cells;
an acquisition unit that acquires image data related to at least one of a phase-contrast image and a bright-field image containing cells;
an output unit that inputs image data acquired by the acquisition unit to the detector and outputs estimated image data related to an estimated image of a stained image that includes a region of interest of the cell without staining the cell;
a learning data generation unit that generates learning data for learning the detector,
The learning data generation unit
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
The learning data by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with the binarized pixel value of the specified pixel of the specified pixel block. server that generates the .
細胞を検出する検出器であって、
撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習され、
さらに、前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて生成された学習データによって学習されている検出器。
A detector for detecting cells,
First image data related to at least one of a phase-contrast image or a bright-field image containing the learning cell obtained by imaging, and a stained image containing the region of interest of the learning cell obtained by imaging Learned by learning data generated based on the second image data,
Further, binarize the stained image,
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
generated by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with one of the binarized pixel values of the specified pixels of the specified pixel block A detector that has been trained on the training data.
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付ける入力部と、
該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部と
を備える請求項15に記載の検出器。
an input unit that receives, as input data, image data relating to at least one of a phase-contrast image containing cells and a bright-field image obtained by imaging;
an output unit for outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell, based on the input data received by the input unit; 16. The detector of claim 15, comprising:
細胞を検出する検出器による検出方法であって、
前記検出器は、
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、
受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力し、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記検出器を学習させる学習データを生成する検出方法。
A detection method using a detector that detects cells,
The detector is
Accepting as input data image data relating to at least one of a phase-contrast image or a bright-field image containing cells, obtained by imaging;
Based on the received input data, outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging without staining the cell,
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
A pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block is associated with one of the binarized pixel values of predetermined pixels of the specified pixel block, and the detector A detection method that generates training data for learning .
所定環境下で培養された細胞の提供方法であって、
コンピュータに、
撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、
取得した画像データを、学習データによって学習された検出器に入力し、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理と
を実行させるコンピュータプログラムを配信サーバが配信し、
前記コンピュータプログラムが配信されたユーザの端末装置からの要求を提供サーバが受け付けた場合、前記ユーザの端末装置に前記検出器の学習に使用した細胞と同じ培養環境下で培養された細胞を提供するための提供情報を前記提供サーバが生成し、
生成された提供情報に基づいて前記ユーザ宛に前記細胞を提供する提供方法。
A method for providing cells cultured under a predetermined environment, comprising:
to the computer,
A process of acquiring image data related to at least one of a phase-contrast image or a bright-field image containing the cell, obtained by imaging;
Estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by inputting the acquired image data into a detector trained by the learning data and imaging the cell without staining the cell. The distribution server distributes the output processing and the computer program for executing
When the providing server accepts a request from the user's terminal device to which the computer program was delivered, the user's terminal device is provided with cells cultured in the same culture environment as the cells used for learning the detector. The provision server generates provision information for
A provision method for providing the cells to the user based on the generated provision information .
JP2017220327A 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method Active JP7135303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220327A JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220327A JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Publications (2)

Publication Number Publication Date
JP2019091307A JP2019091307A (en) 2019-06-13
JP7135303B2 true JP7135303B2 (en) 2022-09-13

Family

ID=66836400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220327A Active JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Country Status (1)

Country Link
JP (1) JP7135303B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019135939A (en) * 2018-02-07 2019-08-22 澁谷工業株式会社 Cell count method, cell count device and cell culture method
JPWO2021070372A1 (en) * 2019-10-11 2021-04-15
JP2021064115A (en) * 2019-10-11 2021-04-22 株式会社島津製作所 Cell image analysis method and cell analysis device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014939A (en) 2007-07-03 2009-01-22 Olympus Corp Microscope system, method and program of its vs image formation
JP2011229409A (en) 2010-04-23 2011-11-17 Nagoya Univ Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method
US20140270457A1 (en) 2013-03-15 2014-09-18 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
WO2015068759A1 (en) 2013-11-06 2015-05-14 独立行政法人科学技術振興機構 Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate
JP2016184224A (en) 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105432A1 (en) * 2016-12-06 2018-06-14 富士フイルム株式会社 Cell image evaluation device and cell image evaluation control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014939A (en) 2007-07-03 2009-01-22 Olympus Corp Microscope system, method and program of its vs image formation
JP2011229409A (en) 2010-04-23 2011-11-17 Nagoya Univ Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method
US20140270457A1 (en) 2013-03-15 2014-09-18 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
WO2015068759A1 (en) 2013-11-06 2015-05-14 独立行政法人科学技術振興機構 Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate
JP2016184224A (en) 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method

Also Published As

Publication number Publication date
JP2019091307A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP6915349B2 (en) Image processing equipment, image processing method, and image processing program
US11861889B2 (en) Analysis device
US11580640B2 (en) Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks
Arndt-Jovin et al. Fluorescence digital imaging microscopy in cell biology
Bayraktar et al. Feature extraction from light-scatter patterns of Listeria colonies for identification and classification
JP7135303B2 (en) Computer program, detection device, imaging device, server, detector, detection method and provision method
JP2009512927A (en) Image processing method
WO2017150194A1 (en) Image processing device, image processing method, and program
TW202041850A (en) Image noise reduction using stacked denoising auto-encoder
CN111095360A (en) Virtual staining of cells in digital holographic microscopy images using a universal countermeasure network
JP2015210212A (en) Cell life-and-death determination system and cell life-and-death determination method
US11068695B2 (en) Image processing device, observation device, and program
CN111160235A (en) Living body detection method and device and electronic equipment
EP3973447B1 (en) Surface recognition
JP7148776B2 (en) Colony identification system, colony identification method and colony identification program
Schaefer Strategies for imbalanced pattern classification for digital pathology
Nedzved et al. Automatic analysis of moving particles by total internal reflection fluorescence microscopy
To Deep Learning Classification of Deep Ultraviolet Fluorescence Images for Margin Assessment During Breast Cancer Surgery
JP7248139B2 (en) Cell image analysis method and cell analysis device
RU2774624C1 (en) Method and system for determining synthetic changes of faces in video
Manimurugan et al. HLASwin-T-ACoat-Net based Underwater Object Detection
US20190073516A1 (en) Image processing device, observation device, and program
John et al. An Objective Evaluation of Harris Corner and FAST Feature Extraction Techniques for 3D Reconstruction of Face in Forensic Investigation
Sun et al. HistDeblur: A Pyramid Trustworthy Framework for Blurry Histologic Artifacts Quality Control
CN114998339A (en) Plane mirror imaging scoring method, device and equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150